Data Science(40)
-
[QGIS] 좌표와 격자데이터 연결하기-'지리/공간 데이터를 통해 '시대 상황을 고려한' 전기차 충전소 입지 예측 모델 구현
전기차 충전소 입지 모델 예측을 하기 위해 격자 데이터를 수집하고 각종 csv파일과 geoJson파일을 수집해 데이터 전처리를 하기 시작했다. https://map.ngii.go.kr/ms/map/NlipMap.do# 국토정보플랫폼 국토정보맵 선택 선택 map.ngii.go.kr 국토 정보 플랫폼을 통해서 많은정보를 수집했고 추가적으로 필요한 것 들은 공공데이터 자료를 통해서 수집하였다. QGIS로 국토정보맵 파일을 다운 받아 확인해 보면 geoJson파일이 아니여서 따로 작업이 필요하다. geoJson 변환 - shp을 geoJson변환(로컬로 실행) #다운로드 한 파일을 모두 한 폴더에 넣고 로컬로 실행해야함 # Shapefile의 경로 shp_file_path = 'Downloads/(B100)구..
2024.03.13 -
분류모형 성과평가 오분류표
지표 계산식 정확도 TP/전체(TP+FP+FN+TN) 정밀도 TP/TP+FP 재현율 TP/TP+FN 특이도 TN/TN+FP TP를고정으로 실제에는 FP, 예측에는 FN 쓰면 외우기 편함
2024.02.20 -
[Python] PyCaret 설치
가상환경 설정 폴더 생성 터미널 실행 터미널에서 폴더로 경로를 지정해줍니다. cd 폴더경로 conda create --name yourenvname python=3.10 yourenvname대신에 , 사용할 이름을 설정 conda activate yourenvname 가상환경으로 접속해줍니다. 터미널 앞()에 지정한 이름으로 가상환경이 설정되어 있는지 체크해줍니다. pip install pycaret pycaret을 설치 해줍니다. conda install -c conda-forge jupyterlab 주피터랩을 설치해줍니다. jupyter lab 주피터랩을 실행해 줍니다. import pycaret pycaret.__version__ 버전이 확인된다면 설치가 완료된겁니다!
2024.02.14 -
서울시 열린데이터광장 /서울시 부동산 실거래가 데이터로 재개발 부지 예측/선정 프로젝트
https://github.com/JiHoonYoon00/real-estate-dashboard [GitHub - JiHoonYoon00/real-estate-dashboard Contribute to JiHoonYoon00/real-estate-dashboard development by creating an account on GitHub. github.com](https://github.com/JiHoonYoon00/real-estate-dashboard) real-estate-dashboard 프로젝트 소개 본 프로젝트는 서울시의 2022년과 2023년 부동산 거래 데이터와 법정동 좌표를 활용하여 재개발이 예상되는 지역을 식별합니다. 이를 통해 식별된 지역을 분석하고 Naver Open Searc..
2024.02.10 -
[UX/UI특강] 멀티캠퍼스UX/UI특강을 들으며/ 문고리 디자인 해보기
특강중 조를 짜서 간단하게 수행해야하는 미션이 있었는데 바로 '문고리를 디자인하기' 였다. 30분 남짓한 시간이지만 창의적인 생각을 해볼 수 있었던 조별활동이였다. 특별한 상황을 설정한다 사용자의 행동을 인식한다 적절한 디자인을 시행한다 위 세가지 조건을 가지고 문고리디자인을 생각해보았다. 문고리를 디자인한다고 하면 물건을 들고있을때 어린이나 노약자, 장애인, 애완동물등 처음에는 쉽게 접근을 해보았지만, 무언가 재미가 별로 없네..? 라는 생각이 들기 시작 할때 쯤 조원분께서 자기는 당기시오/미시오를 잘 보지 못해서 실수하는 경우가 많다고 얘기를 꺼내셨다. 그때 문득 머릿속에서 우리가 당겨야하는 경우가 무엇이 있을까??? 갑자기 머릿속에 냉장고라는 아이디어가 떠올라서 팀원들과 토의를 나눠보니 생각보다 참..
2024.02.03 -
뽐뿌 핫딜 데이터 크롤링/ csv파일 뽑기 코드 리뷰
사용된 라이브러리 from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver.common.by import By import pandas as pd import time import random 상세 코드 def page1_crawling(driver): titles = [] urls = [] start_num = 9 end_num = 47 for i in range(start_num, end_num + 1, 2): title_css_path = '#revolution_main_table > tbody > tr:nth-child(' + str(i) + ') > td:nt..
2024.02.01