machine learning6 KNN (KNeighborsClassifier), K means의 차이점 가장 큰 차이는 분류(Classifier)와 군집(Clustering) 차이! Kmeans = Clustering KNN = Classifier 둘다 가까운 친구들을 이용해서 분석하는 방법. 둘다 K가 들어가는데, 여기 들어가는 K의 경우 Classification, Clustering을 하는 참조기준이 된다. Kmeans에서는 K는 군집을 만들는 개수 위한 기준이 되고, 여러 알고리즘을 통해서 군집화시킨다. (중심대비 거리의 제곱합과 같은 알고리즘, 참조-wikipedia) 그러나 Kmeans의 경우 임의로 군집들의 중심을 잡기때문에, 돌리면 돌릴수록 결과값들이 달라질 수 있다. 반면, KNN의 경우는 K개를 참조하여 분류를 하는 방법이다. K가 높으면 높을수록 주변 데이터들과의 거리와 분류를 계산 해.. 2020. 11. 13. SVM 최적화 시키기 저번에 배웠던 SVM은 default로 기본적인 값들 상태들에 대해서만 분석을 진행을 하였습니다. 이번에는 모델을 최적화 시키는 방법에 대해서 알아보도록 하겠습니다. 오늘의 경우 feature selection을 제외하고, Best parameter를 찾는 방법에 대해서 알아보도록 하겠습니다. 먼저 저번 모델을 불러 오도록 하겠습니다. 1. 사용할 모듈 적용시키기 import numpy as np from sklearn import preprocessing from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.svm import SVC from skl.. 2020. 7. 21. Breast Cancer Detection with Decision tree 오늘 포스팅할 내용은 Decision tree입니다. 1. 필요 모듈 설정 import numpy as np import pandas as pd import os import seaborn as sns import matplotlib.pyplot as plt from sklearn import tree from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score from sklearn.metrics import confusion_matrix 2. Data load url = "https://archive.ics.uci.edu/ml/machine-learning-databases/breast-ca.. 2020. 7. 17. Breast Cancer Detection with K-Nearest Neighbor (KNN) 이전 포스팅의 경우는 SVM, Random Forest, Logistic regression을 이용하여 분석을 해보았습니다. 앞선 방법 모두 최적화를 시키지 않는 상태입니다. 추후에 최적화 방법을 시키고 적용을 시켜보도록 하겠습니다. 그리고 tensorflow까지도 해보도록 하겠습니다. predictiongeek.tistory.com/2 Kaggle - Breast Cancer Detection with SVM (Explanation, 설명) 본 코드는 Kaggle에서 code를 따온 다음 설명 형식으로 풀어서 공부한 것을 공유하고자 하였습니다. www.kaggle.com/mihirjhaveri/breast-cancer-detection-with-svm Breast Cancer Detection with.. 2020. 7. 16. 이전 1 2 다음