기본 콘텐츠로 건너뛰기

Python Kmodes

# !pip install kmodes
# !pip install kmodes
import matplotlib.pyplot as plt
from kmodes.kmodes import KModes 
import pandas as pd
import numpy as np

data = np.array([['A', 'B', 'C'],
                 ['B', 'C', 'A'],
                 ['C', 'A', 'B'],
                 ['A', 'C', 'B'],
                 ['A', 'A', 'B'],
                 ['A', 'B', 'B'],
                 ['B', 'C', 'B'],
                 ['C', 'B', 'B'],
                 ['B', 'A', 'C'],
                 ['C', 'C', 'A']])

# Elbow curve to find optimal K
cost = []
clusters = []
K = range(1,6)
for k in list(K):
    kmode = KModes(n_clusters=k,              # 클러스터 수를 지정
                   init="random", n_init=5,   # 로컬 미니마를 방지하기위해 centroid를 달리하여 5회 반복
                   verbose=1)                 # 학습내역을 텍스트로 출력
    
    clusters.append(kmode.fit_predict(data))  # 학습 및 분류, 분류된 클러스터 리턴
    kmode.predict(data[0].reshape(1,-1))      # 첫번째 이용자
    cost.append(kmode.cost_)                  # 각 포인트로부터 각각의 클러스터 센트로이드까지의 거리 합계
    # the sum distance of all points to their respective cluster centroids.
    # cost가 클수록 해당 클러스터 내의 포인트들이 유사하지 않다는 것을 의미한다
    # 정해진 k를 클러스터 수로 정했을 때, centroid와 각 포인트와의 거리의 합이 최소가 되도록 클러스터를 구성함
    print('Clusters:', clusters)

# K-Modes 클러스터 수에 따른 센트로이드와 각 포인트 거리 합계(cost)의 시각화
plt.plot(K, cost, 'x-')
plt.xlabel('No. of clusters')
plt.ylabel('Cost')
plt.title('Elbow Curve')
plt.show()

print('Clusters:', clusters)
Clusters: [0 1 0 0 0 0 1 0 1 1]

df = pd.DataFrame(data)
df['class'] = clusters
df
012class
0ABC1
1BCA0
2CAB1
3ACB1
4AAB1
5ABB1
6BCB0
7CBB1
8BAC0
9CCA0
# 결론 : 클러스터 수를 두개로 하는게 가장 좋다

이 블로그의 인기 게시물

Blogger

코드 하이라이트 사이트 http://hilite.me/ 코드 <!-- 나만의 공간 --> <style id='daru_css' type='text/css'> .code {      overflow: auto;      height: 200px;      background-color: rgb(239,239,239);      border-radius: 10px;      padding: 5px 10px; } .code::-webkit-scrollbar-thumb {      background-color: grey;      border: 1px solid transparent;      border-radius: 10px;      background-clip: padding-box;   } .code::-webkit-scrollbar {      width: 15px; } </style> <!-- 나만의 공간 -->

Python Sklearn make_blobs

from sklearn.datasets import make_blobs 예제 X, y = make_blobs(n_samples=500, centers=3, n_features=2, random_state=0) # 500개의 점을 3개로 모이게 한다, 변수는 2개, 무작위 상태는 0 X.shape, y.shape # ((500, 2), (500,)) plt.scatter(X[:,0],X[:,1],c=y,s=5) plt.show() # 학습 데이터 나누기 from sklearn.model_selection import train_test_split x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=.25, random_state=0) x_train.shape, x_test.shape, y_train.shape, y_test.shape # ((375, 2), (125, 2), (375,), (125,)) # 지도 학습 하기 from sklearn.linear_model import LogisticRegression logisticReg = LogisticRegression(max_iter=5000) # 기본 반복 100 logisticReg.fit(x_train, y_train) # 추정하기 pred = logisticReg.predict(X) # 결정계수 logisticReg.score(x_test, y_test) # 0.92 # 한글 깨짐 없이 나오게 설정 from matplotlib import rcParams # 인코딩 폰트 설정 rcParams['font.family'] = 'New Gulim' rcParams['font.size'] = 10 # 산점도 plt.figure(figsize=(10,4)) plt.subplot(1,2, 1) plt.scatter(X[:,0],X[:,1],c=y) plt.title('정답') plt.su...

Python 문법

제곱 c = c**2; 주석 # 주석 함수 # 함수 형식 def hello(): # 함수 선언     print("여기는 함수") # 함수 실행문 hello() # 함수 호출 #결과: 여기는 함수 def add(a,b): # 매개변수에 자료형이 필요없다     c = a+b     print(f"{a} + {b} = {c}") add(3,5) #결과 : 3 + 5 = 8 if문 if a > b:     print("a가 큽니다") 객체의 정보 dir(객체) 객체의 주소 id(객체) 생략 if 'a' == 'a':     pass # 생략 else:     pass # 생략 enumerate for i,v in enumerate(range(20, 26)):     print(i,v) display display(df)