기본 콘텐츠로 건너뛰기

Python Kmodes

# !pip install kmodes
# !pip install kmodes
import matplotlib.pyplot as plt
from kmodes.kmodes import KModes 
import pandas as pd
import numpy as np

data = np.array([['A', 'B', 'C'],
                 ['B', 'C', 'A'],
                 ['C', 'A', 'B'],
                 ['A', 'C', 'B'],
                 ['A', 'A', 'B'],
                 ['A', 'B', 'B'],
                 ['B', 'C', 'B'],
                 ['C', 'B', 'B'],
                 ['B', 'A', 'C'],
                 ['C', 'C', 'A']])

# Elbow curve to find optimal K
cost = []
clusters = []
K = range(1,6)
for k in list(K):
    kmode = KModes(n_clusters=k,              # 클러스터 수를 지정
                   init="random", n_init=5,   # 로컬 미니마를 방지하기위해 centroid를 달리하여 5회 반복
                   verbose=1)                 # 학습내역을 텍스트로 출력
    
    clusters.append(kmode.fit_predict(data))  # 학습 및 분류, 분류된 클러스터 리턴
    kmode.predict(data[0].reshape(1,-1))      # 첫번째 이용자
    cost.append(kmode.cost_)                  # 각 포인트로부터 각각의 클러스터 센트로이드까지의 거리 합계
    # the sum distance of all points to their respective cluster centroids.
    # cost가 클수록 해당 클러스터 내의 포인트들이 유사하지 않다는 것을 의미한다
    # 정해진 k를 클러스터 수로 정했을 때, centroid와 각 포인트와의 거리의 합이 최소가 되도록 클러스터를 구성함
    print('Clusters:', clusters)

# K-Modes 클러스터 수에 따른 센트로이드와 각 포인트 거리 합계(cost)의 시각화
plt.plot(K, cost, 'x-')
plt.xlabel('No. of clusters')
plt.ylabel('Cost')
plt.title('Elbow Curve')
plt.show()

print('Clusters:', clusters)
Clusters: [0 1 0 0 0 0 1 0 1 1]

df = pd.DataFrame(data)
df['class'] = clusters
df
012class
0ABC1
1BCA0
2CAB1
3ACB1
4AAB1
5ABB1
6BCB0
7CBB1
8BAC0
9CCA0
# 결론 : 클러스터 수를 두개로 하는게 가장 좋다

이 블로그의 인기 게시물

Python Sklearn make_regression

from sklearn.datasets import make_regression import matplotlib.pyplot as plt X, y = make_regression(n_samples=250, n_features=1, noise=50, random_state=2) plt.scatter(X,y, s=2) plt.show() from sklearn.linear_model import LinearRegression from sklearn.model_selection import train_test_split # 한글 깨짐 없이 나오게 설정 from matplotlib import rcParams # 인코딩 폰트 설정 rcParams['font.family'] = 'New Gulim' rcParams['font.size'] = 10 x_train, x_test, y_train, y_test = train_test_split(X,y, test_size=.20, random_state=0) x_train.shape, x_test.shape, y_train.shape, y_test.shape # 모델 생성 model = LinearRegression() # 학습하기 model.fit(x_train, y_train) # 가중치, 편향치 구하기 model.coef_, model.intercept_ # (array([90.11061494]), 2.4224269924448585) # 결정 계수 model.score(x_train, y_train) # 0.789267454050733 # 추정 pred = model.predict(x_test) # 산점도 plt.scatter(x_test,y_test) plt.plot(x_test, pred, 'r-') plt.show() # 추정 model.predict([[3.0]]) # 학습할 때 주는 데이터의 형식을 따른다 # x의 최소값, 최대값을 계수와 절편을 사용하여 ...