第120天:机器学习算法之 K 均值聚类

本文我们来学习一下另一种经常听到的机器学习算法—— K 均值聚类。

这个名字确实跟“K 近邻”有些相像,但是要明确的是,“K 近邻”中的“K”,指的是“与输入数据最接近的 K 个数据点”;而“K 均值聚类”中的 K,指的则是“将一堆无标记数据划分为 K 个类别”,其中这个“类别”通常被称为“”(cluster),即一簇花两簇花的簇。

而“均值”则更加直白:均值就是指的平均值。也就是每一簇数据的平均值,这个平均值就可以作为这一簇数据的中心点,用来判断其他数据与该簇数据的差异程度。

K 均值聚类的原理其实很好理解,“聚类”就是“将若干数据按类别聚在一起”,透露出的是“物以类聚,人以群分”的朴素哲学。算法的关键在于:我们应当以什么作为标准来判定一个数据与其他数据属于一个类别,也就是一个簇?

在前面我们介绍过“距离度量”的概念,若有必要可以参考。在 K 均值聚类的过程中,我们用来判别数据之间差异程度的方式就是考察二者之间的“距离”。

1. 算法实现

1.1 初始化

这一次我们用一个类来实现 K 均值聚类算法。

使用 K 均值聚类,首先需要对模型进行初始化,也就是按照要划分的簇数 K,在给定数据中随机选定 K 个数据,作为初始的各簇中心。

另外需要提到的是,在通常实现机器学习算法的时候,我们还需要对训练数据进行“预处理”,其中包括一个称为“数据归一化”的操作。这一步的目的是将各个数据统一到一个相同的数值范围内,使得不同数据之间具有可比性;否则,对于两个长度、重量分别为 (20 m, 10000 g)、(1 m, 10500 g)的数据而言,长度的差异很容易就被重量的差异掩盖了。不过好在我们使用的iris数据集中用到的数据大体都在一个数量级上,可能会有一些缺陷,但不影响我们演示算法的实现,因此跳过了这个步骤。

import numpy as npimport pandas as pdimport random

class Clusters(): def __init__(self, train_data, K): ''' :params train_data: ndarray. 训练数据. :params K: int. 要划分的簇的数量. ''' super().__init__()
self.train_data = train_data self.K = K # 标记聚类是否完成。具体的真假,取决于是否还存在需要从一个簇移动到另一个簇的数据 self.finished = False
# 随机选取 K 个数据作为各个簇的中心点 index = random.sample(range(len(self.train_data)), self.K) self.centroid = train_data[index, 1:5]
# 将训练数据均匀分配到各个簇,以便以同一的形式适用于数据的分配 self.clusters = [] offset = len(train_data) // self.K for i in range(self.K): start = offset * i if i < self.K-1: self.clusters.append(train_data[start:start+offset,:]) else: # 最后一个簇包含剩下的所有数据 self.clusters.append(train_data[start:,:]) # 加载所要用到的数据集 @staticmethod def getData(): ''' 获取数据,返回值类型为 ndarray ''' train_data = pd.read_csv('iris.csv').to_numpy()
return train_data

这里的初始化方法需要从外部接受两个参数:train_data 和 K。train_data 是需要进行聚类的数据集,数据类型是 ndarray;而 K 则接受需要划分的簇的数目,数据类型为 int。

第 19 ~ 21行我们利用 random模块中的随机取样功能,从 0 ~149 共计 150 个整数中随机抽取 K 个整数作为索引,对应的数据就是我们随机初始化的各簇中心。

第 23 ~ 32 行按 K 的大小将训练数据均匀分配到各个簇中去,这一步实际上是为了使属性clusters的格式与之后的“分配”环节相适应。

第 34 ~ 42 行定义了一个静态方法,用于获取要用到的训练数据。

1.2 分配

这一步我们需要分别计算各个数据与当前的各簇中心之间的距离,然后选取与各数据距离最小的簇作为目标簇,将数据移动到目标簇中,同时在原簇中删去相应数据。

也就是说这一步的要求是:对应于各簇的中心,所有数据应当各归其位,分属于最恰当的那个簇。

下面是方法的实现代码:

# 将各数据分配到每个簇中去 def assign(self): self.finished = True # data_index_list 和 target_index_list 分别记录“需要移动的数据在当前簇中的索引”以及“要移动到的目标簇索引” target_index_list = [] data_index_list = [] for i in range(self.K): target_index_list.append([]) data_index_list.append([])
for cluster_index in range(len(self.clusters)): for data_index in range(len(self.clusters[cluster_index])): diff = self.clusters[cluster_index][data_index, 1:5] - self.centroid distance_square = np.sum(diff * diff, axis=1) target_index = np.argmin(distance_square)
if cluster_index != target_index: self.finished = False target_index_list[cluster_index].append(target_index) data_index_list[cluster_index].append(data_index) for cluster_index in range(self.K): for index in range(len(target_index_list[cluster_index])): target_index = target_index_list[cluster_index][index] data_index = data_index_list[cluster_index][index]
self.clusters[target_index] = np.append(self.clusters[target_index], self.clusters[cluster_index][data_index, :]).reshape(-1, 6)
for cluster_index in range(self.K): data_index = data_index_list[cluster_index] self.clusters[cluster_index] = np.delete(self.clusters[cluster_index], data_index, axis=0)

为了体现出 K 均值聚类的底层逻辑,因此代码实现中尽量不使用现成代码,而是一步步顺序实现。由于水平有限,因此上述代码可能存在实现不够精简的问题,大家如果有更好的实现,欢迎反馈。先行谢过。

在代码的 5、6两行,我们创建了两个空列表,用于记录“需要移动的数据在原簇中的索引”(data_index_list),以及“需要移动的数据应当移至的目标簇”(target_index_list)。

在第 7 ~ 9 行的初始化中,我们按 K 值将这两个列表初始化为具有 K 个列表元素的嵌套列表,这样可以节省一个用于指示“需要移动的数据原先所在簇”的数据,只需由这两个列表的一级索引即可判断应该从哪个簇移动 / 删除数据。

第 11 ~ 15 行是计算数据点和各簇中心间距离的代码,无需赘言。需要提的是,由于对数值求平方根并不影响数值的相对大小,因此我们用于比较的实际上是“距离的平方”,而非真正的“距离”。这样在数据量大的时候也能够稍微减少一些计算量。

第 17 ~ 20 行即是判断数据是否在它应该在的簇中,如果不在就表示应当移动这个数据到另一个簇。由于对全部数据的循环遍历不一定结束,因此在这里我们不能够直接对原本的clusters进行数据的增删,而仅仅是记录下需要移动的目标簇和数据索引,在遍历结束之后再修改原始数据。

容易判断,我们需要先增,再删,否则很可能导致索引的数据张冠李戴,发生错误。第 22 ~ 32 行干的就是这个活儿,先把数据添加到需要移动到的目标簇中,然后再从原簇中删去相应的簇。并且这个删除要么应该从后往前删除;要么应该一次全选,同时删除。我们用的是后一种方法,即用一个列表作为索引,选中全部需要删除的数据。

1.3 更新

这一步也很好理解,实现起来也很简单。

简单讲就是需要根据新得到的簇的内容,重新计算各个簇相应的中心点。我们使用 Numpy提供的求均值功能来实现。代码如下:

# 更新各个簇的质心 def update(self): for cluster_index in range(len(self.clusters)): self.centroid[cluster_index] = np.mean(self.clusters[cluster_index][:,1:5], axis=0)

到此,K 均值聚类算法的完整步骤都已经实现了。

2. 增加可用性

2.1 训练

为了方便,我们还为Clusters类定义了一个train方法,用于直接完成算法的训练过程。

该方法实际上就是封装了assignupdate两个方法,没有其他的功能上的增加。

def train(self): ''' 进行聚类训练 ''' while not self.finished: self.assign() self.update() print('训练完成!!!')

值得一提的是,我们用一个名为finished的布尔变量来标识何时结束训练。

在一开始,finished的值是被初始化为False的。进入分配(assign)步骤时,首先就将其置为True,也就是假定训练过程已经完成。一旦在分配过程中发生了有数据需要从当前所在簇移动到另一个簇的情况,就立即将finished置为False,也就是说明训练过程还在继续,没有结束。

2.2 打印结果

def printResult(self): ''' 打印聚类结果 ''' print('-'*80) print('*'*80) print('-'*80) print('*'*30, '聚类结果', '*'*30) print('-'*30,'各簇中心','-'*30) for i in range(self.K): print('第', str(i), '簇中心:', self.centroid[i]) print('-'*80) print('-'*30,'各簇结果','-'*30) for i in range(self.K): print('-'*20, '第', str(i), '簇结果', '-'*20,) for d in self.clusters[i]: print(d[5])
print('-'*80) print('*'*80) print('-'*80)

这个方法就纯粹是汇总一下最终结果,并且格式化打印为可读的文本。

2.3 调用 Clusters

print('-'*80)K = int(input('请输入要划分的簇数(应为正整数):'))data = Clusters.getData()clusters = Clusters(data, K)clusters.train()clusters.printResult()

3. 运行结果

--------------------------------------------------------------------------------请输入要划分的簇数(应为正整数):3训练完成!!!--------------------------------------------------------------------------------********************************************************************************--------------------------------------------------------------------------------****************************** 聚类结果 ******************************------------------------------ 各簇中心 ------------------------------第 0 簇中心:[5.005999999999999 3.4180000000000006 1.464 0.2439999999999999]第 1 簇中心:[6.853846153846153 3.0769230769230766 5.715384615384615 2.053846153846153] 第 2 簇中心:[5.883606557377049 2.740983606557377 4.388524590163935 1.4344262295081964] -------------------------------------------------------------------------------------------------------------- 各簇结果 -------------------------------------------------- 第 0 簇结果 --------------------Iris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosaIris-setosa-------------------- 第 1 簇结果 --------------------Iris-versicolorIris-versicolorIris-versicolorIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginicaIris-virginica-------------------- 第 2 簇结果 --------------------Iris-virginicaIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-virginicaIris-virginicaIris-versicolorIris-versicolorIris-versicolorIris-versicolorIris-virginicaIris-versicolorIris-versicolorIris-virginicaIris-virginicaIris-versicolorIris-virginicaIris-virginicaIris-virginicaIris-versicolorIris-virginicaIris-virginicaIris-versicolorIris-virginicaIris-virginicaIris-virginica--------------------------------------------------------------------------------********************************************************************************--------------------------------------------------------------------------------

4. 总结

为了避免堆砌公式,因此本文以可用代码为例,逐步讲解了典型机器学习算法 K 均值聚类的实现过程。文中代码为个人实现,因此难免存在问题,还请大家不吝指出。

感谢大家一起成长。

示例代码:https://github.com/JustDoPython/python-100-day/tree/master/

参考资料

https://book.douban.com/subject/26708119/ https://book.douban.com/subject/33437381/ https://www.kaggle.com/uciml/iris https://blog.csdn.net/pipisorry/article/details/51822775

系列文章
第119天:Python 爬取豆瓣电影 top 250
第118天:Python 之对象的比较与拷贝
第117天:机器学习算法之 K 近邻
第116天:机器学习算法之朴素贝叶斯理论
第115天:Python 到底是值传递还是引用传递

第 114 天:三木板模型算法项目实战

第 113 天:Python XGBoost 算法项目实战

第 112 天:机器学习算法之蒙特卡洛

第 111 天:Python 垃圾回收机制

从 0 学习 Python 0 - 110 大合集总结
(0)

相关推荐

  • 如何选择聚类模块数目

    一般来说,类似K-means聚类算法需要我们提取指定聚类得到的cluster数目. 那么问题来了,如何为聚类选择一个适合的cluster数目呢 ? 很遗憾,上面的问题没有一个确定的答案.不过我们可以基 ...

  • R语言-multiROC package

    欢迎来到医科研,这里是白介素2的读书笔记,跟我一起聊临床与科研的故事, 生物医学数据挖掘,R语言,TCGA.GEO数据挖掘. 找ROC相关的包 Sys.setlocale('LC_ALL','C') ...

  • tidyr总结篇-续

    欢迎来到医科研,这里是白介素2的读书笔记,跟我一起聊临床与科研的故事, 生物医学数据挖掘,R语言,TCGA.GEO数据挖掘. tidyr总结篇  gather(data,key="" ...

  • DT包-分析报告中展示表格数据

    欢迎来到医科研,这里是白介素2的读书笔记,跟我一起聊临床与科研的故事, 生物医学数据挖掘,R语言,TCGA.GEO数据挖掘. DT包-在分析报告中展示表格数据  提供在分析报告中将表格以HTML格式展 ...

  • 第117天:机器学习算法之 K 近邻

    所谓"K 近邻(K-nearest neighbor,K-NN)",顾名思义,指的是"K 个最近的邻居",属于一种监督学习的方法. 1. 工作原理 简单地介绍一 ...

  • JASP做K均值聚类提供的肘部图是个亮点

    K均值聚类要求事先给出聚类个数K,或你需要对K有一定的认知.SPSS操作时允许用户直接指定K,但是没有配套的可视化图形辅助判断聚类是否合适. JASP提供了肘部图,有助于我们理解聚类个数K. 以著名的 ...

  • R机器学习:分类算法之K最邻进算法(KNN)的原理与实现

    从今天开始给大家写机器学习算法,这个东西并不是大多数人想象的那么高深,也不是说编程的人,搞计算机的人才能学习使用,医学领域.社会科学领域的研究越来越多运用机器学习的,在我的理解中每个人都应该掌握基本的 ...

  • K均值算法

    K均值算法 K均值算法是一种聚类算法,把样本分配到离它最近的类中心所属的类,类中心由属于这个类的所有样本确定. k均值算法是一种无监督的聚类算法.算法将每个样本分配到离它最近的那个类中心所代表的类,而 ...

  • 一句话总结K均值算法

    一句话总结K均值算法 核心:把样本分配到离它最近的类中心所属的类,类中心由属于这个类的所有样本确定. k均值算法是一种无监督的聚类算法.算法将每个样本分配到离它最近的那个类中心所代表的类,而类中心的确 ...

  • 常见的人工智能机器学习算法优缺点

    众所周知机器学习是人工智能领域中的主要领域之一,机器学习算法有很多,例如:分类.回归.聚类.推荐.图像识别领域等等.要想找个合适算法是非常不容易的,为了能够寻找到合适的算法,需要明白机器学习算法的优缺 ...

  • 机器学习算法集锦:从贝叶斯到深度学习及各自优缺点

    本文转自:视学算法 在我们日常生活中所用到的推荐系统.智能图片美化应用和聊天机器人等应用中,各种各样的机器学习和数据处理算法正尽职尽责地发挥着自己的功效.本文筛选并简单介绍了一些最常见算法类别,还为每 ...

  • 教程 | 算法太多挑花眼?教你如何选择正确的机器学习算法

    选自Hackernoon 作者:Rajat Harlalka 机器之心编译 参与:Geek AI.张倩 机器学习算法虽多,却没有什么普适的解决方案.决策树.随机森林.朴素贝叶斯.深度网络等等等等,是不 ...

  • 为什么机器学习算法难以优化?一文详解算法优化内部机制

    作者|小舟 来源|机器之心 损失线性组合是正确的选择吗?这篇文章或许能够给你答案. 在机器学习中,损失的线性组合无处不在.虽然它们带有一些陷阱,但仍然被广泛用作标准方法.这些线性组合常常让算法难以调整 ...