DBSCAN密度聚类算法 - Go语言中文社区

DBSCAN密度聚类算法


DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,和K-Means,BIRCH这些一般只适用于凸样本集的聚类相比,DBSCAN既可以适用于凸样本集,也可以适用于非凸样本集。下面我们就对DBSCAN算法的原理做一个总结。

一、密度聚类原理

    DBSCAN是一种基于密度的聚类算法,这类密度聚类算法一般假定类别可以通过样本分布的紧密程度决定。同一类别的样本,他们之间的紧密相连的,也就是说,在该类别任意样本周围不远处一定有同类别的样本存在。

    通过将紧密相连的样本划为一类,这样就得到了一个聚类类别。通过将所有各组紧密相连的样本划为各个不同的类别,则我们就得到了最终的所有聚类类别结果。

二、DBSCAN密度定义

    在上一节我们定性描述了密度聚类的基本思想,本节我们就看看DBSCAN是如何描述密度聚类的。DBSCAN是基于一组邻域来描述样本集的紧密程度的,参数((epsilon), MinPts)用来描述邻域的样本分布紧密程度。其中,(epsilon)描述了某一样本的邻域距离阈值,MinPts描述了某一样本的距离为(epsilon)的邻域中样本个数的阈值。

    假设我的样本集是D=((x_1,x_2,...,x_m)),则DBSCAN具体的密度描述定义如下:

    1) (epsilon)-邻域:对于(x_j in D),其(epsilon)-邻域包含样本集D中与(x_j)的距离不大于(epsilon)的子样本集,即(N_{epsilon}(x_j) = {x_i in D | distance(x_i,x_j) leq epsilon}), 这个子样本集的个数记为(|N_{epsilon}(x_j)|) 

    2) 核心对象:对于任一样本(x_j in D),如果其(epsilon)-邻域对应的(N_{epsilon}(x_j))至少包含MinPts个样本,即如果(|N_{epsilon}(x_j)| geq MinPts),则(x_j)是核心对象。 

    3)密度直达:如果(x_i)位于(x_j)(epsilon)-邻域中,且(x_j)是核心对象,则称(x_i)(x_j)密度直达。注意反之不一定成立,即此时不能说(x_j)(x_i)密度直达, 除非且(x_i)也是核心对象。

    4)密度可达:对于(x_i)(x_j),如果存在样本样本序列(p_1, p_2,...,p_T),满足(p_1 = x_i, p_T = x_j), 且(p_{t+1})(p_{t})密度直达,则称(x_j)(x_i)密度可达。也就是说,密度可达满足传递性。此时序列中的传递样本(p_1, p_2,...,p_{T-1})均为核心对象,因为只有核心对象才能使其他样本密度直达。注意密度可达也不满足对称性,这个可以由密度直达的不对称性得出。

    5)密度相连:对于(x_i)(x_j),如果存在核心对象样本(x_k),使(x_i)(x_j)均由(x_k)密度可达,则称(x_i)(x_j)密度相连。注意密度相连关系是满足对称性的。

    从下图可以很容易看出理解上述定义,图中MinPts=5,红色的点都是核心对象,因为其(epsilon)-邻域至少有5个样本。黑色的样本是非核心对象。所有核心对象密度直达的样本在以红色核心对象为中心的超球体内,如果不在超球体内,则不能密度直达。图中用绿色箭头连起来的核心对象组成了密度可达的样本序列。在这些密度可达的样本序列的(epsilon)-邻域内所有的样本相互都是密度相连的。

    有了上述定义,DBSCAN的聚类定义就简单了。

三、DBSCAN密度聚类思想

    DBSCAN的聚类定义很简单:由密度可达关系导出的最大密度相连的样本集合,即为我们最终聚类的一个类别,或者说一个簇。

    这个DBSCAN的簇里面可以有一个或者多个核心对象。如果只有一个核心对象,则簇里其他的非核心对象样本都在这个核心对象的(epsilon)-邻域里;如果有多个核心对象,则簇里的任意一个核心对象的(epsilon)-邻域中一定有一个其他的核心对象,否则这两个核心对象无法密度可达。这些核心对象的(epsilon)-邻域里所有的样本的集合组成的一个DBSCAN聚类簇。

    那么怎么才能找到这样的簇样本集合呢?DBSCAN使用的方法很简单,它任意选择一个没有类别的核心对象作为种子,然后找到所有这个核心对象能够密度可达的样本集合,即为一个聚类簇。接着继续选择另一个没有类别的核心对象去寻找密度可达的样本集合,这样就得到另一个聚类簇。一直运行到所有核心对象都有类别为止。

    基本上这就是DBSCAN算法的主要内容了,是不是很简单?但是我们还是有三个问题没有考虑。

    第一个是一些异常样本点或者说少量游离于簇外的样本点,这些点不在任何一个核心对象在周围,在DBSCAN中,我们一般将这些样本点标记为噪音点。

    第二个是距离的度量问题,即如何计算某样本和核心对象样本的距离。在DBSCAN中,一般采用最近邻思想,采用某一种距离度量来衡量样本距离,比如欧式距离。这和KNN分类算法的最近邻思想完全相同。对应少量的样本,寻找最近邻可以直接去计算所有样本的距离,如果样本量较大,则一般采用KD树或者球树来快速的搜索最近邻。如果大家对于最近邻的思想,距离度量,KD树和球树不熟悉,建议参考之前写的另一篇文章K近邻法(KNN)原理小结

    第三种问题比较特殊,某些样本可能到两个核心对象的距离都小于(epsilon),但是这两个核心对象由于不是密度直达,又不属于同一个聚类簇,那么如果界定这个样本的类别呢?一般来说,此时DBSCAN采用先来后到,先进行聚类的类别簇会标记这个样本为它的类别。也就是说DBSCAN的算法不是完全稳定的算法。

四、DBSCAN聚类算法

    下面我们对DBSCAN聚类算法的流程做一个总结。

    输入:样本集D=((x_1,x_2,...,x_m)),邻域参数((epsilon, MinPts)), 样本距离度量方式

    输出: 簇划分C. 

    1)初始化核心对象集合(Omega = emptyset), 初始化聚类簇数k=0,初始化未访问样本集合(Gamma) = D,  簇划分C = (emptyset)

    2) 对于j=1,2,...m, 按下面的步骤找出所有的核心对象:

      a) 通过距离度量方式,找到样本(x_j)(epsilon)-邻域子样本集(N_{epsilon}(x_j))

      b) 如果子样本集样本个数满足(|N_{epsilon}(x_j)| geq MinPts), 将样本(x_j)加入核心对象样本集合:(Omega = Omega cup {x_j})

    3)如果核心对象集合(Omega = emptyset),则算法结束,否则转入步骤4.

    4)在核心对象集合(Omega)中,随机选择一个核心对象(o),初始化当前簇核心对象队列(Omega_{cur} = {o}), 初始化类别序号k=k+1,初始化当前簇样本集合(C_k =  {o}), 更新未访问样本集合(Gamma = Gamma -  {o})

    5)如果当前簇核心对象队列(Omega_{cur} = emptyset),则当前聚类簇(C_k)生成完毕, 更新簇划分C=({C_1,C_2,...,C_k}), 更新核心对象集合(Omega = Omega - {C_k}), 转入步骤3。

    6)在当前簇核心对象队列(Omega_{cur})中取出一个核心对象(o^{'}),通过邻域距离阈值(epsilon)找出所有的(epsilon)-邻域子样本集(N_{epsilon}(o^{'})),令$Delta = N_{epsilon}(o^{'}) cap Gamma (, 更新当前簇样本集合)C_k =C_k cup Delta(, 更新未访问样本集合)Gamma = Gamma - Delta(,  更新)Omega_{cur} = Omega_{cur} cup (Delta cap Omega) - {o'}$,转入步骤5.

    输出结果为: 簇划分C=({C_1,C_2,...,C_k})

五、DBSCAN小结

    和传统的K-Means算法相比,DBSCAN最大的不同就是不需要输入类别数k,当然它最大的优势是可以发现任意形状的聚类簇,而不是像K-Means,一般仅仅使用于凸的样本集聚类。同时它在聚类的同时还可以找出异常点,这点和BIRCH算法类似。

    那么我们什么时候需要用DBSCAN来聚类呢?一般来说,如果数据集是稠密的,并且数据集不是凸的,那么用DBSCAN会比K-Means聚类效果好很多。如果数据集不是稠密的,则不推荐用DBSCAN来聚类。

    下面对DBSCAN算法的优缺点做一个总结。

    DBSCAN的主要优点有:

    1) 可以对任意形状的稠密数据集进行聚类,相对的,K-Means之类的聚类算法一般只适用于凸数据集。

    2) 可以在聚类的同时发现异常点,对数据集中的异常点不敏感。

    3) 聚类结果没有偏倚,相对的,K-Means之类的聚类算法初始值对聚类结果有很大影响。

    DBSCAN的主要缺点有:

    1)如果样本集的密度不均匀、聚类间距差相差很大时,聚类质量较差,这时用DBSCAN聚类一般不适合。

    2) 如果样本集较大时,聚类收敛时间较长,此时可以对搜索最近邻时建立的KD树或者球树进行规模限制来改进。

    3) 调参相对于传统的K-Means之类的聚类算法稍复杂,主要需要对距离阈值(epsilon),邻域样本数阈值MinPts联合调参,不同的参数组合对最后的聚类效果有较大影响。

 

(欢迎转载,转载请注明出处。欢迎沟通交流: 微信:nickchen121)

版权声明:本文来源博客园,感谢博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://www.cnblogs.com/nickchen121/p/11214901.html
站方申明:本站部分内容来自社区用户分享,若涉及侵权,请联系站方删除。
  • 发表于 2019-10-27 21:50:11
  • 阅读 ( 2738 )
  • 分类:数据库

0 条评论

请先 登录 后评论

官方社群

GO教程

猜你喜欢