簡單一文助你理解DBSCAN是什么
一般說到聚類算法,大多數人會想到k-means算法,但k-means算法一般只適用于凸樣本集,且需要預先設定k值,而DBSCAN聚類既可以用于凸樣本集,也可以用于非凸樣本集,也不需要提前設定簇族數。關于凸樣本集的解釋如下圖所示。
關于DBSCAN聚類,它是基于密度的聚類,一般通過樣本間的緊密程度來進行聚類,將緊密相連的一類樣本化為一類,直至遍歷所有樣本點。
而DBSCAN聚類有下面幾個定義。
1.ε-鄰域:有一個樣本點x1,以x1為圓心,半徑為ε的一個范圍
2.min_sample(最小樣本點數):在樣本點x1的ε-鄰域內的所有樣本點總數n;如果n>=min_sample,樣本點成為核心點,否則為非核心點。而非核心又分為邊界點和噪聲點。他們的區(qū)別在于其ε-鄰域內是否存在核心點,如果存在則為邊界點,否則為噪聲點。
3.密度直達:有樣本點x1位于x2的ε-鄰域內,且x2為核心點,則稱x1由x2密度直達。
4.密度可達:有樣本點x1位于x2的ε-鄰域內,且x1和x2均為核心點,則稱x1和x2密度可達。
5.密度相連:有非核心點x1和x2均在核心點x3的ε-鄰域內,則稱x1和x2密度相連。所有密度相連的樣本點組成一個集合。
上圖中的紅色點為核心點,黑色點為非核心點(包括邊界點和噪音點)。一共有兩組密度可達,第一組(左邊)有七個核心點,其集合包括七個核心點以及各個ε-鄰域內的所有邊界點。第二組(右邊)有五個核心點,其集合包括五個核心點以及各個ε-鄰域內的所有邊界點。當所有非噪聲點均在不同集合內時,聚類結束。
因此,可以將DBSCAN聚類的流程定義如下:
有數據集X={x1,x2,...,xn},設置好min_sample和鄰域半徑值。
1.遍歷數據集,將各個樣本點間的距離保存到一個矩陣中;
2.遍歷數據集,將所有的核心點,以及各個核心點鄰域內的樣本點找出;
3.如果核心點間的距離小于半徑值,則將兩個核心點連接到一起;最終會形成若干簇族;
4.將所有邊界點分配到離他最近的核心點;
5.直至所有非噪音點完成分配,算法結束。
python實現
用的是sklearn庫自帶的數據集---make_circles。散點圖如下。
根據上面定義的流程,開始寫代碼啦。
首先要得到各個樣本點間的距離:
def dis(self,va,vb): s=(va-vb) f=sqrt(s*s.T) return f[0,0]
def get_distance(self,dataset): m,n=shape(dataset)[0],shape(dataset)[1] dataset=mat(dataset) dis=mat(zeros((m,m))) for i in range(m): for j in range(i,m): dis[i,j]=self.dis(dataset[i,],dataset[j,]) dis[j,i]=dis[i,j] return dis
然后找到所有的核心點,以及各個核心點鄰域內的所有樣本點集合。
def find_core_point(self,dismatrix): core_point=[] core_point_dict={} m=shape(dismatrix)[0] for i in range(m): ind=[] for j in range(m): if dismatrix[i,j]<self.eps: ind.append(j) if len(ind)>=self.min_sample: core_point.append(i) core_point_dict[str(i)]=ind core_point_core={} for key,value in core_point_dict.items(): o=[] for i in value: if i in core_point: o.append(i) core_point_core[key]=o return core_point,core_point_dict,core_point_core其中core_point是一個列表,存儲所有的核心點core_point_dict是一個字典,key為核心點,value為該核心點鄰域內的所有樣本點集合core_point_core是一個字典,key為核心點,value為該核心點鄰域內所有核心點集合
接下來就是找出密度直達點集合,也就是在鄰域內的核心點集合
def join_core_point(self,core_point,core_point_dict,core_point_core): labels=array(zeros((1,len(core_point)))) num=1 result={} result[str(num)]=core_point_core[str(core_point[0])] for i in range(1,len(core_point)): q=[] for key,value in result.items(): r=self.get_same(core_point_core[str(core_point[i])],value) if r: q.append(key) if q: n=result[q[0]].copy() n.extend(core_point_core[str(core_point[i])]) for i in range(1,len(q)): n.extend(result[q[i]]) del result[q[i]] result[q[0]]=list(set(n)) else: num=num+1 result[str(num)]=core_point_core[str(core_point[i])] return result
再將所有邊界點劃分到其最近的核心點一簇并畫出。
def ddbscan(self,data, label): m=shape(data)[0] dismatrix=self.get_distance(data) types=array(zeros((1,m))) number=1 core_point, core_point_dict,core_point_core=self.find_core_point(dismatrix) if len(core_point): core_result=self.join_core_point(core_point,core_point_dict,core_point_core) for key,value in core_result.items(): k=int(key) for i in value: types[0,i]=k for j in core_point_dict[str(i)]: types[0, j] = k print(types) newlabel=types.tolist()[0] data=array(data) q=list(set(newlabel)) print(q) colors = ['r', 'b', 'g', 'y', 'c', 'm', 'orange'] for ii in q: i=int(ii) xy=data[types[0,:]==i,:] plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=colors[q.index(ii)], markeredgecolor='w', markersize=5) plt.title('DBSCAN' ) plt.show()
最后的結果圖如下:
雖然效果不錯,但自己寫的就是比較辣雞,一共用了10.445904秒;如果真的要用這個算法的話,不推薦大家用自己寫的,事實上sklearn庫就有DBSCAN這個函數,只需要0.0284941秒。
效果如上所示。而且代碼也只有幾行。代碼復制于(http://itindex.net/detail/58485-%E8%81%9A%E7%B1%BB-%E7%AE%97%E6%B3%95-dbscan)
def skdbscan(self,data,label): data = array(data) db = DBSCAN(eps=self.eps, min_samples=self.min_sample, metric='euclidean').fit(data) core_samples_mask = zeros_like(db.labels_, dtype=bool) core_samples_mask[db.core_sample_indices_] = True labels = db.labels_ n_clusters_ = len(set(labels)) - (1 if -1 in labels else 0) unique_labels = set(labels) colors = ['r', 'b', 'g', 'y', 'c', 'm', 'orange'] for k, col in zip(unique_labels, colors): if k == -1: col = 'k' class_member_mask = (labels == k) xy = data[class_member_mask & core_samples_mask] plt.plot(xy[:, 0], xy[:, 1], 'o', markerfacecolor=col, markeredgecolor='w', markersize=10) plt.title('Estimated number of clusters: %d' % n_clusters_) plt.show()
關于DBSCAN這個函數有幾個要注意的地方:
DBSCAN(eps=0.1, min_samples=5, metric='euclidean',
algorithm='auto', leaf_size=30, p=None, n_jobs=1)
核心參數:
eps: float-鄰域的距離閾值
min_samples :int,樣本點要成為核心對象所需要的 ?-鄰域的樣本數閾值
其他參數:
metric :度量方式,默認為歐式距離,可以使用的距離度量參數有:
歐式距離 “euclidean”
曼哈頓距離 “manhattan”
切比雪夫距離“chebyshev”
閔可夫斯基距離 “minkowski”
帶權重閔可夫斯基距離 “wminkowski”
標準化歐式距離 “seuclidean”
馬氏距離“mahalanobis”
自己定義距離函數
algorithm:近鄰算法求解方式,有四種:
“brute”蠻力實現
“kd_tree” KD樹實現
“ball_tree”球樹實現
“auto”上面三種算法中做權衡,選擇一個擬合最好的最優(yōu)算法。
leaf_size:使用“ball_tree”或“kd_tree”時,停止建子樹的葉子節(jié)點數量的閾值
p:只用于閔可夫斯基距離和帶權重閔可夫斯基距離中p值的選擇,p=1為曼哈頓距離, p=2為歐式距離。如果使用默認的歐式距離不需要管這個參數。
n_jobs :CPU并行數,若值為 -1,則用所有的CPU進行運算
DBSCAN聚類的優(yōu)缺點
優(yōu)點:
可以很好的發(fā)現噪聲點,但是對其不敏感;
可以對任意形狀的稠密數據進行聚類;
缺點:
1.需要設定min_sample和eps;不同的組合差別非常大;
2.數據量很大時,效率會特別低,收斂時間很長;
3.對于密度不均勻,聚類間差距很大的數據集效果很差。
最后,送一個基于DBSCAN聚類的笑臉給大家?梢匀ミ@個網站自行嘗試。
文章到這里就暫時告一段落啦,小伙伴們有沒有收獲滿滿咧?
------------------- End -------------------

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業(yè)年度評選
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業(yè)大會
-
10 大模型的盡頭是開源
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當“安卓” ,那誰是“蘋果”?
- 4 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 5 機器人9月大事件|3家國產機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!
- 6 谷歌“香蕉”爆火啟示:國產垂類AI的危機還是轉機?
- 7 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 8 美光:AI Capex瘋投不止,終于要拉起存儲超級周期了?
- 9 華為已殺入!AI領域最熱黃金賽道,大廠的數字人美女讓我一夜沒睡著覺
- 10 隱退4年后,張一鳴久違現身!互聯網大佬正集體殺回