K- clustering
K-Means
K-Means即每一簇类使用类的均值来表示
输入:样本集 D={x1,x2,…,xm} ,聚类簇数 k
过程:
从 D 中随机选取 k 个样本作为初始均值向量 {μ1,μ2,…,μk}
令 Ci=∅(1≤i≤k)
for j=1,2,…,m:
计算样本 xj 与各均值向量 μi(1≤i≤k) 的距离 dji=∣∣xj−xi∣∣2
根据距离最近的均值向量确定 xj 的簇标记 λj=argmini∈{1,2,…,k}dji
将样本 xj 划入相应的簇 Cλj=Cλj∪{xj}
for i=1,2,…,k :
计算新均值向量 μi′=∣Ci∣1∑x∈Cix
if μi′=μi :
将当前均值向量 μi 更新为 μi′
K-Medoids
K-Means对异常值敏感,如果一个极端值会干扰结果。这时可以使用K-Medoids
初始化:从数据点集中随机选择k个点,作为初始中心点;将待聚类的数据点集中的点,指派到最近的中心点
迭代(收敛或变化小于阈值停止):
对每中心点,和其每一个非中心点交换,计算交换后划分所生成的代价值,若交换造成代价增加,则取消交换
K-Medians&K-Modes
相较均值(mean),中位数(median)更不易被异常值影响,所以也可使用K-Medians,即将均值换为中位数
K-Means不好处理类别数据(不好计算距离),此时可使用K-Modes(众数)。 K-Modes是用每个聚类中的众数(mode)做中心点。距离的定义也不同,通常K-Means较多使用欧式距离,K-Modes一般是汉明距离,也就是对于每个特征来说,如果不同记为1,相同则为0。
假定我们选择聚类的数量K=2,初始点为手机1(中,青年,白)和手机6(日,中年,黑),得到
距离越小属于同一类别,若到距离相同则可以随机归于一类。
Kernel K-Means
对于非凸簇类,可使用核函数映射到高维,再进行聚类。
高斯混合模型
高斯混合模型(Gaussian Mixture Model)通常简称GMM,是一种业界广泛使用的聚类算法,该方法使用了高斯分布作为参数模型,并使用了期望最大(Expectation Maximization,简称EM)算法进行训练。 在特定约束条件下,K-means算法可以被看作是高斯混合模型(GMM)的一种特殊形式。
高斯混合模型(Gaussian Mixed Model)指的是多个高斯分布函数的线性组合,理论上GMM可以拟合出任意类型的分布,通常用于解决同一集合下的数据包含多个不同的分布的情况(或者是同一类分布但参数不一样,或者是不同类型的分布,比如正态分布和伯努利分布)。
例子一
如下图,图中的点在我们看来明显分成两个聚类。这两个聚类中的点分别通过两个不同的正态分布随机生成而来。但是如果没有GMM,那么只能用一个的二维高斯分布来描述下图中的数据。图中的椭圆即为二倍标准差的正态分布椭圆。这显然不太合理,毕竟肉眼一看就觉得应该把它们分成两类。
这时候就可以使用GMM了!如下图,数据在平面上的空间分布和上图一样,这时使用两个二维高斯分布来描述图中的数据,分别记为 N(μ1,∑1) 和 N(μ2,∑2) 。图中的两个椭圆分别是这两个高斯分布的二倍标准差椭圆。可以看到使用两个二维高斯分布来描述图中的数据显然更合理。实际上图中的两个聚类的中的点是通过两个不同的正态分布随机生成而来。如果将两个二维高斯分布 N(μ1,∑1) 和 N(μ2,∑2)合成一个二维的分布,那么就可以用合成后的分布来描述图中的所有点。最直观的方法就是对这两个二维高斯分布做线性组合,用线性组合后的分布来描述整个集合中的数据。这就是高斯混合模型(GMM)。
例子二
上图为男性(蓝)和女性(红)的身高采样分布图。上图的y-轴所示的概率值,是在已知每个用户性别的前提下计算出来的。但通常情况下我们并不能掌握这个信息(也许在采集数据时没记录),因此不仅要学出每种分布的参数,还需要生成性别的划分情况 φi 。 当决定期望值时,需要将权重值分别生成男性和女性的相应身高概率值并相加。
高斯混合模型定义
高斯混合模型,顾名思义,就是数据可以看作是从多个高斯分布中生成出来的。从中心极限定理可以看出,高斯分布这个假设其实是比较合理的。 为什么我们要假设数据是由若干个高斯分布组合而成的,而不假设是其他分布呢?实际上不管是什么分布,只 k 取得足够大,这个XX Mixture Model就会变得足够复杂,就可以用来逼近任意连续的概率密度分布。只是因为高斯函数具有良好的计算性能,所GMM被广泛地应用。
每个GMM由K个高斯分布组成,每个高斯分布称为一个组件(Component),这些组件线性加成在一起就组成了GMM的概率密度函数。高斯混合模型具有如下形式的概率分布模型:
P(y∣θ)=k=1∑Kαkϕ(y∣θk)
其中, αk 是系数, αk≥0 , k=1∑Kαk=1 ; ϕ(y∣θk) 是高斯分布密度, θk=(μk,σk2) ,
ϕ(y∣θk)=2πσk1exp(−2σk2(y−μk)2)
称为第 k 个分模型。
高斯混合参数估计
假设观测数据 y1,y2,…,yN 由告诉混合模型生成
P(y∣θ)=k=1∑Kαkϕ(y∣θk)
其中, θ=(α1,α2,…,αK;θ1,θ2,…,θK) 。我们用EM算法估计高斯混合模型的参数 θ 。
1、明确变量,写出完全数据的对数似然函数
可以设想观测数据 yj, j=1,2,…,N ,是这样产生的:首先依概率 αk 选择第 k 个高斯分布分模型 ϕ(y∣θk) ;然后依第 k 个分模型的概率分布 ϕ(y∣θk) 生成观测数据 yj 。这时观测数据 yj, j=1,2,…,N 是已知的;反映观测数据 yj 来自第 k 个分模型的数据是未知的, k=1,2,…,K ,以隐变量 γjk 表示,其定义如下:
γjk={1, 第j个观测来自第k个分模型0, 否则, j=1,2,…,N;k=1,2,…,K γjk 是0-1随机变量。
有了观测数据 yj 及未观测数据 γjk ,那么完全数据是
(yj,γj1,γj2,…,γjK), j=1,2,…,N
于是,可以写出完全数据的似然函数:
P(y,γ∣θ)=j=1∏NP(yj,γj1,γj2,…,γjK∣θ)
=k=1∏Kj=1∏N[αkϕ(yj∣θk)]γjk
=k=1∏Kαknkj=1∏N[ϕ(yj∣θk)]γjk
=k=1∏Kαknkj=1∏N[2πσk1exp(−2σk2(yj−μk)2)]γjk
式中, nk=j=1∑Nγjk , k=1∑Knk=N 。
那么,完全数据的对数似然函数为:
logP(y,γ∣θ)=k=1∑K{nklogαk+j=1∑Nγjk[log(2π1)−logσk−2σk21(yj−μk)2]}
2、EM算法的E步:确定Q函数
Q(θ,θ(i))=E[logP(y,γ∣θ)∣y,θ(i)]
=E{k=1∑K{nklogαk+j=1∑Nγjk[log(2π1)−logσk−2σk21(yj−μk)2]}}
=k=1∑K{j=1∑N(Eγjk)logαk+j=1∑N(Eγjk)[log(2π1)−logσk−2σk21(yj−μk)2]}
这里需要计算 E(γjk∣y,θ) ,记为 γ^jk
γ^jk=E(γjk∣y,θ)=P(γjk=1∣y,θ)
=k=1∑KP(γjk=1,yj∣θ)P(γjk=1,yj∣θ)
=k=1∑KP(yj∣γjk=1,θ)P(γjk=1∣θ)P(yj∣γjk=1,θ)P(γjk=1∣θ)
=k=1∑Kαkϕ(yj∣θk)αkϕ(yj∣θk), j=1,2,…,N;k=1,2,…,K
γ^jk 是在当前模型参数下第 j 个观测数据来自第 k 个分模型的概率,称为分模型 k 对观测数据 yi 的响应度。
将 γ^jk=Eγjk 及 nk=j=1∑NEγjk 代入 Q(θ,θ(i)) 即得
Q(θ,θ(i))=k=1∑K{nklogαk+j=1∑Nγ^jk[log(2π1)−logσk−2σk21(yj−μk)2]}
3、确定EM算法的M步
迭代的 M 步是球函数 Q(θ,θ(i)) 对 θ 的极大值,即求新一轮迭代的模型参数:
θ(i+1)=θargmaxQ(θ,θ(i))
用 μ^k , σ^k2 及 α^k, k=1,2,…,K ,表示 θ(i+1) 的各参数。求 μ^k , σ^k2 只需将 Q(θ,θ(i))=k=1∑K{nklogαk+j=1∑Nγ^jk[log(2π1)−logσk−2σk21(yj−μk)2]} 分别对 μk , σk2 求偏导数并令其为 0 ,即可得到;求 α^k 是在 k=1∑Kαk=1 条件下求偏导数并令其为 0 得到的。结果如下:
μ^k=j=1∑Nγ^jkj=1∑Nγ^jkyj, k=1,2,…,K
σ^k2=j=1∑Nγ^jkj=1∑Nγ^jk(yj−μk)2, k=1,2,…,K
α^k=Nnk=Nj=1∑Nγ^jk, k=1,2,…,K
重复以上计算,直到对数似然函数值不再有明显的变化为止。
高斯混合模型EM算法
输入:观测数据 y1,y2,…,yN ,高斯混合模型;
输出:高斯混合模型参数
(1)取参数的初始值开始迭代
(2)E步:依据当前模型参数,计算分模型 k 对观测数据 yj 的响应度
γ^jk=k=1∑Kαkϕ(yj∣θk)αkϕ(yj∣θk), j=1,2,…,N;k=1,2,…,K
(3)M步:计算新一轮迭代的模型参数
μ^k=j=1∑Nγ^jkj=1∑Nγ^jkyj, k=1,2,…,K
σ^k2=j=1∑Nγ^jkj=1∑Nγ^jk(yj−μk)2, k=1,2,…,K
α^k=Nnk=Nj=1∑Nγ^jk, k=1,2,…,K
(4)重复第(2)步和第(3)步,直到收敛。
Source