线性模型

基本形式

给定由 dd 个属性描述的示例 x=(x1;x2;;xd)x=(x_1;x_2;\dots;x_d) ,其中 xix_ixx 在第 ii 个属性上的取值,线性模型试图学得一个通过属性的线性组合来进行预测的函数:

f(x)=w1x1+w2x2++wdxd+bf(x)=w_1x_1+w_2x_2+\dots+w_dx_d+b

一般用向量形式写成:

f(x)=wTx+bf(x)=w^Tx+b

其中 w=(w1;w2;;wd)w=(w_1;w_2;\dots;w_d)wwbb 学得后,模型得以确定。

线性回归

一元线性回归

当输入的属性的数目只有一个时,进行的线性回归模型为一元线性回归。一元线性回归试图学得:

f(xi)=wxi+bf(x_i)=wx_i+b ,使得 f(xi)yif(x_i)\simeq y_i

通过减少 f(xi)f(x_i)yiy_i 的差别(即减少预测值与实际值的误差),就可以学得 wwbb 即获得模型。通常使用均方差(Mean Square Error)来做,均方差的几何意义其实就是欧式距离:

(w,b)=argmin(w,b)i=1m(f(xi)yi)2=argmin(w,b)i=1m(yiwxib)2(w^*,b^*) = \mathop{\arg\min} \limits_{(w,b)} \sum \limits_{i=1}^m(f(x_i)-y_i)^2 = \mathop{\arg\min} \limits_{(w,b)} \sum \limits_{i=1}^m(y_i-wx_i-b)^2

在线性回归中,最小二乘法(基于均方误差最小化来进行模型求解的方法)就是试图找到一条直线,使所有样本到直线的欧式距离之和最小:

E(w,b)=i=1m(yiwxib)2E_{(w,b)} = \sum \limits_{i=1}^m (y_i-wx_i-b)^2

=i=1m(yi(wxi+b))2= \sum \limits_{i=1}^m (y_i-(wx_i+b))^2

=i=1m(yi22yi(wxi+b)+(wxi+b)2)= \sum \limits_{i=1}^m (y_i^2-2y_i(wx_i+b)+(wx_i+b)^2)

=i=1m(yi22yiwxi2yib+w2xi2+2wxib+b2)= \sum \limits_{i=1}^m (y_i^2-2y_iwx_i-2y_ib+w^2x_i^2+2wx_ib+b^2)

因为 E(w,b)E_{(w,b)} 是凸函数,导数为 00 时即为我们所寻找的 wwbb (下列公式先求导再使导数为 00 求解):

E(w,b)w=i=1m(2yixi+2xi2w+2xib)\frac{\partial E_{(w,b)}}{\partial w} = \sum \limits_{i=1}^m(-2y_ix_i+2x_i^2w+2x_ib)

=2(i=1m(wxi2(yixibxi)))= 2(\sum \limits_{i=1}^m(wx_i^2-(y_ix_i-bx_i)))

=2(wi=1mxi2i=1m(yib)xi)= 2(w\sum \limits_{i=1}^mx_i^2-\sum \limits_{i=1}^m(y_i-b)x_i)

w=i=1myi(xix)i=1mxi21m(i1mxi)2 ,   x=1mi=1mxi\Rightarrow w = \frac{\sum \limits_{i=1}^m y_i(x_i-\overline{x})}{\sum \limits_{i=1}^m x_i^2-\frac{1}{m}(\sum \limits_{i-1}^m x_i)^2}\ ,\ \ \ \overline{x}=\frac{1}{m}\sum \limits_{i=1}^m x_i

E(w,b)b=i=1m(2yi+2wxi+2b)\frac{\partial E_{(w,b)}}{\partial b} = \sum \limits_{i=1}^m (-2y_i+2wx_i+2b)

=2(mbi=1m(yiwxi))= 2(mb - \sum \limits_{i=1}^m(y_i-wx_i))

b=1mi=1m(yiwxi)\Rightarrow b = \frac{1}{m}\sum \limits_{i=1}^m(y_i-wx_i)

多元线性回归

更一般的情况即样本有多个特征:给定数据集 D=(x1,y1),(x2,y2),,(xm,ym)D={(x_1,y_1),(x_2,y_2),\dots,(x_m,y_m)} ,其中 xi=(xi1;xi2;;xid)x_i=(x_{i1};x_{i2};\dots;x_{id}),即 xix_i 为第 ii 个样本, yiy_i 为其对应类别, xidx_{id} 为其第 dd 个特征属性。多元线性回归试图学得:

f(xi)=wTxi+bf(x_i)=w^Tx_i+b ,使得 f(xi)yif(x_i)\simeq y_i

类似的,可利用最小二乘法来对 wwbb 进行估计。为方便讨论,我们把 wwbb 表示为向量形式 w^=(w;b)\hat{w}=(w;b) ,相应的,把数据集 DD 表示为一个 m×(d+1)m\times(d+1) 大小的矩阵 XX ,其中每行对应于一个示例,该行前 dd 个元素对应于示例的第 dd 个属性值,最后一个元素恒置为1,即:

X=(x11  x12    x1d  1x21  x22    x2d  1                    xm1  xm2    xmd  1)=(x1T  1x2T  1     xmT  1)X = \left( \begin{matrix} x_{11}\ \ x_{12}\ \ \dots\ \ x_{1d}\ \ 1\\ x_{21}\ \ x_{22}\ \ \dots\ \ x_{2d}\ \ 1\\ \vdots\ \ \ \ \ \vdots\ \ \ \ \ \ddots\ \ \ \ \ \vdots\ \ \ \ \ \vdots\\ x_{m1}\ \ x_{m2}\ \ \dots\ \ x_{md}\ \ 1 \end{matrix} \right) =\left( \begin{matrix} x_{1}^T\ \ 1\\ x_{2}^T\ \ 1\\ \vdots\ \ \ \ \ \vdots\\ x_{m}^T\ \ 1\\ \end{matrix} \right)

再把标记也写成向量形式 y=(y1;y2;;ym)y=(y_1;y_2;\dots;y_m) ,则有

w^=argminw^(yXw^)T(yXw^)\hat{w}^*=\mathop{\arg\min}\limits_{\hat{w}}(y-X\hat{w})^T(y-X\hat{w})

Ew^=(yXw^)T(yXw^)E_{\hat{w}}=(y-X\hat{w})^T(y-X\hat{w}) ,对 w^\hat{w} 求导得:

\frac{}{} Ew^w^=2XT(Xw^y)\frac{\partial E_{\hat{w}}}{\partial \hat{w}} = 2X^T(X\hat{w}-y)

推导过程:将 Ew^=(yXw^)T(yXw^)E_{\hat{w}}=(y-X\hat{w})^T(y-X\hat{w}) 展开可得:

Ew^=yTyyTXw^w^TXTy+w^TXTXw^E_{\hat{w}}=y^Ty-y^TX\hat{w}-\hat{w}^TX^Ty+\hat{w}^TX^TX\hat{w}

w^\hat{w} 求导可得:

Ew^w^=yTyw^yTXw^w^w^TXTyw^+w^TXTXw^w^\frac{\partial E_{\hat{w}}}{\partial\hat{w}}=\frac{\partial y^Ty}{\partial\hat{w}}-\frac{\partial y^TX\hat{w}}{\partial\hat{w}}-\frac{\partial\hat{w}^TX^Ty}{\partial\hat{w}}+\frac{\partial\hat{w}^TX^TX\hat{w}}{\partial\hat{w}}

由向量的求导公式可得:

Ew^w^=0XTyXTy+(XTX+XTX)w^\frac{\partial E_{\hat{w}}}{\partial \hat{w}}=0-X^Ty-X^Ty+(X^TX+X^TX)\hat{w}

\frac{}{} Ew^w^=2XT(Xw^y)\frac{\partial E_{\hat{w}}}{\partial \hat{w}} = 2X^T(X\hat{w}-y)

令上式为零可得 w^\hat{w} 最优解的闭式解。

对数线性回归

当我们希望线性模型的预测值逼近真实标记 yy 时,就得到了线性回归模型。可否令模型预测逼近 yy 的衍生物呢?譬如说,假设我们认为示例所对应的输出标记是在指数尺度上变化,那就可以将输出标记的对数作为线性模型逼近的目标,即

lny=wTx+b\ln y= w^Tx+b

这就是“对数线性回归”,他实际上是在试图让 ewTx+be^{w^Tx+b} 逼近 yy 。在形式上仍然是线性回归,但实质上已是在求取输入空间到输出空间的非线性函数映射。如下图所示,这里的对数函数起到了将线性回归模型的预测值与真实标记联系起来的作用

更一般地,考虑单调可微函数 g()g(\cdot) ,令

y=g1(wTx+b)y=g^{-1}(w^Tx+b)

这样得到的模型称为“广义线性模型”,其中函数 g()g(\cdot) 称为“联系函数”。显然,对数线性回归是广义线性模型在 g()=ln()g(\cdot)=\ln(\cdot) 时的特例。

LASSO、岭回归和弹性网络

岭回归&LASSO回归

即在原始的损失函数后添加正则项,来尽量的减小模型学习到的参数 θ\theta 的大小,使得模型的泛化能力更强

弹性网络(Elastic Net)

即在原始的损失函数后添加了 L1L_1L2L_2 正则项, 解决模型训练过程中的过拟合问题, 同时结合了 岭回归和 LASSO 回归的优势。 rr 是新的超参数,表示添加的两个正则项的比例(分别为 rr1r1-r

逻辑回归(对数几率回归)

二项逻辑回归

考虑分类任务,比如二分类任务,其输出标记 y{0,1}y \in \{0,1\} ,而线性回归模型产生的预测值 z=wTx+bz=w^Tx+b 是实值,于是,我们需将实值 zz 转换为 0/10/1 值。最理想的是“单位阶跃函数”(unit-step function)

y={ 0,      z<00.5,    z=0 1,      z>0y=\begin{cases} \ 0, \ \ \ \ \ \ z<0\\ 0.5,\ \ \ \ z=0\\ \ 1,\ \ \ \ \ \ z>0 \end{cases}

即若预测值 zz 大于零就判为正例,小于零就判为反例,预测值为临界值零则可任意判别。如下图所示

单位阶跃函数(上图红线)不连续,因此不能直接用作联系函数 g1()g^{-1}(\cdot) 。于是我们希望找到能在一定程度上近似单位阶跃函数的“替代函数”,并希望它单调可微。对数几率函数(logistic function)正是这样一个常用的替代函数:

y=11+ezy=\frac{1}{1+e^{-z}}

对数几率函数是一种“Sigmoid函数”,它将 zz 值转化为一个接近 0011yy 值,并且其输出值在 z=0z = 0 附近变化很陡,将对数几率函数作为联系函数 g1()g^{-1}(\cdot) ,得到

y=11+e(wTx+b)y=\frac{1}{1+e^{-(w^Tx+b)}}

y1y=11+e(wTx+b)111+e(wTx+b)=11+e(wTx+b)1=1e(wTx+b)\Rightarrow \frac{y}{1-y}= \frac{\frac{1}{1+e^{-(w^Tx+b)}}}{1-\frac{1}{1+e^{-(w^Tx+b)}}}=\frac{1}{1+e^{-(w^Tx+b)}-1}=\frac{1}{e^{-(w^Tx+b)}}

lny1y=ln1e(wTx+b)=lne(wTx+b)=wTx+b\Rightarrow \ln \frac{y}{1-y} = \ln \frac{1}{e^{-(w^Tx+b)}} = \ln e^{(w^Tx+b)} =w^Tx+b

即可变化为:

lny1y=wTx+b\ln\frac{y}{1-y}=w^Tx+b

若将 yy 视为样本 xx 作为正例的可能性,则 1y1-y 是其反例的可能性,两者比值 y1y\frac{y}{1-y} 称为“几率”,反映了 xx 作为正例的相对可能性。对几率取对数则得到“对数几率”:

lny1y\ln\frac{y}{1-y}

由此可看出,实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,因此,其对应的模型称为“逻辑回归”或“对数几率回归”。特别注意的是,虽然名字是“回归”,但实际它却是一种分类学习方法。这种方法有很多优点,例如它是直接对分类可能性进行建模。无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题;它不是仅预测出“类别”,而是可得到近似概率预测,这对许多需利用概率辅助决策的任务很有用。此外,对数几率是任意阶可导的凸函数,有很好的数学性质,现有的许多数值优化算法都可以直接用于求取最优解。

如何确定上式中的 wwbb 。若将 yy 视为类后验概率估计 p(y=1x)p(y=1|x) ,则

lnp(y=1x)p(y=0x)=wTx+b\ln \frac{p(y=1|x)}{p(y=0|x)} = w^Tx+b

显然 p(y=1x)p(y=0x)=ewTx+b\Rightarrow\frac{p(y=1|x)}{p(y=0|x)}=e^{w^Tx+b}

1p(y=0x)p(y=0x)=ewTx+b\Rightarrow \frac{1-p(y=0|x)}{p(y=0|x)} = e^{w^Tx+b}

1p(y=0x)=ewTx+bp(y=0x)\Rightarrow 1-p(y=0|x) = e^{w^Tx+b} \cdot p(y=0|x)

(1+ewTx+b)p(y=0x)=1\Rightarrow (1+e^{w^Tx+b}) \cdot p(y=0|x) = 1

p(y=0x)=1(1+ewTx+b)\Rightarrow p(y=0|x)=\frac{1}{(1+e^{w^Tx+b})}

\Rightarrow p(y=1x)=ewTx+b1+ewTx+bp(y=1|x) = \frac{e^{w^Tx+b}}{1+e^{w^Tx+b}} p(y=0x)=11+ewTx+bp(y=0|x) = \frac{1}{1+e^{w^Tx+b}}

当然,我们也可通过极大似然法来估计 wwbb ,设 p(y=1x)=π(x)p(y=1|x)=\pi(x)p(y=0x)=1π(x)p(y=0|x)=1-\pi(x) 给定数据集 {(xi,yi)}i=1N\{(x_i,y_i)\}^N_{i=1} ,似然函数为:

i=1N[π(xi)]yi[1π(xi)](1yi)\prod\limits_{i=1}^N[\pi(x_i)]^{y_i}[1-\pi(x_i)]^{(1-y_i)}

对数似然函数为:

L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]L(w) = \sum\limits_{i=1}^N[y_i\log\pi(x_i)+(1-y_i)\log(1-\pi(x_i))]

=i1N[yilogπ(xi)1π(xi)+log(1π(xi))]=\sum\limits_{i-1}^N[y_i\log\frac{\pi(x_i)}{1-\pi(x_i)}+\log(1-\pi(x_i))]

=i=1N[yi(wxi)log(1+exp(wxi))]=\sum\limits_{i=1}^N[y_i(w\cdot x_i)-\log(1+\exp(w\cdot x_i))]

L(w)L(w) 求极大值,得到 ww 的估计值。这样,问题就变成了以对数似然函数为目标的最优化问题,逻辑回归学习中通常采用的方法是梯度下降法及牛顿法。假设 ww 的极大似然估计值是 w^\hat{w} ,那么学到的逻辑回归模型为:

P(y=1x)=exp(w^x)1+exp(w^x)P(y=1|x)=\frac{\exp(\hat{w}\cdot x)}{1+\exp(\hat{w}\cdot x)} P(y=0x)=11+exp(w^x)P(y=0|x)=\frac{1}{1+\exp(\hat{w}\cdot x)}

多项逻辑回归

上面介绍的逻辑回归模型是二项分类模型,用于二分类。可以将其推广为多项逻辑回归模型,用于多分类任务。假设离散型随机变量 YY 的取值集合是 {1,2,,K}\{1,2,\dots,K\} ,那么多项逻辑回归模型是:

P(Y=kx)=exp(wkx)1+k=1K1exp(wkx), k=1,2,,K1P(Y=k|x)=\frac{\exp(w_k\cdot x)}{1+\sum\limits_{k=1}^{K-1}\exp(w_k\cdot x)},\ k=1,2,\dots,K-1 P(Y=Kx)=11+k=1K1exp(wkx)P(Y=K|x) = \frac{1}{1+\sum\limits_{k=1}^{K-1}\exp(w_k\cdot x)}

二项逻辑回归的参数估计法也可以推广到多项逻辑回归。

线性判别分析

线性判别分析(Linear Discriminant Analysis, LDA)不仅可以用来降维,也可以做分类。也就是说它的数据集的每个样本是有类别输出的,这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”,如下图所示。 我们要将数据在低维度上进行投影,我们投影后希望

  1. 1、每一种类别数据的投影点尽可能的接近

  2. 2、不同类别的数据的类别中心之间的距离尽可能的大

给定数据集 D={(xi,yi)}i=1m,  yi{0,1}D=\{(x_i,y_i)\}_{i=1}^m,\ \ y_i\in\{0,1\}

ii 类的集合 XiX_i,第 ii 类的均值向量 μi\mu_i ,第 ii 类的协方差矩阵 i\sum_ii{0,1}i\in\{0,1\} 即一共就两类

两类样本的中心在直线 ww 上的投影,即直线与原均值向量的内积 wTμ0w^T\mu_0wTμ1w^T\mu_1。所有样本点都投影到直线上,则两类样本的协方差为 wT0ww^T\sum_0wwT1ww^T\sum_1w

  1. 1、投影后类内方差最小,即 wT0w+wT1ww^T\sum_0w+w^T\sum_1w 尽可能小

  2. 2、类间方差最大,即 wTμ0wTμ122||w^T\mu_0-w^T\mu_1||_2^2 尽可能大

同时考虑优化二者,则可得到欲最大化的目标:

J=wTμ0wTμ122wT0w+wT1w=wT(μ0μ1)(μ0μ1)TwwT(0+1)wJ=\frac{||w^T\mu_0-w^T\mu_1||_2^2}{w^T\sum_0w+w^T\sum_1w}=\frac{w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw}{w^T(\sum_0+\sum_1)w}

定义“类内散度矩阵”:Sw=0+1=xX0(xμ0)(xμ0)T+xX1(xμ1)(xμ1)TS_w=\sum_0+\sum_1=\sum\limits_{x\in X_0}(x-\mu_0)(x-\mu_0)^T+\sum\limits_{x\in X_1}(x-\mu_1)(x-\mu_1)^T

定义“类间散度矩阵”: Sb=(μ0μ1)(μ0μ1)TS_b=(\mu_0-\mu_1)(\mu_0-\mu_1)^T

所以,我们可将最大化目标函数 JJ 写为:

J=wTSbwwTSwwJ=\frac{w^TS_bw}{w^TS_ww}

这就是LDA欲最大化的目标,即 SbS_bSwS_w 的“广义瑞利商”(Generalized Rayleigh Quotient)

如何确定 ww 呢?注意到上式的分子和分母都是关于 ww 的二次项,因此上式的解 ww 的长度无关,只与其方向有关。不失一般性,令 wTSww=1w^TS_ww=1 ,上式等价于

minw(wTSbw)    s.t.  wTSww=1\mathop{\min}\limits_w( -w^TS_bw)\ \ \ \ s.t.\ \ w^TS_ww=1

由拉格朗日乘子法,上式等价于

Sbw=λSwwS_bw=\lambda S_ww

其中 λ\lambda 是拉格朗日乘子。注意到 SbwS_bw 的方向恒为 μ0μ1\mu_0-\mu_1 ,不妨令 Sbw=λ(μ0μ1)S_bw=\lambda(\mu_0-\mu_1) 代入上式

w=Sw1(μ0μ1)w=S_w^{-1}(\mu_0-\mu_1)

考虑到数值解的稳定性,在实践中通常是对 SwS_w 进行奇异值分解,即 Sw=UVTS_w=U\sum V^T ,这里 \sum 是一个对角矩阵,其对角线上的元素是 SwS_w 的奇异值,然后再由 Sw1=VUTS_w^{-1}=V\sum U^T 得到 Sw1S_w^{-1} 。值得一提的是,LDA可从贝叶斯决策理论的角度来阐述,并可证明,当两类数据同先验,满足高斯分布且协方差相等时,LDA可达到最优分类。

多类别映射(分类)

若有很多类别,还是基于LDA基本思想,每个类间距离最大,类内距离最小。假定存在 NN 个类,且第 ii 类示例数为 mim_i ,我们先定义“全局散度矩阵”:

St=Sb+Sw=i=1m(xiμ)(xiμ)TS_t=S_b+S_w=\sum\limits_{i=1}^m(x_i-\mu)(x_i-\mu)^T

其中 μ\mu 是所有示例的均值向量,将类内散度矩阵 SwS_w 重新定义为每个类别的散度矩阵之和,即

Sw=i=1NSwi,    Swi=xXi(xμi)(xμi)TS_w=\sum \limits_{i=1}^NS_{w_i}, \ \ \ \ S_{w_i}=\sum\limits_{x\in X_i}(x-\mu_i)(x-\mu_i)^T

整理上面两式可得

Sb=StSw=i=1Nmi(μiμ)(μiμ)TS_b=S_t-S_w=\sum\limits_{i=1}^Nm_i(\mu_i-\mu)(\mu_i-\mu)^T

显然,多分类LDA可以有多种实现方法:使用 SbS_b , SwS_w , StS_t 三者中的任何两个即可,常见的一种实现是采用优化目标:

maxW tr(WTSbW)tr(WTSwW\mathop{\max}\limits_W\ \frac{tr(W^TS_bW)}{tr(W^TS_wW}

其中 WRd×(N1)W\in \mathbb{R}^{d\times(N-1)},上式可通过广义特征值问题求解: SbW=λSwWS_bW=\lambda S_wWWW的闭式解则是 Sw1SbS_w^{-1}S_bdd' 个最大非零广义特征值所对应的特征向量组成的矩阵, dN1d'\leq N-1

若将 WW 视为一个投影矩阵,则多分类LDA将样本投影到 dd' 维空间。 dd' 通常远小于数据原有的属性数 dd 于是,可通过这个投影来减少样本点的维数,且投影过程中采用了类别信息,因此LDA也常被视为一种经典的监督降维技术。

逻辑回归模型: f=11+ewxf =\frac{1}{1+e^{-wx}} ,其中 wx=w0x0+w1x1++wnxn, x0=1wx = w_0^**x_0+w_1^**x_1+\dots+w_n^**x_n,\ x_0=1

数据

from math import exp
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
%matplotlib inline

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# data
def create_data():
    iris = load_iris()
    df = pd.DataFrame(iris.data, columns=iris.feature_names)
    df['label'] = iris.target
    df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']
    data = np.array(df.iloc[:100, [0,1,-1]])
    # print(data)
    return data[:,:2], data[:,-1]
    

X, y = create_data()
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)

手写实现

class LogisticReressionClassifier:
    def __init__(self, max_iter=200, learning_rate=0.01):
        self.max_iter = max_iter
        self.learning_rate = learning_rate
        
    def sigmoid(self, x):
        return 1 / (1 + exp(-x))

    def data_matrix(self, X):
        data_mat = []
        for d in X:
            data_mat.append([1.0, *d])
        return data_mat

    def fit(self, X, y):
        # label = np.mat(y)
        data_mat = self.data_matrix(X) # m*n
        self.weights = np.zeros((len(data_mat[0]),1), dtype=np.float32)

        for iter_ in range(self.max_iter):
            for i in range(len(X)):
                result = self.sigmoid(np.dot(data_mat[i], self.weights))
                error = y[i] - result 
                self.weights += self.learning_rate * error * np.transpose([data_mat[i]])
        print('LogisticRegression Model(learning_rate={},max_iter={})'.format(self.learning_rate, self.max_iter))

    # def f(self, x):
    #     return -(self.weights[0] + self.weights[1] * x) / self.weights[2]

    def score(self, X_test, y_test):
        right = 0
        X_test = self.data_matrix(X_test)
        for x, y in zip(X_test, y_test):
            result = np.dot(x, self.weights)
            if (result > 0 and y == 1) or (result < 0 and y == 0):
                right += 1
        return right / len(X_test)

lr_clf = LogisticReressionClassifier()
lr_clf.fit(X_train, y_train)

lr_clf.score(X_test, y_test)

x_ponits = np.arange(4, 8)
y_ = -(lr_clf.weights[1]*x_ponits + lr_clf.weights[0])/lr_clf.weights[2]
plt.plot(x_ponits, y_)

#lr_clf.show_graph()
plt.scatter(X[:50,0],X[:50,1], label='0')
plt.scatter(X[50:,0],X[50:,1], label='1')
plt.legend()

sklearn实现

solver参数决定了我们对逻辑回归损失函数的优化方法,有四种算法可以选择,分别是:

  • a) liblinear:使用了开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数。

  • b) lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。

  • c) newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。

  • d) sag:即随机平均梯度下降,是梯度下降法的变种,和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候。

from sklearn.linear_model import LogisticRegression

clf = LogisticRegression(max_iter=200)
clf.fit(X_train, y_train)
clf.score(X_test, y_test)
print(clf.coef_, clf.intercept_)

x_ponits = np.arange(4, 8)
y_ = -(clf.coef_[0][0]*x_ponits + clf.intercept_)/clf.coef_[0][1]
plt.plot(x_ponits, y_)

plt.plot(X[:50, 0], X[:50, 1], 'bo', color='blue', label='0')
plt.plot(X[50:, 0], X[50:, 1], 'bo', color='orange', label='1')
plt.xlabel('sepal length')
plt.ylabel('sepal width')
plt.legend()

Source

Last updated