HanLP — 感知机(Perceptron) — Python
感知机(Perceptron)是一个二类分类的线性分类模型,属于监督式学习算法。最终目的: 将不同的样本分类
感知机饮食了多个权重参数,输入的特征向量先是和对应的权重相乘,再加得到的积相加,然后将加权后的特征值送入激活函数,最后得到输出
激活函数的前面部分,是线性方程 wx+b
线性方程输出的是连续的值,但对于分类来说,最终需要的类别信息是离散的值,这时候,激活函数就派上用场了,激活函数的存在,是将连续回归值,转变成1 -1 这样的离散值,从而实现类别划分
激活函数
激活函数有很多种,在深度学习中,有着非常重要的作用,在感知机中使用的激活函数是 sin()
,
假如输入到模型中的是一个二维的特征向量(x1,x2),则整个过程可以表示为如下:
输入的特征向量(x1,x2)先分别和权重(w1,w2)相乘,再将两者相加,最后加上偏置 b ,最终得到的值,和阈值 0 做比较,如果值大于0 则输出1,否则则输出 -1
((X_1*W_1 + X_2*W_2+…)) + b => np.dot(X,W) + b
这样一来,就会划分到了线性方程 wx+b=0 两侧的样本,就分成了正、负两类,用感知机进行二分类,需要先找到能够将正、负样本完全区分开的决策函数 wx+b=0
,如下图
因此就需要确定一个学习策略,也就是定义一个损失函数,再通过训练样本,通过减小损失值,不断迭代模型参数,最终找到最优参数 w 和 b ,
损失函数的作用: 用来衡量模型的输出结果,和真实结果之间的偏差,然后根据偏差,修正模型,
回归任务
在回归任务中,标签和模型输出都是连续的数值,很容易就能衡量出二者之间的差异。可对于感知机的分类问题来说,我们又该如何衡量差异呢?一个直观的想法,就是去统计误分类样本的个数作为损失值,误分类的样本个数越多,说明这个该样本空间下的表现越差,但是这样的函数是非连续的,对 w 和 b 不可导,所以我们无法使用这样的损失函数来更新 w 和 b.
为了得到连续可导的损失函数,感知机选择用误分类样本到决策函数的距离,来衡量偏差
这里是单个样本点到决策函数的距离公式
(frac {1}{||w||} |w*x_0+b|)
其中 (x_0) 表示样本点的输入 (||w||)等于权重向量 (w) 的模长 (||w|| = sqrt服务器托管网{(w_1^2 + w_2^2 + … + w_n^2)})
对于感知机分类问题来说,可以用 (-y_0(w*x_0+b)) 来代替 (|w*x_0+b|)
(y_0) 表示样本点 (x_0)
为什么可以这样代替呢?
假设有两个误分类样本
样本1 ((x_1,y_1)) 样本2 $(x_2,y_2) (,
样本1 的真实类别为正样本,即:)y_1 = 1$,但是在模型中,样本1 却被误分类为了负样本,也就是计算得到的 (wx1+b leq 0),那么 (-y_1(w*x_1+b)=-1(w*x_1+b)) 最终的结果变成了正值,大小等于 (|w*x_1+b|)
样本2 的真实类别为负样本,(y_2=-1) 即在模型中被误分类为了正样本。也就是计算得到的 (w*x_2+b > 0),那么 (-y_2(w*x_2+b)) 就等于 (1(w*x_2+b)) ,结果仍为正值,大小等于 (|w*x_2+b|)
因此:所有误分类的样本到决策函数的距离和就可以表示为如下
感知机所关心的,是怎么能将两类样本正确地区分开,对样本点到决策函数距离的大小并不关心,如下图,红线和绿线都能将两类样本正确地区分开,所以对感知机来说,这两条线的分类效果是一样的
因此,可以把(frac {1}{||w||}) 去掉
最终,感知机的函数就是 $$ L(w,b) = – sum_{x_i{in}M}y_i(w*x_i+b) $$
感知机适用于样本特征简单,且线性可分的二分类问题,因为运算简单,所以计算效率高。
不服务器托管网过在复杂的场景中,感知机往往不能胜任,所以我们在感知机的基础上,又诞生了多层感知机和神经网络
https://www.bilibili.com/video/BV19h4y1w7WL
作者:VipSoft
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.fwqtg.net