第2章 感知机
第2章 感知机
1.感知机是根据输入实例的特征向量xxx对其进行二类分类的线性分类模型:
f(x)=sign(w⋅x+b)f(x)=\operatorname{sign}(w \cdot x+b)
f(x)=sign(w⋅x+b)
感知机模型对应于输入空间(特征空间)中的分离超平面w⋅x+b=0w \cdot x+b=0w⋅x+b=0。
2.感知机学习的策略是极小化损失函数:
minw,bL(w,b)=−∑xi∈Myi(w⋅xi+b)\min _{w, b} L(w, b)=-\sum_{x_{i} \in M} y_{i}\left(w \cdot x_{i}+b\right)
w,bminL(w,b)=−xi∈M∑yi(w⋅xi+b)
损失函数对应于误分类点到分离超平面的总距离。
3.感知机学习算法是基于随机梯度下降法的对损失函数的最优化算法,有原始形式和对偶形式。算法简单且易于实现。原始形式中,首先任意选取一个超平面,然后用梯度下降法不断极小化目标函数。在这个过程中一次随机选取一个误分类点使其梯度下降。
4.当训练数据集线性可分时,感知机学习算法是收敛的。感知机算 ...
第1章 统计学习方法概论
第1章 统计学习方法概论
使用最小二乘法拟和曲线
高斯于1823年在误差e1,…,ene_1,…,e_ne1,…,en独立同分布的假定下,证明了最小二乘方法的一个最优性质: 在所有无偏的线性估计类中,最小二乘方法是其中方差最小的。
对于数据(xi,yi)(i=1,2,3...,m)(x_i, y_i) (i=1, 2, 3...,m)(xi,yi)(i=1,2,3...,m)
拟合出函数h(x)h(x)h(x)
有误差,即残差:ri=h(xi)−yir_i=h(x_i)-y_iri=h(xi)−yi
此时L2L2L2范数(残差平方和)最小时,h(x)h(x)h(x) 和 yyy 相似度最高,更拟合
一般的H(x)H(x)H(x)为nnn次的多项式:
H(x)=w0+w1x+w2x2+...wnxnH(x)=w_0+w_1x+w_2x^2+...w_nx^n
H(x)=w0+w1x+w2x2+...wnxn
w(w0,w1,w2,...,wn)w(w_0,w_1,w_2,...,w_n)w(w0,w1,w2,...,wn)为参数
最小二乘法就是要找到 ...
第四节 多维随机变量的特征数
下载PDF点这里
第五节 条件分布与条件期望
下载PDF点这里
第三节 多维随机变量函数的分布
下载PDF点这里
第四节 中心极限定理
下载PDF点这里
第三节 大数定律
下载PDF点这里
第二节 特征函数
下载PDF点这里
目标检测中数据集格式之间的相互转换
目标检测中数据集格式之间的相互转换
主要涉及–voc、coco、yolo之间的格式转换
即.xml、.json、.txt格式之间的转换
看这篇文章
第一节 总体与样本
下载PDF点这里
第零节 概率母函数
下载PDF点这里