第二节 样本数据的整理与显示
下载PDF点这里
第2章 感知机
第2章 感知机
1.感知机是根据输入实例的特征向量xxx对其进行二类分类的线性分类模型:
f(x)=sign(w⋅x+b)f(x)=\operatorname{sign}(w \cdot x+b)
f(x)=sign(w⋅x+b)
感知机模型对应于输入空间(特征空间)中的分离超平面w⋅x+b=0w \cdot x+b=0w⋅x+b=0。
2.感知机学习的策略是极小化损失函数:
minw,bL(w,b)=−∑xi∈Myi(w⋅xi+b)\min _{w, b} L(w, b)=-\sum_{x_{i} \in M} y_{i}\left(w \cdot x_{i}+b\right)
w,bminL(w,b)=−xi∈M∑yi(w⋅xi+b)
损失函数对应于误分类点到分离超平面的总距离。
3.感知机学习算法是基于随机梯度下降法的对损失函数的最优化算法,有原始形式和对偶形式。算法简单且易于实现。原始形式中,首先任意选取一个超平面,然后用梯度下降法不断极小化目标函数。在这个过程中一次随机选取一个误分类点使其梯度下降。
4.当训练数据集线性可分时,感知机学习算法是收敛的。感知机算 ...
第1章 统计学习方法概论
第1章 统计学习方法概论
使用最小二乘法拟和曲线
高斯于1823年在误差e1,…,ene_1,…,e_ne1,…,en独立同分布的假定下,证明了最小二乘方法的一个最优性质: 在所有无偏的线性估计类中,最小二乘方法是其中方差最小的。
对于数据(xi,yi)(i=1,2,3...,m)(x_i, y_i) (i=1, 2, 3...,m)(xi,yi)(i=1,2,3...,m)
拟合出函数h(x)h(x)h(x)
有误差,即残差:ri=h(xi)−yir_i=h(x_i)-y_iri=h(xi)−yi
此时L2L2L2范数(残差平方和)最小时,h(x)h(x)h(x) 和 yyy 相似度最高,更拟合
一般的H(x)H(x)H(x)为nnn次的多项式:
H(x)=w0+w1x+w2x2+...wnxnH(x)=w_0+w_1x+w_2x^2+...w_nx^n
H(x)=w0+w1x+w2x2+...wnxn
w(w0,w1,w2,...,wn)w(w_0,w_1,w_2,...,w_n)w(w0,w1,w2,...,wn)为参数
最小二乘法就是要找到 ...
第四节 多维随机变量的特征数
下载PDF点这里
第五节 条件分布与条件期望
下载PDF点这里
第三节 多维随机变量函数的分布
下载PDF点这里
第四节 中心极限定理
下载PDF点这里
第三节 大数定律
下载PDF点这里
第二节 特征函数
下载PDF点这里
目标检测中数据集格式之间的相互转换
目标检测中数据集格式之间的相互转换
主要涉及–voc、coco、yolo之间的格式转换
即.xml、.json、.txt格式之间的转换
看这篇文章
第一节 总体与样本
下载PDF点这里