第四节 三大抽样分布
下载PDF点这里
可行解、基本解、基本可行解
可行解
可行解按字面意义就可以理解:可行的解。
什么是可行?符合所有约束条件就可行,否则不可行。
基本解与基本可行解
基本解和基本可行解,都可以认为是为了求解线性规划问题而发明的概念。
对于简单的线性规划问题,可以通过做图的方式来进行求解(就像高中的线性规划问题一样)。那线性规划不画图应该怎么求解呢?答案是按多元一次方程组来求。
基本解
线性规划的标准形式为:
minc⊤x s.t. Ax=bx⩾0\begin{aligned}
\min \quad& \boldsymbol{c}^{\top} \boldsymbol{x} \\
\text { s.t. }\quad & \boldsymbol{A x}=\boldsymbol{b} \\
& \boldsymbol{x} \geqslant \mathbf{0}
\end{aligned}
min s.t. c⊤xAx=bx⩾0
其中, c∈Rn,b∈Rm,b⩾0,A∈Rm×n,m⩽n\boldsymbol{c} \in \mathbb{R}^n, \bo ...
线性规划的标准形式及基本概念
正在努力码字中~
概率论习题(4)
下载完整PDF点这里
t70
设随机变量 XXX 和 YYY 相互独立, XXX 服从参数为 1 的指数分布, YYY 的概率分布为 P{Y=−1}=p,P{Y=1}=1−pP\{Y=-1\}=p, P\{Y=1\}=1-pP{Y=−1}=p,P{Y=1}=1−p, 令 Z=XYZ=XYZ=XY.
(1) 求 ZZZ 的概率密度;
(2)求 ppp 为何值时, XXX 与 ZZZ 不相关.
(3) 问 XXX 与 ZZZ 是否相互独立?
解析
(1) ZZZ 的分布函数为
FZ(z)=P{Z⩽z}=P{Y=−1}P˙{XY⩽z∣Y=−1}+P{Y=1}P{XY⩽z∣Y=1}=pP{−X⩽z}+(1−p)P{X⩽z}.\begin{aligned}
F_Z(z) & =P\{Z \leqslant z\} \\
& =P\{Y=-1\} \dot{P}\{X Y \leqslant z \mid Y=-1\}+P\{Y=1\} P\{X Y \leqslant z \mid Y=1\} \\
& =p P\{-X \leqslant z\}+(1-p) P ...
概率论习题(2)
下载完整PDF点这里
t15
设随机变量 X 的分布函数为
F(x)={0,x<0,12,0≤x<1,1−e−x,x≥1,F(x)=\left\{\begin{array}{c}
0, & x<0, \\
\frac{1}{2}, & 0 \leq x<1, \\
1-e^{-x}, & x \geq 1,
\end{array}\right.
F(x)=⎩⎪⎨⎪⎧0,21,1−e−x,x<0,0≤x<1,x≥1,
求 P{X=1}P\{X=1\}P{X=1}
解析
根据事件概率与分布函数极限的关系有
P{X=1}=limx→1+F(x)−limx→1−F(x)=1−e−1−12=12−e−1P\{X=1\}=\lim _{x \rightarrow 1^{+}} F(x)-\lim _{x \rightarrow 1^{-}} F(x)=1-e^{-1}-\frac{1}{2}=\frac{1}{2}-e^{-1}
P{X=1}=x→1+limF(x)−x→1−limF(x)=1−e−1−21=21 ...
概率论习题(3)
下载完整PDF点这里
t36
设随机变量 Xi,i=1,2X_i, i=1,2Xi,i=1,2 的分布列如下, 且满足 P(X1X2=0)=1P\left(X_1 X_2=0\right)=1P(X1X2=0)=1, 试求 P(X1=X2)P\left(X_1=X_2\right)P(X1=X2).
Xi−101P0.250.50.25\begin{array}{c|ccc}
\hline X_i & -1 & 0 & 1 \\
\hline P & 0.25 & 0.5 & 0.25 \\
\hline
\end{array}
XiP−10.2500.510.25
解析
先列出 (X1,X2)(X_1,X_2)(X1,X2) 的联合分布列:
首先根据 P(X1X2=0)=1P(X_1X_2=0)=1P(X1X2=0)=1 可以得到 p12+p21+p22+p23+p32=1p_{12}+p_{21}+p_{22}+p_{23}+p_{32}=1p12+p21+p22+p23+p32=1 ...
概率论习题(1)
下载完整PDF点这里
t1
解析
A:P(A∪B)=P(A)+P(B)−P(AB)P(A \cup B)=P(A)+P(B)-P(A B)P(A∪B)=P(A)+P(B)−P(AB) 由此推出 P(AB)=0P(AB)=0P(AB)=0 无法推出目标条件,错误;
B:这是事件独立的充分必要条件,无法推出目标条件,错误;
C:事件有运算关系:A−B=A−AB=ABˉA-B=A-A B=A \bar{B}A−B=A−AB=ABˉ ,所以有:
P(ABˉ)=P(A−B)=P(A)−P(AB)P(A\bar{B})=P(A-B)=P(A)-P(AB)P(ABˉ)=P(A−B)=P(A)−P(AB) , P(AˉB)=P(B−A)=P(B)−P(AB)P(\bar{A}B)=P(B-A)=P(B)-P(AB)P(AˉB)=P(B−A)=P(B)−P(AB) 又 P(ABˉ)=P(AˉB)P(A\bar{B})=P(\bar{A}B)P(ABˉ)=P(AˉB)
由此推出 P(A)=P(B)P(A)=P(B)P(A)=P(B) ,正确;
D:P(AˉBˉ)=P(A∪B‾)=1−P(A∪B) ...
第三节 统计量及其分布
下载PDF点这里
概率论知识点
大致梳理重要的,需要掌握背诵的知识。
下载PDF点这里
pspsps :根据《概率论与数理统计教程(第三版)》汇总的知识总结,根据教材的不同可以自行删减复习知识内容。每一部分的知识点虽然较为完整,但不敢肯定包含所有知识点,详细可参照之前文章进行对比复习。
如果文章内容有错误的地方,欢迎留言或发送信息至邮箱
第一章 随机事件与概率
1.1 随机事件及其运算
1.事件间关系及运算:
1)包含:∅ ⊂ AAA ⊂ Ω A=B⇔A⊂B\quad A=B \Leftrightarrow A \subset BA=B⇔A⊂B 且 B⊂AB \subset AB⊂A
2)差: A−B=A−ABA-B=A-A BA−B=A−AB
A−B=A∩BˉA-B=A \cap \bar{B}A−B=A∩Bˉ AAA 发生并且 BBB 不发生
AB=A−ABˉA B=A-A \bar{B}AB=A−ABˉ ABABAB 都发生 = AAA 发生减去 AAA 发生 BBB 不发生
3)对立: Aˉ=Ω−AAˉˉ=A\bar{A}=\Omega-A \quad \bar{\b ...
人工智能框架思维导图
点击查看人工智能框架(建议使用电脑查看!)
第4章 朴素贝叶斯
第4章 朴素贝叶斯
引言
在众多机器学习分类算法中,本篇我们提到的朴素贝叶斯模型,和其他绝大多数分类算法都不同,也是很重要的模型之一。
在众多机器学习的分类算法中,朴素贝叶斯模型以其独特的方法和重要性,与其他算法显著不同。相对于KNN、逻辑回归、决策树等判别方法,这些算法直接学习输入特征X与输出Y之间的直接关系(决策函数 Y=f(x)Y=f(x)Y=f(x) 或者条件分布 P(Y∣X)P(Y \mid X)P(Y∣X) ),朴素贝叶斯模型则采用了生成方法。它直接找出特征输出Y和特征 X的联合分布 P(X,Y)P(X, Y)P(X,Y) ,进而通过
P(Y∣X)=P(X,Y)P(X)P(Y \mid X)=\frac{P(X, Y)}{P(X)}
P(Y∣X)=P(X)P(X,Y)
计算得出结果判定。
朴素贝叶斯算法原理
贝叶斯定理
贝叶斯理论是以18世纪的一位神学家托马斯.贝叶斯(Thomas Bayes)命名。通常,事件A在事件B (发生) 的条件下的概率,与事件B在事件A (发生) 的条件下的概率是不一样的。然而,这两者是有确定的关系的,贝叶斯定理就是这种关系的陈述。
...
第3章 k近邻法
第3章 k近邻法
kkk近邻法是基本且简单的分类与回归方法。kkk近邻法的基本做法是:对给定的训练实例点和输入实例点,首先确定输入实例点的kkk个最近邻训练实例点,然后利用这kkk个训练实例点的类的多数来预测输入实例点的类。
kkk近邻模型对应于基于训练数据集对特征空间的一个划分。kkk近邻法中,当训练集、距离度量、kkk值及分类决策规则确定后,其结果唯一确定。
kkk近邻法三要素:距离度量、kkk值的选择和分类决策规则。常用的距离度量是欧氏距离及更一般的pL距离。kkk值小时,kkk近邻模型更复杂;kkk值大时,kkk近邻模型更简单。kkk值的选择反映了对近似误差与估计误差之间的权衡,通常由交叉验证选择最优的kkk。
常用的分类决策规则是多数表决,对应于经验风险最小化。
kkk近邻法的实现需要考虑如何快速搜索k个最近邻点。kd树是一种便于对k维空间中的数据进行快速检索的数据结构。kd树是二叉树,表示对kkk维空间的一个划分,其每个结点对应于kkk维空间划分中的一个超矩形区域。利用kd树可以省去对大部分数据点的搜索, 从而减少搜索的计算量。
图1:k近邻法的模型 ...