-
第四章 线性判据与回归
#4.1 线性判据的基本概念 生成模型:给定训练样本,直接在输入空间内学习其概率密度函数p(x)。 生成模型的优劣势: ##优势 可以根据p(x)采样新的样本数据(synthetic data) 可以检测出较低概率的数据,实现离群点检测(outlierdetection) ##劣势 高维下,需要大量 -
《机器学习》第二次作业——第四章学习记录和心得
《机器学习》第四章学习记录和心得 -
《机器学习》第二次作业——第四章学习记录和心得
第四章 线性判据与回归 4.1 线性判据基本概念 生成模型:给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(𝒙,𝐶𝑖)=𝑝(𝒙|𝐶𝑖)𝑝 -
第四章 线性判据与回归
#思维导图 #4.1 线性判据基本概念 ##生成模型: 给定训练样本,直接在输入空间内学习其概率密度函数p(x)。 优势: 可以根据p(x)采样新的样本数据。 可以检测出较低概率的数据,实现离群点检测。 劣势: 如果是高维的x,需要大量训练样本才能准确的估计p(x) ;否则,会出现维度灾难问题。 判 -
《机器学习》第二次作业——第四章学习记录和心得
#第四章 线性判据与回归 ##4.1 线性判据基本概念 #####1.生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(𝒙,𝐶𝑖)=𝑝( -
机器学习第四章学习记录和心得
4.1 线性判据基本概念 判别模型:给定训练样本$$,直接在输入空间内估计后验概率$p(C_i|x)$。 优势: 快速直接、省去了耗时的高维观测似然概率估计。 线性判据 定义: 如果判别模型f(x)是线性函数,则f(x)为线性判据。 可以用于两类分类,决策边界是线性的。 也可以用于多类分类,相邻两类 -
《机器学习》第二次作业——第四章学习记录和心得
一、线性判据 1.两种模型 生成模型 优势 ①可以根据 𝑝(𝒙) 采样新的样本数据。 ②可以检测出较低概率的数据,实现离群点检测。 劣势 如果是高维的 𝒙 ,需要大量训练样本才能准确的估计 𝑝(𝒙) ;否则,会出现维度灾难问题。 判别模型 优势 快速直接、省去了耗时的高维观测似然概率估计。 -
fzu2021机器学习作业2
作业标题 《机器学习》第二次作业——第四章学习记录和心得 课程链接 中国大学MOOC·模式识别与机器学习 作业说明 根据慕课和补充课件进行学习,并在自己理解的基础上,在博客园记录第四章的学习笔记。注意各个知识点的互相联系。 作业要求 表述学习心得。以及可以依据自己的理解,描述知识点串接的思路。画出思 -
《机器学习》第二次作业——第四章学习记录和心得
思维导图 学习心得 4.1 线性判据基本概念 生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙) 判别模型 给定训练样本 {𝒙𝑛},直接在输入空间内估计后验概率𝑝(𝐶𝑖|𝒙) 优势 快速直接、省去了耗时的高维观测似然概率估计 线性判据 如果判别模型𝑓( -
《机器学习》第二次作业——第四章学习记录和心得
#第四章 线性判据与回归 ##4.1 线性判据基本概念 生成模型 在 xn 中直接学习:p(x) 以贝叶斯为例:生成模型 ——(估计)——> 观测似然概率 ——+先验概率——> 联合概率 ——积分——> 边缘概率密度函数 P(x) ——> 后验概率 P(Ci,x) 缺点:在高维空间会出现维度灾难问题