-
第四章 线性判据与回归
#思维导图 #4.1 线性判据基本概念 ##生成模型: 给定训练样本,直接在输入空间内学习其概率密度函数p(x)。 优势: 可以根据p(x)采样新的样本数据。 可以检测出较低概率的数据,实现离群点检测。 劣势: 如果是高维的x,需要大量训练样本才能准确的估计p(x) ;否则,会出现维度灾难问题。 判 -
《机器学习》第二次作业——第四章学习记录和心得
#第四章 线性判据与回归 ##4.1 线性判据基本概念 #####1.生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(𝒙,𝐶𝑖)=𝑝( -
机器学习第四章学习记录和心得
4.1 线性判据基本概念 判别模型:给定训练样本$$,直接在输入空间内估计后验概率$p(C_i|x)$。 优势: 快速直接、省去了耗时的高维观测似然概率估计。 线性判据 定义: 如果判别模型f(x)是线性函数,则f(x)为线性判据。 可以用于两类分类,决策边界是线性的。 也可以用于多类分类,相邻两类 -
《机器学习》第二次作业——第四章学习记录和心得
一、线性判据 1.两种模型 生成模型 优势 ①可以根据 𝑝(𝒙) 采样新的样本数据。 ②可以检测出较低概率的数据,实现离群点检测。 劣势 如果是高维的 𝒙 ,需要大量训练样本才能准确的估计 𝑝(𝒙) ;否则,会出现维度灾难问题。 判别模型 优势 快速直接、省去了耗时的高维观测似然概率估计。 -
fzu2021机器学习作业2
作业标题 《机器学习》第二次作业——第四章学习记录和心得 课程链接 中国大学MOOC·模式识别与机器学习 作业说明 根据慕课和补充课件进行学习,并在自己理解的基础上,在博客园记录第四章的学习笔记。注意各个知识点的互相联系。 作业要求 表述学习心得。以及可以依据自己的理解,描述知识点串接的思路。画出思 -
《机器学习》第二次作业——第四章学习记录和心得
思维导图 学习心得 4.1 线性判据基本概念 生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙) 判别模型 给定训练样本 {𝒙𝑛},直接在输入空间内估计后验概率𝑝(𝐶𝑖|𝒙) 优势 快速直接、省去了耗时的高维观测似然概率估计 线性判据 如果判别模型𝑓( -
《机器学习》第二次作业——第四章学习记录和心得
#第四章 线性判据与回归 ##4.1 线性判据基本概念 生成模型 在 xn 中直接学习:p(x) 以贝叶斯为例:生成模型 ——(估计)——> 观测似然概率 ——+先验概率——> 联合概率 ——积分——> 边缘概率密度函数 P(x) ——> 后验概率 P(Ci,x) 缺点:在高维空间会出现维度灾难问题 -
《机器学习》第二次作业——第四章学习记录和心得
《机器学习》第二次作业——第四章学习记录和心得 思维导图: 4.1 线性判据基本概念 1.生成模型: 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(� -
《机器学习》第二次作业——第四章学习记录和心得
《第四章》笔记 4.11 线性判据多类分类 本质:非线性 (1) 实现非线性分类的途径 一个模型:能刻画非线性的决策边界。 多个模型:多个模型(线性/非线性)组合成非线性决策边界。 组合方式:并行组合、串行组合。 (2)线性判据实现多类分类的途径 对于线性判据:通过多个线性模型组合的途径实现多类分类 -
机器学习第四章
###思维导图 4.1线性判据基本概念 生成模型:直接在输入空间中学习其概率密度p(x) 判别模型:直接在输入空间输出后验概率p(Ci|x) 线性判据:如果判别模型f(x)是线性函数,那f(x)为线性判据 对于二分类,决策边界是线性;对于多分类,相邻两类的决策边界也是线性 计算量少,适用于样本少的情