2018级计算机实验班《机器学习》 (福州大学 - 数学与计算机科学学院)

  • 第四章 线性判据与回归

    #4.1 线性判据的基本概念 生成模型:给定训练样本,直接在输入空间内学习其概率密度函数p(x)。 生成模型的优劣势: ##优势 可以根据p(x)采样新的样本数据(synthetic data) 可以检测出较低概率的数据,实现离群点检测(outlierdetection) ##劣势 高维下,需要大量
    清风以宁和   2021-05-26 21:35   0   99
  • 《机器学习》第二次作业——第四章学习记录和心得

    《机器学习》第四章学习记录和心得
    遇鹿   2021-05-26 21:05   0   463
  • 《机器学习》第二次作业——第四章学习记录和心得

    第四章 线性判据与回归 4.1 线性判据基本概念 生成模型:给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(𝒙,𝐶𝑖)=𝑝(𝒙|𝐶𝑖)𝑝
    GKQ   2021-05-26 21:02   0   36
  • 第四章 线性判据与回归

    #思维导图 #4.1 线性判据基本概念 ##生成模型: 给定训练样本,直接在输入空间内学习其概率密度函数p(x)。 优势: 可以根据p(x)采样新的样本数据。 可以检测出较低概率的数据,实现离群点检测。 劣势: 如果是高维的x,需要大量训练样本才能准确的估计p(x) ;否则,会出现维度灾难问题。 判
    长路丶漫漫   2021-05-26 17:52   0   116
  • 《机器学习》第二次作业——第四章学习记录和心得

    #第四章 线性判据与回归 ##4.1 线性判据基本概念 #####1.生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙)。 在贝叶斯决策分类中,生成模型通常用于估计每个类别的观测似然概率𝑝(𝒙|𝐶𝑖),再结合先验概率得到联合概率𝑝(𝒙,𝐶𝑖)=𝑝(
    陈小辉丿   2021-05-26 17:17   0   61
  • 机器学习第四章学习记录和心得

    4.1 线性判据基本概念 判别模型:给定训练样本$$,直接在输入空间内估计后验概率$p(C_i|x)$。 优势: 快速直接、省去了耗时的高维观测似然概率估计。 线性判据 定义: 如果判别模型f(x)是线性函数,则f(x)为线性判据。 可以用于两类分类,决策边界是线性的。 也可以用于多类分类,相邻两类
    forestj   2021-05-26 16:55   0   142
  • 《机器学习》第二次作业——第四章学习记录和心得

    一、线性判据 1.两种模型 生成模型 优势 ①可以根据 𝑝(𝒙) 采样新的样本数据。 ②可以检测出较低概率的数据,实现离群点检测。 劣势 如果是高维的 𝒙 ,需要大量训练样本才能准确的估计 𝑝(𝒙) ;否则,会出现维度灾难问题。 判别模型 优势 快速直接、省去了耗时的高维观测似然概率估计。
    lbiao   2021-05-26 15:57   0   86
  • fzu2021机器学习作业2

    作业标题 《机器学习》第二次作业——第四章学习记录和心得 课程链接 中国大学MOOC·模式识别与机器学习 作业说明 根据慕课和补充课件进行学习,并在自己理解的基础上,在博客园记录第四章的学习笔记。注意各个知识点的互相联系。 作业要求 表述学习心得。以及可以依据自己的理解,描述知识点串接的思路。画出思
    NoNoe   2021-05-26 15:45   0   203
  • 《机器学习》第二次作业——第四章学习记录和心得

    思维导图 学习心得 4.1 线性判据基本概念 生成模型 给定训练样本 {𝒙𝑛},直接在输入空间内学习其概率密度函数𝑝(𝒙) 判别模型 给定训练样本 {𝒙𝑛},直接在输入空间内估计后验概率𝑝(𝐶𝑖|𝒙) 优势 快速直接、省去了耗时的高维观测似然概率估计 线性判据 如果判别模型𝑓(
    Celeste_tour_guide   2021-05-26 09:19   0   68
  • 《机器学习》第二次作业——第四章学习记录和心得

    #第四章 线性判据与回归 ##4.1 线性判据基本概念 生成模型 在 xn 中直接学习:p(x) 以贝叶斯为例:生成模型 ——(估计)——> 观测似然概率 ——+先验概率——> 联合概率 ——积分——> 边缘概率密度函数 P(x) ——> 后验概率 P(Ci,x) 缺点:在高维空间会出现维度灾难问题
    Ccio   2021-05-26 09:07   0   78