Skip to main content

6 posts tagged with "机器学习"

View All Tags

高斯过程

· 8 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

布朗运动与朗之万方程 中已经介绍过随机过程,而高斯过程 (Gaussian process) 是一个特殊的随机过程。在高斯过程中,连续输入空间中每个点都是与一个正态分布的随机变量相关联 [^1]。

从单变量高斯分布说起。在 单变量高斯分布 中我们已经写出了单变量高斯分布的公式,在这里重复一遍。

概率图

· 5 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

概率图模型(Probabilistic Graphical Model, PGM),简称图模型(Graphical Model,GM),是指一种用图结构来描述多元随机变量之间条件独立性的概率模型,从而给研究高维空间的概率模型带来了很大的便捷性。

为什么讲条件独立性呢?

对于一个 KK 维随机向量,其联合概率为高维空间中的分布,一般难以直接建模。假设有

X=[X1,X2,,XK]TX=\left[ X_{1},X_{2},\cdots,X_{K} \right]^{\mathbf{T}}

为离散随机变量并且有 mm 个取值,在不作任何假设的情况下,则需要 mK1m^K-1 个参数才能表示其概率分布。参数是指数级的,我们在多元高斯分布中也反复说明过 高维问题贝叶斯分类器条件假设

重谈 L1 与 L2 正则

· 9 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

L1 与 L2 的比较是一个老生常谈的问题

本文章想要回答下面这个问题

info

前文提到 L1L_{1}L2L_{2} 正则都是想要降低模型的复杂度 (权重趋近 00),那么二者是否有倾重?或者说区别是什么?

L1- 正则化更稀疏

为了探究 L1L_{1}L2L_{2} 正则化效果,设计了一个蒙特卡洛实验。

机器学习 - 正则化

· 8 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

概述

info

在 数学与计算机科学 中,尤其是在机器学习和逆问题领域中,正则化(regularization)是指为解决 适定性问题过拟合 而加入额外信息的过程。[^1]

先来从损失函数的角度引入,机器学习训练的过程,就是要找到一个足够好的函数 FF^* 用以在新的数据上进行推理。而为了定义这个,我们引入了损失函数的概念。一般的,对于样本 (x,y)(\vec{x}, y) 和模型 FF,有预测值 y^=F(x)\hat{y}=F(\vec{x})。而损失函数是定义在 R×RR\mathbb{R}\times \mathbb{R}\to \mathbb{R} 上的二元函数 (y,y^)\ell(y, \hat{y}),用来描述 Ground Truth\mathrm{Ground \ Truth} 和预测值之间的差距。一般来说,损失函数是一个有下确界的函数;当预测值和 Ground Truth\mathrm{Ground \ Truth} 足够接近,损失函数的值也会接经该下确界。

Bias and Variance

· 3 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

偏差 (Bias)

info
Bias(f^(x))=E[f^(x)f(x)]\operatorname{Bias}(\hat{f}(x))=E[\hat{f}(x)-f(x)]

其中,E[]E[\cdot] 表示期望,f(x)f(x) 是真实值,f^(x)\hat{f}(x) 是模型对给定输入 xx 的预测

机器学习 - 凸优化

· 7 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer
定义

凸优化问题 (OPT,convex optimization problem) 指定义在凸集中的凸函数最优化的问题。

数学概念

凸集

定义

假设 CC 是向量空间的集。若对于任意 x,yCx,y\in C 和任意的 θR\theta\in \mathbb{R},满足 0θ10\le \theta \le 1 时,θx+(1θ)yC\theta x+(1-\theta)y \in C 恒成立。则称 CC凸集[^1]