Skip to main content

14 posts tagged with "概率论"

View All Tags

Gumbel Softmax

· 7 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

之前已经写过 Reparameterization trick,这里主要是想重新讲讲整个重参数化的逻辑。

强化学习-基本组件 中说强化学习会将动作建模一个随机变量。即:

atπ(st)a_{t} \sim \pi(\cdot \mid s_{t})

深度强化学习将会预测其动作的分布参数 θ\theta,然后在计算奖励函数时输入 ata_{t},但是问题是该 ata_{t} 是从参数 θ\theta 下分布采样得到的。也就是说这个地方的梯度无法反传。

高斯过程

· 8 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

布朗运动与朗之万方程 中已经介绍过随机过程,而高斯过程 (Gaussian process) 是一个特殊的随机过程。在高斯过程中,连续输入空间中每个点都是与一个正态分布的随机变量相关联 [^1]。

从单变量高斯分布说起。在 单变量高斯分布 中我们已经写出了单变量高斯分布的公式,在这里重复一遍。

生成扩散模型 - 条件控制生成

· 3 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

从生成手段上看,条件控制生成有两种:事后修改 (Classifier-Guidance) 和事前训练 (Classifier-Free)。

利用已经训练好的生成模型,通过一个分类器来调控生成过程,这就是事后修改的方法,因为从头到位训练一个生成模型训练成本太大了。而对于大公司来说,不缺算力,所以一般采用的是在训练过程中加入训练信号,达到更好的训练生成效果,这就是 Classifier-Free 方案。

条件输入

生成模型最关键的就是对于 p(xt1xt)p(\boldsymbol{x}_{t-1}\mid \boldsymbol{x}_{t}) 的建模,而条件生成就是以条件 y\boldsymbol{y} 作为条件输入,而这时的条件概率分布就可以写为 p(xt1xt,y)p(\boldsymbol{x}_{t-1}\mid \boldsymbol{x}_{t},\boldsymbol{y})。为了重用已经训练好的无条件生成模型 p(xt1,xt)p(\boldsymbol{x}_{t-1},\boldsymbol{x}_{t}),我们利用贝叶斯定理:

EM 算法 - 收敛性

· 3 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

Expectation Maximization(EM) 算法,该算法用于解决具有隐变量的混合模型的高斯和分布(例子可以见 三硬币模型)。在比较理想的情况中,我们可以直接得出我们求得的参数的解析解,比如: MLE:p(Xθ)\mathrm{MLE}:p(X\mid \theta)。我们想要求解的结果就是:

θMLE=argmaxθi=1Nlogp(xiθ)\theta_{MLE} = \arg \max_{\theta}\sum_{i=1}^N \log p(x_{i}\mid \theta)

其中,i=1Nlogp(xiθ)\sum_{i=1}^N\log p(x_{i}\mid \theta) 也被我们称为 对数似然函数。但是一旦引入隐变量,似然函数变为:

多元高斯分布

· 13 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

高斯分布 中我们分别介绍了一维高斯分布情况,以及对于多元高斯分布表达式中的 马氏距离 进行了解释。这一节将主要介绍在多元高斯分布的常用定理进行介绍。

多元高斯的线性性质

tip

已知:

高斯分布

· 8 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

假设有数据:

X=(x1,x2,,xN)T=(x1Tx2TxNT)=(x11x12x1px21x32x2pxN1xN2xNp)N×PX=\left(x_{1}, x_{2}, \cdots, x_{N}\right)^{T}=\left(\begin{array}{c} x_{1}^{T} \\ x_{2}^{T} \\ \vdots \\ x_{N}^{T} \end{array}\right)=\left(\begin{array}{cccc} x_{11} & x_{12} & \ldots & x_{1 p} \\ x_{21} & x_{32} & \ldots & x_{2 p} \\ \vdots & \vdots & \ddots & \vdots \\ x_{N 1} & x_{N 2} & \ldots & x_{N p} \end{array}\right)_{N \times P}

其中 xiRpx_{i}\in \mathbb{R}^pxiN(μ,Σ)x_{i} \sim \mathcal{N}(\mu, \Sigma),参数为 θ=(μ,Σ)\theta=(\mu,\Sigma)

单变量高斯分布

对于单变量的高斯分布 N(μ,σ2)\mathcal{N}(\mu,\sigma^2),即 p=1p=1,其概率密度函数为

概率图

· 5 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

概率图模型(Probabilistic Graphical Model, PGM),简称图模型(Graphical Model,GM),是指一种用图结构来描述多元随机变量之间条件独立性的概率模型,从而给研究高维空间的概率模型带来了很大的便捷性。

为什么讲条件独立性呢?

对于一个 KK 维随机向量,其联合概率为高维空间中的分布,一般难以直接建模。假设有

X=[X1,X2,,XK]TX=\left[ X_{1},X_{2},\cdots,X_{K} \right]^{\mathbf{T}}

为离散随机变量并且有 mm 个取值,在不作任何假设的情况下,则需要 mK1m^K-1 个参数才能表示其概率分布。参数是指数级的,我们在多元高斯分布中也反复说明过 高维问题贝叶斯分类器条件假设

朴素贝叶斯分类器

· 6 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

假设我们有个特定的输入 xx,我们想要 Inference\text{Inference} 它的类别,我们可以通过 贝叶斯定理 中的后验概率最大的类作为 xx 类的输入。

P(Y=ckX=x)=P(X=xY=ck)P(Y=ck)kP(X=xY=ck)P(Y=ck)\begin{equation} P\left(Y=c_{k} \mid X=x\right)=\frac{P\left(X=x \mid Y=c_{k}\right) P\left(Y=c_{k}\right)}{\sum_{k} P\left(X=x \mid Y=c_{k}\right) P\left(Y=c_{k}\right)} \label{1} \end{equation}

其中的 YY 即输入的类别。

贝叶斯定理

· 7 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

条件概率

条件概率一般记作 P(AB)P(A\mid B),意思是当 BB 事件发生时,AA 事件发生的概率,其定义为

P(AB)=P(AB)P(B)P(A\mid B)=\frac{P(A\cap B)}{P(B)}

其中 P(AB)P(A\cap B) 意思是 AABB 共同发生的概率,称为联合概率。也可以写作 P(A,B)P(A,B)P(AB)P(AB)

Mixture Model

· 5 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer
info

In statistics, a mixture model is a probabilistic model for representing the presence of subpopulations within an overall population, without requiring that an observed data set should identify the sub-population to which an individual observation belongs

Introduce

三硬币模型

假设有 3 枚硬币,分别记作 A,B,CA,B,C。这些硬币正面出现的概率分别是 π,p,q\pi,p,q。进行如下掷硬币实验:先掷硬币 AA,根据其结果选出硬币 BB,反面选硬币 CC;然后掷选出的硬币,掷硬币的结果,出现正面记作 1,出现反面记作 0;独立地重复 nn 次实验(这里,n=10n=10),观测结果如下: