Skip to main content

4 posts tagged with "贝叶斯定理"

View All Tags

贝叶斯优化

· 4 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

本文主要依据与论文 [^1] 来写,虽然这篇论文主要是提出了 SMBO 方法,但是一般认为该方法是 BO 的标准实现。

Sequential Model-based Global Optimization

作为一个优化方法,我们的目标是最优化其目标函数,并假设有函数:

f:XRf: \mathcal{X}\to \mathbb{R}

例如在深度学习中,其 X\mathcal{X} 就是模型的参数,R\mathbb{R} 就是任务的损失函数;

朴素贝叶斯分类器

· 6 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

假设我们有个特定的输入 xx,我们想要 Inference\text{Inference} 它的类别,我们可以通过 贝叶斯定理 中的后验概率最大的类作为 xx 类的输入。

P(Y=ckX=x)=P(X=xY=ck)P(Y=ck)kP(X=xY=ck)P(Y=ck)\begin{equation} P\left(Y=c_{k} \mid X=x\right)=\frac{P\left(X=x \mid Y=c_{k}\right) P\left(Y=c_{k}\right)}{\sum_{k} P\left(X=x \mid Y=c_{k}\right) P\left(Y=c_{k}\right)} \label{1} \end{equation}

其中的 YY 即输入的类别。

贝叶斯定理

· 7 min read
PuQing
AI, CVer, Pythoner, Half-stack Developer

条件概率

条件概率一般记作 P(AB)P(A\mid B),意思是当 BB 事件发生时,AA 事件发生的概率,其定义为

P(AB)=P(AB)P(B)P(A\mid B)=\frac{P(A\cap B)}{P(B)}

其中 P(AB)P(A\cap B) 意思是 AABB 共同发生的概率,称为联合概率。也可以写作 P(A,B)P(A,B)P(AB)P(AB)