贝叶斯优化
· 4 min read
本文主要依据与论文 [^1] 来写,虽然这篇论文主要是提出了 SMBO 方法,但是一般认为该方法是 BO 的标准实现。
Sequential Model-based Global Optimization
作为一个优化方法,我们的目标是最优化其目标函数,并假设有函数:
例如在深度学习中,其 就是模型的参数, 就是任务的损失函数;
本文主要依据与论文 [^1] 来写,虽然这篇论文主要是提出了 SMBO 方法,但是一般认为该方法是 BO 的标准实现。
作为一个优化方法,我们的目标是最优化其目标函数,并假设有函数:
例如在深度学习中,其 就是模型的参数, 就是任务的损失函数;