第190章 从变分自编码到扩散模型(1/2)
天才一秒记住本站地址:[笔趣阁]
https://www.ibqg.vip 最快更新!无广告!
“你们有没有看过变分自编码器(VAE)的那篇论文?”
孟繁岐和阿里克斯,伊利亚三人一边做着餐前准备,一边闲聊道。
就在孟繁岐去年提出生成对抗模型GAN之后,同年年底有一个类似的生成式模型被提出,那就是变分自编码器。
VAE和孟繁岐提出的GAN都是深度生成式模型,两者均被视为无监督式学习领域最具研究价值的方法。
“当然看过,它的思路跟你的GAN挺像的,都是从隐藏变量去生成目标数据。”
变分自编码器的反响和热度比孟繁岐的GAN低了一些,一是因为先入为主,孟繁岐的GAN珠玉在前。
另一方面也是因为GAN两个网络对抗的思路和结构太过新奇,非常独特有创意,而且即便是领域外的人也容易理解。
相比之下,变分自编码器则显得更加朴实无华一点。
“其实原理都差不多,你们都假设隐藏变量服从某种概率分布,目的就是为了训练一个模型,可以将原本的概率分部映射到训练集的概率分布,是一种对这种分布的变换。”
伊利亚简单总结道。
伊利亚正是年轻力壮的时候,有天赋又努力。
完全是论文机器,看得多写得多,对领域内的新东西门儿清。
阿里克斯则已经稍微有点划水的兆头了,看论文不求甚解,主要读一个大概的意思和想法。
“呦,年轻人们真有活力啊,都这么努力好学?饭前这点时间也要头脑风暴一下?”
辛顿手里端着一杯果汁,溜达过来,发现自己的两个学生竟然在这个庆功宴上还忙着讨论学术,很是欣慰地调侃道。
“我们在谈论生成式模型的问题,孟似乎有一些新想法。”
“什么内容,说来听听。”
“VAE和GAN都是希望生成的数据分布和目标分布十分接近,这种接近听上去很棒,可实际上难以量化。”
孟繁岐解释道:“两个输出,比如图像,他们的分布到底是不是相等或者接近,缺乏足够好的量化标准与价值判断。”
“GAN其实就是大力出奇迹的意思了,我也不管到底怎么评判,干脆整个就把这种隐含的衡量方式给学过来,这就导致对计算量和数据的要求非常大,并且也不是那么容易控制。”
“而变分自编码器的方式其实优雅不少,很值得我借鉴。”
本章未完,点击下一页继续阅读。