AI 框架Ambient Diffusion:从图像中获取灵感,而非复制
相信很多大家对AI 框架Ambient Diffusion:从图像中获取灵感,而非复制还不知道吧,今天菲菲就带你们一起去了解一下~.~!
站长之家(ChinaZ.com)5月21日 消息:强大的人工智能模型有时会出现错误,包括虚构错误信息或将他人作品作为自己的。为了解决后者的问题,德克萨斯大学奥斯汀分校的研究团队开发了一种名为 "Ambient Diffusion" 的框架。该框架通过对无法辨认的图像数据进行训练,绕过了 AI 模型复制他人作品的问题。
DALL-E、Midjourney 和 Stable Diffusion 是文本到图像扩散生成的人工智能模型,它们能够将任意用户文本转化为高度逼真的图像。这三个模型都面临着艺术家提起诉讼的问题,他们声称生成的样本复制他们的作品。这些模型是通过训练数十亿个图像 - 文本对来实现的,这些对外不公开,它们能够生成高质量的图像,但可能会使用版权图像并复制它们。
"Ambient Diffusion" 框架的提出解决了这个问题,通过仅通过扰乱后的图像数据对扩散模型进行训练。初步实验表明,该框架仍然能够生成高质量的样本,而不需要看到任何可识别为原始源图像的内容。研究团队首先在一组3000张名人图片上训练了一个扩散模型,然后使用该模型生成了新的样本。
在实验中,用清晰的数据训练的扩散模型明显复制了训练样本。但当研究人员对训练数据进行扰乱,随机遮挡图像中的个别像素,然后用新的方法对模型进行重新训练时,生成的样本保持了高质量,但看起来完全不同。该模型仍然可以生成人脸,但生成的人脸与训练图像有明显的区别。
研究人员表示,这指向了一个解决方案,尽管可能会改变性能,但永远不会输出噪声。这一框架为学术研究人员如何推进人工智能以满足社会需求提供了一个示例。德克萨斯大学奥斯汀分校已将2024年宣布为 "AI 之年",这是今年的一个关键主题。该研究团队还包括加州大学伯克利分校和麻省理工学院的成员。
论文:https://arxiv.org/abs/2305.19256
关联项目:https://github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file
以上就是关于【AI 框架Ambient Diffusion:从图像中获取灵感,而非复制】的相关内容,希望对大家有帮助!