Descargitas

来自中国的最新突发新闻。

数据中毒让艺术家能够抵制人工智能提取。 就是这样

茄子-Getty Images-1671640109

德里克约翰/盖蒂图片社

生成式人工智能模型面临的主要问题之一是人工智能抓取,这是人工智能公司在未经所有者许可的情况下从互联网来源获取数据来训练人工智能模型的过程。 人工智能抽象会对视觉艺术家产生特别负面的影响,他们的作品被抽象化,以文本到图像的范式创造新的艺术。 但现在可能有一个解决方案。

芝加哥大学的研究人员创建了 Nightshade,这是一种新工具,使艺术家能够“毒害”他们的数字艺术,以防止开发人员在他们的作品上训练人工智能工具。

另外:ChatGPT 中的 DALL-E 3 更有趣:他能设计一件 T 恤吗?

据介绍,艺术家可以使用 Nightshade 对其艺术作品中的像素进行更改,这些更改对于人眼来说是不可见的,但会导致生成式 AI 模型以“混乱”和“不可预测”的方式出现故障。 麻省理工科技评论,获得了该研究的独家预览。

特定的快速攻击会导致生成式 AI 模型因模型学习中的操纵而提供无用的输出,从而导致模型相互混淆。

例如,它可能知道狗实际上是猫,这反过来又导致模型生成与文本提示不匹配的错误图像。

根据该论文,茄属毒素样本可以在不到 100 个样本的情况下破坏稳定的传播波,如下图所示。

芝加哥大学人工智能研究

芝加哥大学

除了被特定术语所陶醉之外,还被与之相关的术语所陶醉。

例如,根据研究论文,在上面的例子中,不仅术语“狗”会受到影响,“小狗”、“猎犬”和“哈士奇”等同义词也会受到影响。

术语之间的联系也不必像上面的示例中那样直接。 例如,论文解释了“奇幻艺术”一词是如何被毒害的,以及相关短语“著名奇幻艺术创作者迈克尔·惠兰的一幅画”。

模型训练者可以部署各种潜在的防御措施,包括高丢失数据过滤、位置检测方法和解毒方法,但这三种方法并不完全有效。

另外:据报道,苹果很快将在其设备中引入人工智能。 这是哪里

此外,从模型中删除有毒数据很复杂,因为人工智能公司必须单独删除每个损坏的样本。

Nightshade 不仅有可能阻止人工智能公司在未经许可的情况下使用数据,而且还鼓励用户在使用任何这些生成式人工智能模型时要小心。

人们还做出了其他尝试来缓解未经艺术家许可使用其作品的问题。 一些AI图像生成模型,例如图像生成器Getty Images和Adobe Firefly,仅使用经过艺术家批准或开源的图像来训练其模型,并有补偿软件作为回报。