一个引人入胜的机器与人类智能案例研究
需要欺骗 OpenAI 的最新视觉系统吗只需为您的目标添加一个手写标签
机器学习实验室 OpenAI 的研究人员发现,他们最先进的计算机视觉系统可以被不比钢笔和便笺簿更复杂的工具所欺骗如上图所示,简单地写下一个物体的名称并将其贴在另一个物体上就足以诱使软件错误识别它所看到的东西
我们将这些攻击称为排版 攻击,OpenAI 的研究人员在一篇博文中写道通过利用模型稳健地阅读文本的能力,我们发现即使是手写文本的照片也经常可以欺骗模型 他们指出,此类攻击类似于可以欺骗商业机器视觉系统的对抗性图像,但制作起来要简单得多
对抗性图像构成了真正的威胁,但这个特殊的例子并不太严重
对抗性图像对依赖机器视觉的系统构成了真正的危险例如,研究人员已经证明,他们可以通过在道路上贴上某些贴纸来欺骗特斯拉自动驾驶汽车中的软件在没有警告的情况下改变车道此类攻击对从医疗到军事的各种 AI 应用程序构成严重威胁
但这次特定攻击所带来的危险,至少目前是无需担心的有问题的 OpenAI 软件是一个名为 CLIP 的实验系统,未部署在任何商业产品中事实上,CLIP 不寻常的机器学习架构的本质创造了使这次攻击成功的弱点
CLIP 中的多模态神经元响应对象的照片以及草图和文本。
CLIP 旨在探索人工智能系统如何通过对庞大的图像和文本对数据库进行训练,在没有密切监督的情况下学习识别物体在这种情况下,OpenAI 使用了从互联网上抓取的大约 4 亿个图像—文本堆来训练 CLIP,该模型于 1 月发布
本月,OpenAI 研究人员发表了一篇新论文,描述了他们如何打开 CLIP 以查看其性能他们发现了他们所谓的多模态神经元——机器学习网络中的单个组件,不仅对物体的图像做出反应,还对草图,卡通和相关文本做出反应这令人兴奋的原因之一是它似乎反映了人脑对刺激的反应,观察到单个脑细胞对抽象概念而不是具体例子做出反应OpenAI 的研究表明,人工智能系统有可能像人类一样内化这些知识
未来,这可能会导致更复杂的视觉系统,但目前,这种方法还处于起步阶段虽然任何人都可以告诉您苹果和写有apple一词的纸之间的区别,但像 CLIP 这样的软件却不能允许程序在抽象级别链接单词和图像的相同能力造成了这种独特的弱点,OpenAI 将其描述为抽象谬误
排版攻击的另一个例子不要相信人工智能会把你的钱存入存钱罐
研究人员还发现,CLIP 的多模态神经元编码的偏差正是您从互联网获取数据时可能会发现的偏差类型他们指出,中东的神经元也与恐怖主义有关,并发现了一种对黑皮肤的人和大猩猩都会激发的神经元这复制了谷歌图像识别系统中臭名昭著的错误,该系统将黑人标记为大猩猩这是另一个例子,说明机器智能与人类的智能有多么不同——以及为什么在我们将生活交给 AI 之前,有必要将前者分开以了解其工作原理
风河长期以来在OpenRAN上投入巨资。多年的蓄势待发也让运营商和合作伙伴开始关注丰合青睐加。