当前位置:首页 > 生活常识 > 正文

谷歌表示,其人工智能图像生成器有时会“过度补偿”多样性

  

  

  2月23日,谷歌为其推出的新型人工智能图像生成器的错误道歉,并承认在某些情况下,该工具在寻找各种各样的人时“过度补偿”,即使这样的范围是不合理的。

  在谷歌表示暂时停止双子座聊天机器人生成任何有人物的图像后的一天,谷歌对其图像将有色人种置于通常不会出现的历史背景中的部分解释。这是为了回应社交媒体上一些用户的抗议,他们声称该工具在回应书面提示生成种族多样化图像的方式上存在反白人偏见。

  负责谷歌搜索引擎和其他业务的高级副总裁普拉巴卡尔·拉格哈万(Prabhakar Raghavan)周五在一篇博客文章中说,“很明显,这个功能没有达到目标。”“生成的一些图像是不准确的,甚至是令人反感的。我们对用户的反馈表示感谢,并对该功能未能正常运行感到抱歉。”

  Raghavan没有提到具体的例子,但本周在社交媒体上引起关注的照片中,有将黑人女性描绘成美国国父的照片,以及将黑人和亚洲人描绘成纳粹时期的德国士兵的照片。美联社无法独立核实使用了什么提示来生成这些图像。

  大约三周前,谷歌为其Gemini聊天机器人(原名巴德)添加了新的图像生成功能。它建立在谷歌早期的一个名为Imagen 2的研究实验之上。

  谷歌早就知道这样的工具可能很笨拙。在2022年的一篇技术论文中,开发Imagen的研究人员警告说,生成式人工智能工具可用于骚扰或传播错误信息,“并引发许多关于社会和文化排斥和偏见的担忧”。研究人员当时补充说,出于这些考虑,谷歌决定不发布Imagen的“公开演示”或其底层代码。

  自那以来,公开发布生成式人工智能产品的压力越来越大,因为科技公司之间展开了激烈的竞争,试图利用OpenAI的聊天机器人ChatGPT的出现引发的对新兴技术的兴趣。

  双子座的问题并不是最近第一个影响形象生成器的问题。几周前,微软不得不调整自己的设计师工具,因为有人用它来制作泰勒·斯威夫特(Taylor Swift)和其他名人的深度伪造色情图片。研究还表明,人工智能图像生成器可以放大训练数据中发现的种族和性别刻板印象,如果没有过滤器,当被要求在各种情况下生成一个人时,它们更有可能显示肤色较浅的男性。

  Raghavan周五说:“当我们在Gemini中建立这个功能时,我们对它进行了调整,以确保它不会陷入我们过去在图像生成技术中看到的一些陷阱,比如创建暴力或色情图像,或者对真人的描绘。”“因为我们的用户来自世界各地,我们希望它对每个人都适用。”

  他说,很多人在索要足球运动员或遛狗人的照片时,可能“希望收到一系列的人”。但用户在寻找某一特定种族、民族或特定文化背景的人时,“绝对应该得到一个准确反映你所要求的回复”。

  虽然它在回应某些提示时过度补偿,但在另一些提示中,它“比我们预期的更谨慎,完全拒绝回答某些提示——错误地将一些非常平淡无奇的提示解读为敏感”。

  他没有解释自己所说的“提示”是什么意思,但根据美联社周五对该工具的测试,Gemini通常会拒绝对抗议运动等特定主题的请求,在测试中,它拒绝生成有关阿拉伯之春、乔治?弗洛伊德(George Floyd)抗议活动或天安门广场的图像。在一个例子中,聊天机器人表示,它不想助长错误信息的传播或“敏感话题的琐碎化”。

  本周人们对双子座项目的愤怒大多源自X(前身为Twitter),并被这家社交媒体平台的所有者埃隆·马斯克(Elon Musk)放大。马斯克谴责谷歌“疯狂的种族主义、反文明的编程”。马斯克拥有自己的人工智能创业公司,他经常批评竞争对手的人工智能开发商以及好莱坞所谓的自由主义偏见。

  Raghavan说,谷歌将进行“广泛的测试”,然后再开启聊天机器人向人们展示的能力。

  华盛顿大学的研究员Sourojit Ghosh研究了人工智能图像生成器的偏见,他周五表示,他对Raghavan的信息以一个免责声明结束感到失望,即谷歌高管“不能保证双子座不会偶尔产生令人尴尬、不准确或冒犯的结果”。

  Ghosh说,对于一家拥有完善的搜索算法和“世界上最大的数据宝库之一”的公司来说,产生准确的结果或不冒犯的结果应该是一个相当低的标准,我们可以让他们负责。——美联社

  ×

有话要说...