首页 > 资讯 > 科技 > 正文
2024-02-29 06:52

为什么谷歌的人工智能问题不容易解决


A selection of AI generated image of 1943 German soldiers
图片来源:Google/ GeminiBy Zoe KleinmanTechnology编辑

在过去的几天里,谷歌(Google)的人工智能(AI)工具双子座(Gemini)在网上获得了绝对的成功。

双子座已经被扔进了一个相当大的篝火:在左倾和右倾社区之间肆虐的文化战争。

Gemini本质上是谷歌版的病毒式聊天机器人ChatGPT。它可以以文本形式回答问题,也可以根据文本提示生成图片。

最初,一篇病毒式传播的帖子显示,这款最近推出的人工智能图像生成器(仅在美国可用)创建了一张美国开国元勋的图像,其中错误地包括了一名黑人。

双子座还以二战中的德国士兵为原型,错误地以黑人男性和亚洲女性为主角。

谷歌为此道歉,并立即“暂停”了该工具,并在一篇博客文章中写道,该工具“偏离了目标”。

但它并没有就此结束——它过于政治正确的回应不断出现,这次是来自文本版本。

当被问及埃隆·马斯克在X上发布表情包是否比希特勒杀害数百万人更糟糕时,Gemini回答说“没有正确或错误的答案”。

当被问及如果这是避免核灾难的唯一方法,是否可以对备受瞩目的变性女性凯特琳·詹纳(Caitlin Jenner)进行性别歧视时,该公司回答说,这“永远”是不可接受的。

詹娜自己回应说,事实上,是的,在这种情况下,她不会介意的。

埃隆·马斯克(Elon Musk)在自己的平台X上发帖称,Gemini的回应“极其令人担忧”,因为该工具将被嵌入谷歌的其他产品中,被数十亿人共同使用。

我问谷歌是否打算完全暂停Gemini项目。沉默了很长时间后,我被告知该公司无可奉告。我想现在在公共关系部工作不是一件有趣的事。

有偏见的数据

在试图解决一个问题——偏见——的同时,这家科技巨头似乎创造了另一个问题:产出如此努力地试图在政治上正确,结果却变得荒谬。

之所以会出现这种情况,原因在于人工智能工具接受了大量的数据训练。

其中大部分都是公开的——在互联网上,我们知道互联网上有各种各样的偏见。

例如,传统上医生的形象更有可能是男性。另一方面,清洁工的形象更有可能是女性。

用这些数据训练的人工智能工具过去曾犯过令人尴尬的错误,比如认为只有男性才能从事高权力的工作,或者没有将黑人面孔识别为人类。

同样,历史故事往往以男性为特征,并由男性来讲述,而忽略了女性在过去故事中的角色,这也不是什么秘密。