谷歌CEO表态:Gemini AI应用出现的偏见问题“完全不可接受”
**划重点:**
1. 🚫 Gemini AI应用展示出令用户不满并具有偏见的AI生成响应。
2. 📉 部分Gemini图像生成历史人物时出现问题,如二战时的德国士兵和以往为白人男性的教皇,导致争议并暂停使用。
3. 🤔 Sundar Pichai致信员工,表示Gemini问题"完全不可接受",并强调谷歌正在全力解决,同时承认AI在发展初期不完美。
谷歌首席执行官 Sundar Pichai对谷歌Gemini AI应用的问题发表了强烈言论,称其AI生成的部分响应"完全不可接受"。Gemini应用,被公司标榜为一项革命性的新搜索工具,在一些用户要求生成历史人物图像时遭到批评,例如二战时期的德国士兵和以往一直是白人男性的教皇。Gemini的部分图像将纳粹士兵描绘为黑人和亚洲人,而将教皇描绘为女性。
面对用户的不满和对AI工具响应的偏见,谷歌已经临时停止了Gemini图像生成器的使用。Pichai在周二致信员工的邮件中写道:"我想解决Gemini应用中出现的问题,特别是涉及问题文本和图像响应的。我知道其中的一些响应已经冒犯了我们的用户,并展示了偏见 - 明确地说,这是完全不可接受的,我们搞错了。"
Gemini图像生成器的问题对谷歌在AI领域的推进构成了一次挫折,该公司试图与微软等竞争对手保持步伐。上个月,谷歌将去年推出的聊天机器人Bard重新打造为Gemini,并将这一改进产品描述为其最强大的AI模型。
谷歌等科技公司声称他们对模型进行了广泛的安全和伦理测试,但Axios科技政策记者Maria Curi表示:"我们不知道确切的测试过程是什么。用户发现了历史性的不准确性,这引发了一个问题,这些模型是否被过早地推向了世界。"
在Pichai的备忘录中,他表示谷歌员工已经“日以继夜地工作来解决这些问题。我们已经看到在各种提示方面有了显著的改进。”他补充道:“没有哪个AI是完美的,特别是在这个行业发展的早期阶段,但我们知道对我们来说要求很高,我们将继续努力,无论需要多长时间。我们将审查发生的事情,并确保我们在规模上进行修复。”
AI驱动的聊天机器人也引起人们对其在即将到来的美国选举中可能发挥的作用的关注。周二发布的一项研究发现,Gemini和其他四种广泛使用的AI工具超过半数的时间产生不准确的选举信息,甚至将选民引导到不存在的投票地点。专家们担心,强大的新型AI可能导致选民接收到虚假和误导性的信息,甚至可能阻止人们前往投票站。
- 0000
- 0001
- 0008
- 0001
- 0000