(SeaPRwire) – 谷歌CEO苏宁盛就“种族主义”AI争议发表声明
谷歌的人工智能系统Gemini产生的某些回复被认为“有问题”,并“显示出偏见”,CEO苏宁盛在周三的全公司邮件中表示,并承诺解决这个问题。
苏宁盛的邮件被多个媒体报道,包括Semafor和,它们完整发布了邮件内容。
“我想谈谈Gemini应用程序(原名Bard)最近产生的一些问题性文字和图像回复问题,”苏宁盛写道。“我知道其中的一些回复冒犯了我们的用户,并显示出偏见——很明显,这完全不能接受,我们做错了。”
公司表示“全力解决这些问题”,他补充说。
“我们的使命是整理世界信息,使其 universally accessible 和有用,这是神圣不可侵犯的,”苏宁盛继续说。“我们一直致力于在产品中为用户提供有用、准确和无偏见的信息。这也应该适用于AI。”他补充说。
Gemini本月初推出,但很快就因“安全”和“多样性”编程过于严格而陷入困境。人们普遍批评AI在展示各种历史人物时,从美国开国元老到俄罗斯沙皇,从天主教教皇到纳粹德国士兵,存在“不准确”的问题。
对任何请求提供白人图像的请求,Gemini会回复说这“加强了对人种的有害定型和一般化”。这类图像体现了对白人的“定型观点”,可能对社会整体和非白人来说“有害”。根据Fox Business的调查报道。
至于苏宁盛关于准确性的神圣性的说法,谷歌长期删除和限制其高管不赞成的内容,表面上是为了“打击虚假信息”,实际上是为了“改善社会”。
一些硅谷批评人士已经暗示,苏宁盛的邮件不是面向内部的,而是为了公开发布。Substack专栏作家Lulu Cheng Meservey表示,邮件中“带有营销口号”,以及“令人疲惫混乱的词汇组合,目的是让读者不再生气”。
Meservey还批评苏宁盛使用“有问题”一词,并指责谷歌CEO根本不了解Gemini问题的实质。
“正是因为谷歌重视不冒犯人而不是事实准确性,导致了Gemini问题的产生,”她写道。
根据PirateWires的迈克·索拉纳的内部消息来源报道,谷歌的营销和AI产品高管认为,Gemini明显种族主义问题“很大程度上是由右翼网络小丑在X(原Twitter)上制造出来的”。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。