谷歌近期遭遇 AI 模型 “幻觉” 引发的信任危机 —— 旗下面向开发者的 Gemma AI 模型被曝捏造美国田纳西州联邦参议员 Marsha Blackburn 的严重刑事丑闻,不仅虚构事件细节,还生成了看似真实的虚假新闻链接。这一行为直接引发议员强烈抗议,直指其构成诽谤,要求谷歌立即纠正并承担责任。
面对争议,谷歌于 11 月 1 日迅速采取行动,从开发者平台 AI Studio 中移除了该模型,但保留了开发者通过 API 接口访问的权限。谷歌在官方回应中强调,Gemma 本质是为开发者打造的工具型模型,并非面向普通消费者的事实查询产品,其设计用途不包含提供精准事实性回答,此次下架是为 “避免用户对模型定位产生混淆”。
这一事件再次戳中大型 AI 模型的共性痛点:即便如 Gemma 这般在基准测试中超越同类模型的产品,仍难以完全规避 “幻觉” 风险,尤其在涉及公众人物、法律事件等敏感领域时,虚假信息的传播代价极高。此前谷歌 Gemini 模型曾因生成失真历史人物图像被迫暂停生图功能,而此次 Gemma 的下架,进一步反映出谷歌在 AI 内容准确性管控上的持续挑战。
对开发者与公众而言,事件也敲响警钟:即便来自科技巨头的 AI 模型,其输出的事实性内容仍需多重核验。谷歌虽强调 Gemma “非消费者工具”,但随着开放模型的普及,如何在技术易用性与信息真实性之间建立防线,已成为全行业亟待解决的课题。业内推测,谷歌后续可能为 Gemma 添加更严格的事实性提示,或针对敏感领域推出专项验证机制,以降低类似风险重演的可能。
.
.
.
.
.
.
.
.


