尽管 ChatGPT 已推出新的 GPT-5 模型,但它仍有出错的可能,OpenAI 一位高级高管于本周再度强调了这一情况。在接受采访时,ChatGPT 负责人尼克・特利指出:“在可靠性方面,可靠与完全可靠之间存在显著的不连续性。” 他还进一步解释称:“除非能证明 ChatGPT 在所有领域,而非仅部分领域,比人类专家更可靠,否则我们会持续建议大家仔细核对答案。”
特利称:“我认为人们会继续将 ChatGPT 作为第二种参考意见,而不一定将其作为主要事实来源。” 问题在于,人们很容易直接接受聊天机器人的回答,而生成式人工智能工具(不仅仅是 ChatGPT)往往存在 “幻觉” 问题,即编造信息。这是因为它们主要基于训练数据中的信息来预测查询的答案,并未对事实形成明确理解。
事实上,AI 归根结底只是在猜测,尽管在猜测方面表现尚可。特利承认,当与传统搜索引擎或公司内部特定数据等能够更好掌握事实的工具结合使用时,该工具的表现最佳。他表示:“我仍然坚信,毫无疑问,正确的产品是将大型语言模型与事实真相相结合,这也是我们将搜索功能引入 ChatGPT 的原因,我认为这带来了巨大的改变。”
特利表示,GPT-5 在减少 “幻觉” 方面取得了 “巨大进步”,但距离完美仍有很长的路要走。他称:“我相信我们最终会解决‘幻觉’问题,但我也相信我们不会在未来一个季度内解决这个问题。”

.
.
.
.
.
.
