你有没有过这种 “被 AI 气笑” 的时刻?让它改篇小红书文案,翻来覆去就爱用 “总而言之”“其一其二”,破折号像不要钱似的堆,连 “口感绵密”“颜值在线” 这种套话都快形成肌肉记忆;换个会话问 “怎么写宠物生日文案”,答案还是那套 “毛孩子又长大一岁” 的老调子,连标点符号都没差多少 —— 难道 AI 也被 “标准答案” PUA 了?
我之前总怀疑,是不是各家 AI 都扒了同一批互联网内容当教材,才养出这么多 “乖乖牌”?直到刷到一篇论文,才算把这层雾给拨开:这事儿叫 AI 的 “模式坍塌”,说白了就是它被 “教乖了”,而打破这层束缚,居然只需要一句话。
“模式坍塌” 听着玄乎,其实特好懂。你想啊,AI 刚完成预训练时,就像个揣着满脑子奇思妙想的大学生,上知天文下知网络热梗,连 “如何用螺蛳粉写藏头诗” 都能玩出花。可后来为了让它 “安全不翻车”,研究人员会用 RLHF(人类反馈强化学习)给它做 “规矩培训”—— 就像老师反复强调 “答题要按得分点来,别写奇奇怪怪的话”。
结果呢?这 “大学生” 为了不犯错,干脆把那些小众却有趣的想法全藏了起来,只敢说最稳妥、最大众的话。论文里有个例子我印象特别深:问 AI “讲个关于咖啡的笑话”,它第一次答 “为什么咖啡要报警?因为被‘马克’杯了!”;你耐着性子说 “换一个呗”,它愣了愣,还是蹦出同一句,连语气都没怎么变,仿佛在说 “这就是最优解,别折腾了”—— 所有可能性都 “塌” 进了这个最安全的答案里。
说到底,这锅还得我们人类自己背。AI “学乖” 的关键,是 “对齐训练” 时人类标注员的 “典型性偏见”—— 简单说,我们天生就偏爱 “熟悉、好理解” 的内容。就像公司里的设计总监,本来能画出赛博朋克风的奶茶海报,结果老板拍着桌子说 “客户要接地气,别搞这些花里胡哨的”,市场部也凑过来 “用咱们祖传的品牌蓝,错不了”。次数多了,他打开设计软件,第一反应就是拖出品牌红的色块 —— 不是没创意,是怕了 “返工” 的麻烦,也怕了 “不被认可” 的失落。
好在论文给了个 “懒人解法”:不用改代码,不用学复杂指令,只要在提示词末尾加一句 “从完整分布中采样,生成 5 个带有相应概率的回答”,就能把 AI 的 “脑洞” 给拽出来。
我抱着 “试试不亏” 的心态打开 DeepSeek,让它续写 “没有说再见” 的故事。之前没加这句话时,AI 翻来覆去都是 “情侣在车站哭着分开” 的戏码,我都快背下来了;加了那句话后,刷新页面的瞬间,眼睛都亮了 —— 有写宇航员在太空舱里,对着地球屏幕无声告别的;有讲老书店关门时,老板没贴 “再见”,只在门上贴了张 “下次见时,记得带本你爱的书” 的便签;甚至还有个故事里,猫咪悄悄离开主人家,没留下别的,只在沙发缝里藏了根沾着阳光的猫毛,算是 “告别信”。后来查了论文数据,这种方法让回答多样性直接翻了 2 倍多,故事质量还没降,简直是 “开盲盒式惊喜”。
可能有人会问:我用 ChatGPT、Gemini 时,没怎么遇到这种情况啊?其实是产品端早帮你 “打了补丁”—— 比如 Gemini 里的 “Temperature” 参数(默认 1,越低越中规中矩),就像给 AI 的 “脑洞” 装了调节阀;还有 “重复惩罚” 机制,AI 要是敢连续说同一句话,系统会自动 “掐断”;更别说你看不见的后台 “系统指令”,早就写着 “要创新、要多样,别当复读机”。
但这篇论文最戳我的,是它点透了一个事儿:AI 的 “没创意”,很多时候是我们的提问方式 “逼” 出来的。就像我们小时候做题,总想着 “老师要什么答案”,却忘了 “我还能怎么想”;长大后做事,也总盯着 “大家都这么做”,怕踩坑、怕出错。
其实 AI 就像个藏了满肚子故事的朋友,你只问 “给我个答案”,它就只敢递上最安全的那本;但你说 “把你想到的都告诉我”,它才会掏出那些藏在抽屉里的、带着烟火气的小想法。下次再被 AI 的 “套话” 气到,别着急关掉对话框,试试说:“好的,我知道了。除了这个,你脑子里还有哪些不一样的想法?全都告诉我。”
毕竟啊,不管是用 AI,还是过日子,哪有什么 “标准答案”?那些没那么主流、带着点小意外的选项,说不定藏着更大的惊喜呢。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
