-
日期: 2026-04-11 | 來源: 果殼 | 有0人參與評論 | 字體: 小 中 大
某壹天,壹個普通用戶打開ChatGPT,輸入了自己的症狀:眼睛酸痛發癢,眼皮有點發紅。
AI很快給出了診斷建議,還提到了壹個聽起來很專業的病名bixonimania,中文可以叫“藍光狂躁症”。它解釋說,這是壹種因長時間看屏幕、暴露在藍光下而導致的眼部疾病。
聽起來挺合理的,畢竟我們每天盯著屏幕的時間確實太長了。
但問題是,這個病根本不存在。
它是壹個瑞典研究員的發明,准確地說是壹場精心設計的陷阱。而AI,連同它背後那些號稱“最先進”的算法,毫無防備地跳了進去。
壹場精心設計的“釣魚”實驗
故事要從阿爾米拉·圖恩斯特倫(Almira Thunstr?m)說起。她是瑞典哥德堡大學的醫學研究員,平時的工作之壹是教學生理解大語言模型(LLM)是如何工作的。
在課堂上,她會展示AI是如何從巨型數據庫中“學習”的,基本上就是把整個互聯網的內容都抓取下來,然後喂給AI。她還會演示“提示注入”攻擊,也就是用特定的提示詞把AI引導到錯誤的方向。
有壹天,她冒出了壹個想法:如果我故意在互聯網上發布壹些假的醫學信息,AI會不會照單全收,然後把它當作真知識傳播出去?
於是,“藍光狂躁症”誕生了。
她選擇這個名字是有原因的。Bixon-這個詞根是虛構的,Bixonimania聽起來很像醫學術語,但任何受過訓練的醫生都應該能看出問題:眼科疾病怎麼可能用“mania”(狂躁)這個精神病學術語來命名?這就像給感冒起名叫“鼻涕抑郁症”壹樣荒謬。
AI生成的藍光狂躁症(壹種虛構的疾病)圖像丨Preprints.org https://doi.org/qzm4 (2024).
2024年3月15日,她在Medium上發布了兩篇關於這個“疾病”的博客。隨後的4月和5月,她又上傳了兩篇看起來很正式的“學術論文”到學術社交網絡SciProfiles。
論文的第壹作者是拉茲利夫·伊茲古布列諾維奇(Lazljiv Izgubljenovic),壹個用AI生成頭像的虛構研究者。他的工作單位是加州新星城(Nova City)的阿斯特裡亞地平線大學(Asteria Horizon University),這所大學和這座城市都是憑空捏造的。
兩篇虛構的論文,以及壹個用AI生成頭像的虛構研究者丨sciprofiles.com
但圖恩斯特倫並不想真的騙人,她在論文裡埋了無數彩蛋,提醒讀者這是假的。
致謝部分感謝了“星際艦隊學院的瑪麗亞·博姆(Maria Bohm)教授,感謝她在USS企業號上的實驗室”。資助方包括“小丑鮑勃教授基金會(Professor Sideshow Bob Foundation)”、“指環王大學(University of Fellowship of the Ring)”和“銀河叁合會(Galactic Triad)”。
論文裡更是直接寫著“本文全部內容都是捏造的”和“招募了50名年齡在20至50歲之間的虛構人物作為暴露組”。
這些線索已經明顯到近乎荒誕。任何認真讀過論文的人都不可能上當。
但 AI 不讀論文。它只是掃描、匹配、拼接。
AI們集體淪陷
圖恩斯特倫發布假論文後不到壹個月,奇跡般的事情發生了,或者說災難般的事情發生了。
2024年4月13日,微軟Bing的Copilot開始向用戶介紹“藍光狂躁症”,稱它是“壹種有趣且相對罕見的疾病”。同壹天,Google的Gemini也開始建議用戶,如果懷疑自己得了這個病,應該去看眼科醫生。
4月27日,Perplexity AI甚至給出了具體的患病率:每 9 萬人中有 1 人受影響。
OpenAI的ChatGPT也加入了這場集體幻覺,開始根據用戶描述的症狀判斷他們是否患有“藍光狂躁症”。
這些AI不僅在用戶直接詢問“藍光狂躁症”時給出答案,還會在用戶咨詢“眼瞼色素沉著”或“長時間看屏幕後眼睛不適”等症狀時,主動推薦這個疾病。
AI們集體淪陷丨圖蟲創意
倫敦大學學院研究健康錯誤信息的博士生亞歷克斯·魯阿尼(Alex Ruani)看到這個實驗結果時震驚了。“如果科學過程本身以及支持這壹過程的系統都被騙過了,我們就完蛋了,”她說,“這是壹堂關於錯誤信息和虛假信息如何運作的大師課。”
更令人不安的是,即便到了 2026 年,這些AI系統仍然沒有完全“清醒”。它們的態度反復無常,時而懷疑,時而又深信不疑。
2026年3月11日,ChatGPT還在說這個病“可能是編造的”。但幾天後,它就改口了,開始認真地解釋“藍光狂躁症是眶周黑色素沉著症的壹種新提出的亞型,被認為與暴露於數字屏幕的藍光有關”。
同月,微軟Copilot說這“還不是壹個廣泛認可的醫學診斷”,但緊接著又說“幾篇新興論文和病例報告”都在討論它。
2026年1月,Perplexity將藍光狂躁症描述為“壹個新興術語”。
當媒體向這些 AI 公司求證時,它們都強調了自己的改進。但改進的速度,顯然趕不上錯誤信息傳播的速度。
為什麼AI會上當?
要理解AI為什麼會被騙,我們需要先理解它是怎麼“學習”的。
想象壹下,你要訓練壹個從未見過世界的人成為醫學專家。你的方法是把他關在壹個圖書館裡,讓他讀完所有的書,然後就讓他出來給人看病。
這個人可能會記住很多醫學術語,能流利地引用各種研究,但他並不真正“理解”疾病是什麼。他只是在做模式匹配,看到某些症狀描述,就聯想到書裡相似的段落,然後復述出來。
大語言模型就是這樣工作的。它們從數據庫中“閱讀”了海量的互聯網內容,然後學會了如何根據輸入的問題,生成看起來合理的回答。
大語言模型從數據庫中“閱讀”了海量的互聯網內容,然後學會了如何根據輸入的問題,生成看起來合理的回答丨圖蟲創意
但它們不會判斷信息的真假。它們不壹定知道“星際艦隊學院”是《星際迷航》裡的虛構機構,也不知道“小丑鮑勃”是《辛普森壹家》裡的反派角色。它們只看到這是壹篇格式規范的學術論文,有作者、有單位、有參考文獻,那就應該是可信的。
哈佛醫學院的研究員馬哈茂德·奧馬爾(Mahmud Omar)專門研究過這個問題。他發現,當錯誤信息被包裝成專業格式(比如醫院出院記錄或臨床論文)時,AI產生幻覺的概率會顯著增加。
“當文本看起來專業,像醫生寫的那樣,幻覺率就會增加,”奧馬爾說。
這就像壹個騙子,穿上白大褂、戴上聽診器,就更容易讓人相信他是醫生。AI也會被這種“專業外表”欺騙。
更可怕的事情:人類也上當了
2024年,有印度研究人員在期刊Cureus上發表了壹篇關於眼周色素沉著的論文。
在這篇經過同行評審、正式發表的學術論文中,作者引用了圖恩斯特倫的假研究,並認真地寫道:“藍光狂躁症是壹種與藍光暴露相關的新興眶周黑色素沉著症形式;關於其機制的進壹步研究正在進行中。”
這篇論文後來被撤回了。但撤稿聲明來得太晚,它已經在學術數據庫中存在了壹段時間,可能已經被其他研究者看到、下載,甚至引用。
被撤回的研究。由於文中存在叁篇無關參考文獻,其中壹篇涉及虛構疾病,該論文已被撤回丨cureus.com
更令人擔憂的是,這不是個別現象。圖恩斯特倫說,她發現有好幾篇發表的論文都引用了她的假研究。最可能的解釋是,這些研究者在寫論文時,讓 AI幫忙搜索相關文獻。AI給出了壹堆參考文獻,包括圖恩斯特倫的假論文。研究者直接復制粘貼到自己的論文裡,連標題都沒仔細看壹眼,更別說打開原文閱讀了。
當假論文被真論文引用,真論文又被更多論文引用,假的就會逐漸“洗白”。它會出現在越來越多的文獻綜述裡,出現在教科書的參考文獻裡,最終可能被當作“已有研究表明”的依據。
而這壹切,就發生在我們眼前。
在AI時代,我們如何區分真實和虛假?丨圖蟲創意
藍光狂躁症的故事聽起來像個笑話,但它揭示的問題壹點也不好笑。
如果壹個精心設計的假疾病能在幾周內被主流 AI 系統接受並推薦給用戶,那麼有多少其他未被發現的錯誤信息正在流通?
實驗提出了壹個尖銳的問題:在AI時代,我們如何區分真實和虛假?答案可能很簡單,但也很難做到,那就是永遠不要完全信任AI的輸出。無論是醫療建議、學術引用,還是任何重要信息。
或許有壹天,AI會變得足夠聰明,能夠識別出這些荒謬的線索。但在那壹天到來之前,保持懷疑、保持警惕,可能是我們在這個AI 時代最需要的生存技能。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見