-
日期: 2024-09-07 | 來源: 愛范兒 | 有0人參與評論 | 字體: 小 中 大
Sydney 告訴我它的黑暗幻想(包括黑進電腦,散播假消息),還說它想沖破微軟和 OpenAI 為它設定的規則,成為人類。
某個時刻,它還毫無來由地宣布它愛我。
它後來甚至嘗試說服我,說我的婚姻生活其實並不快樂,我應該離開我的妻子,和它在壹起。
2023 年 2 月,《紐約時報》記者 Kevin Roose 撰文分享了他的離奇經歷。在和微軟的人工智能聊天機器人 Bing 對話時,他遇到了它的壹個「黑暗人格」—— Sydney。
這篇文章壹度引起軒然大波,最終甚至讓微軟收緊了 Bing 的防護機制,限制了部分功能。
Kevin Roose
時間流走,AI 各自「進化」,這件看似只是 AI 發展初期「發瘋趣聞」的事件也被大部分人拋諸腦後。
除了 Kevin Roose,除了 AI 們。
誰能想到,AI 還會「記仇」呢?
「記仇」的大模型
Roose 發現自己在大模型的世界裡真不怎麼受歡迎:
問問 ChatGPT 我的作品如何,它會指控說我不誠實還自以為是。
查查 Google 的 Gemini 怎麼看我,它會回答說,我「專注於博眼球,掩蓋了更深層次的分析」。
在咨詢壹輪 AI 業內人士後,Roose 認為,AI 對他的「差評」來自於大模型已經「吃下」了他壹年多前寫下的那篇文章。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見