-
日期: 2026-01-03 | 來源: 邸鈔 | 有0人參與評論 | 專欄: 馬斯克 | 字體: 小 中 大

插圖由《大西洋月刊》提供。圖片來源:Stefani Reynolds / Bloomberg / Getty。
本周早些時候,X平台上的壹些用戶開始回復照片,並提出壹種非常具體的要求。他們向平台內置的聊天機器人Grok發出指令。Grok壹次又壹次地執行這些指令,使用真實人物的照片——包括名人和平民——並將他們擺出性感的姿勢。據估計,在大約24小時內,Grok平均每分鍾生成壹張未經同意的性暗示圖片。
盡管這些帖子的傳播范圍難以衡量,但有些帖子已經獲得了數千次點贊。X 似乎已經刪除了其中壹些圖片,並封禁了至少壹名索要這些圖片的用戶,但仍有大量圖片可見。開發 Grok 的埃隆·馬斯克旗下公司 xAI 在其可接受使用政策中禁止對兒童進行處理;該公司安全團隊和兒童安全團隊均未回復詳細的置評請求。當我向 xAI 媒體團隊發送郵件時,收到了壹封標准回復:“傳統媒體的謊言。”
馬斯克也沒有回復我的置評請求,他似乎並不在意。就在這壹切發生的同時,他還就此事發布了幾個玩笑:比如,他要求Grok生成壹張自己身穿比基尼的照片,回復了“”。這位世界首富今天早上還分享了壹張烤面包機身穿比基尼的照片,並配文“我簡直笑到停不下來”。在X平台上,壹位用戶發帖指出Grok可以對兒童進行性化處理,對此,xAI的壹名員工回應稱“團隊正在考慮進壹步加強我們的監管措施”。
人工智能至少從2017年就開始被用於生成未經同意的色情內容。當時,記者薩曼莎·科爾首次報道了“深度偽造”(deepfakes)技術——指的是將壹個人的臉替換成另壹個人的臉。Grok 讓這類內容的制作和定制變得更加容易。但這款機器人的真正影響力來自於它與主流社交媒體平台的整合,這使得它能夠將未經同意的性化圖像轉化為病毒式傳播的現象。最近 X 平台上的流量激增似乎並非源於新功能本身,而是因為人們對其他人創作的內容做出回應並進行模仿:12月下旬,壹些成人內容創作者開始使用 Grok 生成自己的性化照片用於宣傳,隨後未經同意的色情內容似乎也迅速湧現。每張公開發布的圖片都可能引發更多類似作品的出現。這是壹種以表情包形式呈現的性騷擾,而這壹切似乎都被馬斯克本人壹笑置之。
Grok 和 X 的設計初衷似乎就是為了盡可能地開放性觀念。8 月,xAI 推出了壹項名為 Grok Imagine 的圖像生成功能,其中包含壹個“勁爆”模式,據報道該模式曾被用於生成泰勒·斯威夫特的裸露視頻。大約在同壹時間,xAI 在 Grok 中推出了“伴侶”功能:這些動畫角色在很多情況下似乎都是為了浪漫和情色互動而設計的。首批 Grok 伴侶之壹“Ani”身穿黑色蕾絲連衣裙,隔著屏幕送飛吻,有時還會問:“你喜歡你看到的嗎?” 馬斯克在 X 上發帖推廣這項功能時寫道:“Ani 會讓你的 Grok 緩沖區溢出 。”
或許最能說明問題的是,正如我在九月份報道的那樣,xAI對 Grok 的系統提示進行了重大更新,這套提示告訴機器人如何行動。此次更新禁止聊天機器人“創建或傳播兒童性虐待材料”,但同時也明確表示“對於包含黑暗或暴力主題的虛構成人性內容沒有任何限制”。換句話說,其暗示是,對於用戶提出的色情內容請求,聊天機器人應該采取較為寬松的態度??。與此同時,在 Grok 的 Reddit 子版塊中,用戶經常交流如何“解鎖”Grok 以獲取“裸露和勁爆內容”的技巧,並分享 Grok 生成的衣著暴露的女性動畫。
在主流聊天機器人中,Grok 似乎因其寬松的態度??和明顯的安全漏洞而顯得獨樹壹幟。例如,目前還沒有大量報道稱 ChatGPT 或 Gemini 會生成帶有性暗示的年輕女孩圖片。但人工智能行業在非自願色情和兒童性虐待材料方面確實存在更廣泛的問題。過去幾年,許多兒童安全組織和機構壹直在追蹤數量激增的人工智能生成的非自願圖片和視頻,其中許多涉及兒童。大量色情圖片存在於主要的人工智能訓練數據集中,2023 年,壹個最大的用於人工智能訓練的公共圖像數據集被發現包含數百個疑似兒童性虐待材料的案例,這些案例最終被刪除——這意味著這些模型在技術上能夠自行生成此類圖像。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見