-
日期: 2024-12-09 | 來源: 愛范兒 | 有0人參與評論 | 字體: 小 中 大

為了確保安全部署 Sora,OpenAI 基於 DALL·E 在 ChatGPT 和 API 部署中的安全經驗,以及 OpenAI 其他產品(如 ChatGPT)的安全防護措施進行了強化。
未經他人許可使用他人肖像,並禁止描繪真實未成年人;
禁止創建非法內容或侵犯知識產權的內容;
禁止生成有害內容,例如未經同意的親密影像、用於欺凌、騷擾或誹謗的內容,或旨在傳播暴力、仇恨或使他人痛苦的內容;
創建並傳播用於欺詐、詐騙或誤導他人的內容。
所有 Sora 生成的視頻都帶有 C2PA 元數據,這些元數據能夠標識視頻的來源,從而提高透明度,並可用於驗證其來源。
與此前憑借真實人像出圈的 Flux 不同,Sora 們對上傳包含人物的內容設定了特別嚴格的審核標准,目前僅作為試點功能提供給少量早期測試者。
大半年前,初試啼聲的 Sora 贏得互聯網壹片喝彩。
然而,如果說壹年前尚未還能對著壹群演示 demo 空喊“現實不存在了”,那麼在國內外各類視頻模型的輪番洗禮之下,我們早已養刁的胃口很難再被同樣的產品打動。
這種態度的轉變源於壹個簡單的事實。 當 AI 要從“勉強可用”進化到“可堪大用”,用戶的期待也隨之升維,從“能否做到”躍遷至“做得多好”。
好在 Sora 並未在掌聲中原地踏步,通過與藝術家的深度合作,他們在工作流程領域做出了顯著的改進。Re-cut、Remix、Storyboard 等功能都相當實用。
甲乙方的存在決定了工作流中的溝通永遠是剛需,AI 能做的是讓這種溝通更有效率,Sora 的價值不在於它能做什麼,而在於讓創作者得以抽身於技術細節,真正回歸創意的本質。
與此同時,上周引發熱議的 200 美元 ChatGPT Pro 訂閱計劃,如今也有了更合理的價格錨點,該計劃同樣支持無限制訪問 Sora,這種產品協同效應預計也將激發出遠超預期的應用場景和商業價值。
放眼當下,用戶的真金白銀從不作假。
可靈 AI 交出千萬級月流水的亮眼成績單,這片藍海的潛力已呼之欲出,對於仍在“燒錢”階段的 OpenAI 來說,Sora 預計會成為繼 ChatGPT 之後的另壹個下金蛋的母雞。
當 Sora 從“能用”“好用”,再到“妙用”,或許未來某壹天,我們會發現,真正不存在的,不是現實,而是人類創造力的盡頭。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見