-
日期: 2024-05-07 | 來源: 量子位 | 有0人參與評論 | 專欄: 馬斯克 | 字體: 小 中 大
說起來,雖然OpenAI看起來似乎在安全方面很重視,但其內部對AI的安全開發存在很大分歧已不是什麼秘密。
這種分歧甚至被認為是去年11月OpenAI董事會宮斗大戲的最主要原因。
網傳Ilya Sutskever成為“政變”帶頭人,就是因為看到了壹些東西讓他內心不安。
而Ilya帶領的這個超級對齊團隊,很多成員也是站在Ilya這邊,在後來支持奧特曼的比心接龍活動中,這個超級對齊團隊成員也基本保持了沉默。
然而宮斗事件平息後,Ilya仿佛在OpenAI蒸發了壹般,惹得外界流言肆起,但他再也沒有公開露面過,甚至都沒在網上進行澄清或辟謠。
因此,超級對齊團隊現在是個什麼情況,咱也不知道。
小P作為超級對齊團隊成員、Ilya部下,半個月前從OpenAI被畢業,被網友猜測是奧特曼的“秋後算賬”。
人才啊,他連夜投奔馬斯克
雖然外界還不知道Q*的全貌,但種種跡象表明,它致力於把大模型與強化學習、搜索算法等結合起來,增強AI推理能力。
除了最有八卦點的小P,下面幾位新加入xAI的人才研究方向多多少少與之相關。
Qian Huang,目前還是斯坦福大學的壹名博士生。
去年夏天開始,Qian Huang在Google DeepMind工作,目前推特上已經注明了@xai,暫不知擔任什麼職務。
但從GitHub個人主頁可以看到,她的研究方向是將機器推理與人類推理結合起來,特別是新知識的合理性、可解釋性和可擴展性。
Eric Zelikman,斯坦福博士在讀生,推特上寫明“study why @xai”。
之前,他先後在Google研究院和微軟研究院待過壹段時間。
他在個人主頁上說:“我對算法如何(以及是否)能夠學習有意義的表示和推理很著迷,我正在xAI研究這回事兒。”
今年3月他所在團隊推出Quiet-Star算法,確實也是Q*,讓大模型學會自己獨立思考。
- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見