OpenAI 安全團隊負責人離職 引發對 AI 安全擔憂

2024.05.18 06:48PM
照片中提到了ved、FORESIGHT、INSTITUTE,包含了事件、文本、儀表

OpenAI 用於控管人工智慧安全的 Superalignment 團隊負責人 Jan Reike,曾強調建構超越人類掌控的超級人工智慧存在危險,OpenAI 需肩負安全責任。

OpenAI去年成立用於控管人工智慧安全的Superalignment團隊,其負責人Jan Reike稍早宣布離開OpenAI,並且透露與OpenAI內部領導層意見產生分歧,因此最終選擇離開。

Jan Reike先前強調,建構超越人類掌控的超級人工智慧會是相當危險作法,因此OpenAI有很大責任肩負打造更安全的人工智慧技術。而此次宣布因與內部領導層意見分歧,因此決定離開消息,則是凸顯OpenAI或許將更多重心放在技術成長,卻可能忽略相應的安全問題。

Yesterday was my last day as head of alignment, superalignment lead, and executive @OpenAI.

— Jan Leike (@janleike) May 17, 2024

Superalignment團隊原先是由Jan Reike與OpenAI共同創辦人暨首席科學家Ilya Sutskever帶領,但在Ilya Sutskever在日前確定離開,此次再加上Jan Reike宣布離開消息,或許代表OpenAI接下來對於人工智慧的安全政策可能會有所改變。

而OpenAI執行長Sam Altman在後續發文,除了表示對於Jan Reike的離開感到遺憾,但也透露將在未來幾天內以較長內容詮釋OpenAI日後在技術安全的作法。

i'm super appreciative of @janleike's contributions to openai's alignment research and safety culture, and very sad to see him leave. he's right we have a lot more to do; we are committed to doing it. i'll have a longer post in the next couple of days.

🧡 https://t.co/t2yexKtQEk

— Sam Altman (@sama) May 17, 2024