科技應用 OpenAI 超級人工智慧 Jan Reike Superalignment OpenAI 安全團隊負責人離職 引發對 AI 安全擔憂 OpenAI 用於控管人工智慧安全的 Superalignment 團隊負責人 Jan Reike,曾強調建構超越人類掌控的超級人工智慧存在危險,OpenAI 需肩負安全責任。 OpenAI去年成立用於控管人工智慧安全的Superalignment團隊,其負責人Jan Reike稍早宣布離開OpenAI,並且透露與OpenAI內部領導層意見產生分歧,因此最終選擇離開。 Jan Reike先前強調,建構超越人類掌控的超級人工智慧會是相當危險作法,因此OpenAI有很大責任肩負打造更安全的人工智慧技術。而此次宣布因與內部領導層意見分歧,因此決定離開消息,則是凸顯OpenAI或許將更多重心放在技術成 Mash Yang 11 個月前
科技應用 OpenAI 人工智慧技術 超級人工智慧 OpenAI 成立新團隊研究如何「控制」超級 AI OpenAI新團隊將研究控制與引導「超級人工智慧」的技術,以應對其對人類生活的影響,計劃在未來四年內提出有效的管理策略。 OpenAI宣布將成立全新團隊,準備建立可引導、控制「超級人工智慧」的方法,藉此避免持續成長的人工智慧技術影響人類生活。 而此團隊將由OpenAI共同創辦人、首席科學家Ilya Sutskever負責帶領,但目前尚未公布具體作法。 在OpenAI的看法中,超越人類的「超級人工智慧」最快會在未來10年內誕生,而這樣的技術可能不見得能讓人類生活變得更好,因此必須事先建立可以控制及限制的方法。 Ilya Sutskever認為,在目前持續加強人工智慧技術成長情況下,人類可能終究會 Mash Yang 1 年前