Meta 發布 Frontier AI 框架白皮書 強調 AI 安全保護重要性

2025.02.05 12:13AM

Meta 發布 Frontier AI 框架白皮書,強調在人工智慧系統中加入安全防護措施的重要性,以確保技術發展的可靠性。

Meta稍早公布名為「Frontier AI Framework」 (前沿人工智慧框架)的白皮書,其中定義高風險 (high-risk)及重大風險 (critical-risk)兩種人工智慧系統,兩種系統都可能被用於網路安全攻擊,或是用於化學、生物武器攻擊相關領域,差別在於後者將造成無法控制的嚴重後果,而前者雖然會造成一定威脅,但仍具備一定可控性。

而Meta表示,其評估人工智慧系統風險程度時,並非僅透過單一客觀指標,而是會統整內部研究人員意見與外部研究人員看法,並且由高階主管審核決定。同時,Meta也表示當前其實尚未有足以準確衡量人工智慧系統風險的量化依據,因此對於當前人工智慧系統可能產生風險,主要還是透過當前研究進行評估。

至於對於被列為高風險的人工智慧系統,Meta當前作法會以限制內部使用權限,同時在未能實施足夠的防護措施前,將不會對外開放使用。針對被定義為重大風險的人工智慧系統,則會採用特殊安全防護措施,避免系統造成安全影響,一旦出現安全問題時,則會暫停所有開發工作,直至確保安全無慮。

人工智慧, Meta公布「Frontier AI Framework」白皮書,強調在人工智慧系統加上安全防護<br><span style='color:#848482;font-size:16px;'>定義高風險及重大風險兩種人工智慧系統</span>, mashdigi-科技、新品、趣聞、趨勢

在此之前,Meta曾承諾將打造能執行任何任務、工作的人工智慧系統,並且以通用人工智慧系統形式向大眾開放使用,但也連帶引發不少市場看法擔憂,畢竟Meta提供的Llama大型自然語言模型以開源形式提供使用,同時累積超過數億次的下載使用量,更被用於開發軍事用途人工智慧系統,因此可能引發更大風險。

此次公布「Frontier AI Framework」白皮書,顯然是為了回應市場對於Meta的人工智慧系統發展策略,並且強調在人工智慧加上安全防護設計的重要性。