癮觀點:自動搜尋、辨識、攻擊的殺手機器人正在研發中 Elon Musk、DeepMind多位創辦人呼籲停止研發

2018.07.23 06:22PM
Terminator, Skynet, Robot, The Terminator, Actor, Film, Robotics, Lethal autonomous weapon, The Terminator, Terminator Genisys, robots terminator, robot, vehicle, technology, machine, car, personal protective equipment

不需要軍事人員操控的自主武器,可以自動搜尋、辨識、攻擊或拯救,宛如科幻電影般的劇情將有可能在現實生活中上演。生命未來研究所Future of life institute簡稱FLI發起連署希望不要參加也不要支持自主武器的開發、貿易以及使用。目前已有160家AI相關機構以及2400位AI領域專家簽署,括特斯拉創辦人馬斯克Elon Musk、DeepMind的3位創辦人都加入聲援。

殺手機器人至今仍獲得龐大的研發資金

致命性自主武器又稱為殺手機器人,自主武器與認知的自動武器有相當大的差異性,自主武器簡單來說就是可以在戰場上完全替代人類執行戰爭任務,可以在沒有軍事人員操控下可自行進行搜尋、辨識、攻擊等,這裡提到的攻擊同時也包括人類。而參與這項研發除了美國以外包含中國、德國、以色列、南韓、俄羅斯、英國,歐盟也在今年同意投入4.4億英鎊研發機器人殺手。

2013年俄羅斯就曾經透露正在研究殺手機器人,不需要靠軍事人員操控就能鎖定目標攻擊,也能協助疏散或撤離傷兵、平民。這項研究執行進度一直無法得知,但有專家預估自主武器將有可能在30年內被研製成功。

霍金、馬斯克等人呼籲禁止自主武器

這項研究在軍事角度上來看替代人類有情緒、疼痛、疲累等問題。不過也因為這種未知的極端做法讓許多AI相關領域專家相當反對自主武器產生。由波士頓的非營利組織生命未來研究所發起聯署希望AI領域的專家或相關單位可以承諾不參加也不支持開發、貿易或使用致命的自主武器。累計到目前為止已經有160家與AI人工智慧相關的公司與組織簽署,另外有2400位AI領域專家包括特斯拉創辦人馬斯克、DeepMind的3位創辦人等。

Stephen Hawking, Max Tegmark, Elon Musk, Future of Life Institute, Research, Artificial intelligence, Organization, Science, Scientist, Professor, future of life institute, facial expression, human behavior, presentation, communication, conversation, collaboration, media, management, business
▲馬斯克、霍金同為生命未來研究所科學顧問。

英國物理學家霍金也曾經表示擔心AI會完全取代人類,如果創造出能自我升級或自我複製的AI,那就是超越人類的新形態生命,全面發展AI的話,人類恐自取滅亡。馬斯克不僅承諾不會參與這項技術研發,甚至呼籲禁止使用自主武器,且表示目前已經沒有多少時間可以行動,一旦潘朵拉的盒子打開,就很難關閉。

核武所後續對人類所造成的災害到現在還在蔓延,而自主武器不無可能引發第三次世界大戰,這樣說來也許有點驚悚也相當科幻,宛如上演著科幻電影,AI取代人類的情感、思緒甚至可以決定人類的生命,一旦出現人類無法控制的局面,更不會像核武只是小區塊的敗壞,而是更可怕的人與機器人戰爭。

*首圖截自電影電影魔鬼終結者劇照。

16 則回應

  • 甚麼時候人類才能知道,很多事情該自己做就應該自己做,而不是丟給機器去做? 如果這問題不懂,那就表示這人不懂得負責兩字的意義。
    2018-07-26
  • 你不研發,別人也會研發,
    2018-07-25
  • 人類是這星球上破壞性最大的物種不是嗎?
    所以自取滅亡、加速滅絕很好啊!
    2018-07-24
  • 我覺得不用擔心AI 人類會先滅亡於汙染+氣候異常
    2018-07-24
  • 美國都在開發軍用機械蚊子了,還有人可以阻止美國嗎?沒有
    2018-07-24
  • 阻止不了的
    軍火買賣是一門大生意
    2018-07-24
  • 除非 全世界人都沒有戰爭否則 該來的戰爭科技總會來, 假如兩國敵對 一個呼籲大家都不要發展ai自主武器 另一個國家瘋狂發展擺明界是要開發出來幹掉對方, 我想本來不發展的國家最後迫於壓力也會開始發展, 看看當時核彈 當時全世界都知道他是毀滅性武器 但全世界一樣瘋狂研究, 現在台灣還一堆人希望台灣也要向北韓一樣生產核彈 人性啊.
    2018-07-24
  • 所以我們可以開始期待什麼時候會發生毀滅地球人類?
    2018-07-24
  • 每個國家都抱持「今天不研發,對手也會研發」「第一個成功的國家,制定市場規則」
    2018-07-24
  • 有钱可以使鬼推磨,这种形成趋势是快慢而已。

    就连当前的枪械在美国也管制不了了。
    2018-07-24
  • 應該請阿諾出來呼籲比較有看頭
    2018-07-24
  • 因为无论怎样,AI为了地球好...
    到最后还是会把人类清光,
    人类就是第一大问题。
    2018-07-24
  • 上次open.ai研發出可以多方合作的AI在Dota中擊敗人類玩家....
    啊open.ai就是Elon Musk投資的啊,這到底是.....
    2018-07-24
    • 模擬遊戲中AI取得勝利表示已經取得學習資訊...尤其玩家都很精明..當戰贏玩家後在現實調用此AI會有更實際的作為
      2018-07-24
    • 看怎麼定義囉....
      2018-07-24
    • 這跟殺人武器沒關係吧???
      2018-07-24