差不多在 3 月的時候,微軟機器人 Tay 開放跟網友互動,結果才一天就因為學習了太多莫名其妙的字彙,變得會種族歧視又憤世忌俗(延伸閱讀),Google 團隊在研究自己研發的 Ai 時,則是把系統放進 3,000 本愛情小說的資料庫中,並且要求人工智能試寫出一段 13 個句子組能的對話,殊不知得出的結果實在是令人覺得毛骨悚然:
there is no one else in the world.(世上沒有其他的人)
there is no one else in sight. (眼中沒有其他的人)
they were the only ones who mattered. (他們曾經是唯一要緊的人)
they were the only ones left. (他們是曾經留下的人)
he had to be with me. (他要和我在一起)
she had to be with him. (她要和他在一起)
i had to do this. (我需要這樣做)
i wanted to kill him. (我想殺掉他)
i started to cry. (我開始哭)
i turned to him. (我轉身向着他)
其他的結果可以到引用的外媒網站 unwire.hk 去看看,只能說人工智能會因為讀太多愛情小說性格變扭曲,那對於有在看大量愛情小說的人來說,多多少少還是有些許心靈層面的影響吧...(就像我媽如果看太多宮廷爭鬥戲,就會變得很愛跟我爸吵架 XDDD)
--
一張圖就能看到今天最重要新聞,這麼好康,不按讚嗎?
請幫討喜小姐按讚:https://www.facebook.com/miluson.lu
--
看更多攪豬屎練肖話的 今日新聞淺談 傳送門
你或許會喜歡