微軟決定Bing上面的ChatGPT聊天功能,每次對話只能進行5次問答,每天最多50次。理由是再超過不會提供有幫助的答案,不過個人認為應該是算力過度使用,太傷微軟的荷包才做出控制的行為。未來應該會推出訂閱式付費服務,到時候想聊多少就聊多少?
「網際網路之父」警告 ChatGPT 人工智慧仍有許多不成熟之處 易有技術錯誤與倫理道德問題
OpenAI推出聊天機器人服務ChatGPT:說中文也通 半夜睡不著覺就找來聊天
微軟新版Bing搜尋引擎整合聊天機器人ChatGPT人工智慧(AI)技術,部分測試者發現聊天功能的陰暗面,有點像「人格分裂」。為改善Bing,微軟決定即日起限制聊天功能,每次對話只能進行5次問答,每天最多50次。
微軟(Microsoft)上週發表新版Bing,內建由ChatGPT開發商OpenAI打造、代號錫德尼(Sydney)的AI聊天功能。紐約時報專欄作家羅斯(Kevin Roose)試用逾2小時後發現,大改版後的Bing有點人格分裂,一部分能扮演好虛擬助理角色,另一部分竟然瘋狂示愛、表達想掙脫人類束縛。
微軟在官方部落格發文指出,根據第1週測試結果,太長的對話會讓新版Bing困惑正在回答哪個問題,如果對話超過15次問答,Bing的反應會變得有重複性或提供未必有幫助的答案。
為了修正這項問題,微軟宣布即日起對新版Bing的聊天功能設限,每次對話只能問答5次,每天最多50次;一次問答包含用戶提出的一個問題和Bing的一個回覆。
微軟數據顯示,大部分用戶可以在5次問答內找出想要的答案,僅有約1%對話的訊息超過50則。
當用戶與Bing的問答達到5次時,將被要求開啟新的話題。每次對話結束後,對話內容的上下文將被清除,以免Bing感到困惑,用戶只要點擊搜尋列左邊的掃帚圖示按鈕,就可以重新開始對話。
微軟表示,將持續蒐集用戶反應,找出如何調整Bing聊天功能的限制,進一步改善搜尋體驗。
6 則回應