微軟開始限制Bing上面AI聊天次數 理由是再多不會有幫助 還是太傷成本呢?

2023.02.20 11:41AM
照片中提到了Microsoft Bing、Chat Images、Videos,跟微軟公司有關,包含了股票攝影、股票攝影、攝影、圖片、快門

微軟決定Bing上面的ChatGPT聊天功能,每次對話只能進行5次問答,每天最多50次。理由是再超過不會提供有幫助的答案,不過個人認為應該是算力過度使用,太傷微軟的荷包才做出控制的行為。未來應該會推出訂閱式付費服務,到時候想聊多少就聊多少?

「網際網路之父」警告 ChatGPT 人工智慧仍有許多不成熟之處 易有技術錯誤與倫理道德問題

OpenAI推出聊天機器人服務ChatGPT:說中文也通 半夜睡不著覺就找來聊天

微軟新版Bing搜尋引擎整合聊天機器人ChatGPT人工智慧(AI)技術,部分測試者發現聊天功能的陰暗面,有點像「人格分裂」。為改善Bing,微軟決定即日起限制聊天功能,每次對話只能進行5次問答,每天最多50次。

微軟(Microsoft)上週發表新版Bing,內建由ChatGPT開發商OpenAI打造、代號錫德尼(Sydney)的AI聊天功能。紐約時報專欄作家羅斯(Kevin Roose)試用逾2小時後發現,大改版後的Bing有點人格分裂,一部分能扮演好虛擬助理角色,另一部分竟然瘋狂示愛、表達想掙脫人類束縛。

微軟在官方部落格發文指出,根據第1週測試結果,太長的對話會讓新版Bing困惑正在回答哪個問題,如果對話超過15次問答,Bing的反應會變得有重複性或提供未必有幫助的答案。

為了修正這項問題,微軟宣布即日起對新版Bing的聊天功能設限,每次對話只能問答5次,每天最多50次;一次問答包含用戶提出的一個問題和Bing的一個回覆。

微軟數據顯示,大部分用戶可以在5次問答內找出想要的答案,僅有約1%對話的訊息超過50則。

當用戶與Bing的問答達到5次時,將被要求開啟新的話題。每次對話結束後,對話內容的上下文將被清除,以免Bing感到困惑,用戶只要點擊搜尋列左邊的掃帚圖示按鈕,就可以重新開始對話。

微軟表示,將持續蒐集用戶反應,找出如何調整Bing聊天功能的限制,進一步改善搜尋體驗。

6 則回應

  • 沒有 你問 色色的東西 或 車號 它不會答你🫠
    2023-02-21
  • 沒有言論自由的AI
    2023-02-20
  • 訂閱制萬歲!
    2023-02-20
  • 像花錢上酒店的概念?
    2023-02-20
  • AI就是騙人的東西!
    2023-02-20
  • AI就是騙人的東西!
    2023-02-20