科技應用 OpenAI ChatGPT GPT-4 Turbo GPT-4o OpenAI 發表 GPT-4o ChatGPT支援語、影像互動 OpenAI 新推 GPT-4o,融合多模式互動,提升語音圖片處理能力,並強化安全性,即將對外開放。 在先前預告後,OpenAI正式揭曉其全新GPT-4o人工智慧模型,並且推出桌機版App及新版操作介面,另外也讓使用者能透過「Hey,ChatGPT」進行語音、影像識別等互動。 OpenAI說明,GPT-4o中的「o」源自「Omnimodel」 (全能模型)的首個字母,意味將能對應各類應用互動,同時學習資料源自先前超過1億人透過ChatGPT學習、創作或協作互動經驗,一樣支援影像識別,甚至也能透過記憶方式學習使用者曾經提過事項,藉此用於未來互動,此外也加入聲音辨識,以及圖表內容分析、製作能力,目 Mash Yang 11 個月前
科技應用 OpenAI GPT-4 Turbo OpenAI 在東京設立亞洲首據點 推出在地化 GPT-4 大語言模型 OpenAI 推出日本在地化 GPT-4 大型自然語言模型,處理日語內容速度較 GPT-4 Turbo 提升 3 倍。 OpenAI今日 (4/15)宣布於日本東京設立亞洲第一個辦公據點,並且針對日本市場使用需求推出在地化GPT-4大型自然語言模型,標榜運算處理能力為GPT-4 Turbo的4倍,處理日語內容速度更是GPT-4 Turbo的3倍。 設置於日本東京的辦公據點,將由原本AWS日本總裁長崎忠雄擔任負責人,將建立對外關係溝通、產品及服務規劃,以及相關營運團隊。 OpenAI預計在今年底於日本辦公室招募十幾名員工,同時也計畫向在地企業推廣ChatGPT Enterprise服務,讓更多日 Mash Yang 1 年前
科技應用 api OpenAI Turbo GPT-4 Turbo OpenAI 推出新版嵌入模型、GPT-4 Turbo 預覽模型、新版 API 資源 新版GPT-4 Turbo預覽版本,進一步強化程式編碼生成,並且修正非英語UFT-8編碼內容生成錯誤情形。 OpenAI稍早宣布推出新版嵌入模型,新版GPT-4 Turbo預覽模型,以及新版API資源,並且調降GPT-3.5 Turbo模型使用費用。 新推出的嵌入模型分別為text-embedding-3-small與text-embedding-3-large,主要讓機器學習模型與演演算法能理解內容之間關係,並且執行聚類或檢索等工作,分別可對應ChatGPT、Assistants API內容,可對應多任務檢索自動生成需求。 而OpenAI強調GPT-4 Turbo推出之後,目前已經有超過70 Mash Yang 1 年前
科技應用 Copilot GPT-4 Turbo DALL-E 3 圖像生成工具 微軟 Copilot 將整合 GPT-4 Turbo 與 DALL-E 3 微軟宣布其AI服務Copilot將整合OpenAI的GPT-4 Turbo和DALL-E 3,以增強搜尋和輔助功能。 微軟宣布使其人工智慧服務Copilot升級,將整合OpenAI新版GPT-4 Turbo大型自然語言模型,以及圖像生成工具DALL-E 3,藉此提升其服務功能與效率。 而藉由升級新版大型自然語言模型,將使Copilot能處理更複雜任務,相比先前僅能輸入50頁文字資料,升級後版本將能支援300頁內容,藉此處理更多資訊內容。同時透過升級最新版圖像生成工具,更讓Copilot可以依照指令需求產生更符合描述與準確性的圖像內容。 另外,新功能還包含可讓Copilot協助重新撰寫圈選範圍內 Mash Yang 1 年前
科技應用 OpenAI GPT-4 Turbo OpenAI 推出 GPT-4 Turbo 大幅提升解析能力、降低使用成本 OpenAI推出GPT-4 Turbo,在解析能力與使用成本方面都做出了大幅提升,將能更廣泛應用於各個領域,並且吸引更多開發人員使用。 OpenAI在今3月中旬推出可混合輸入、增加圖像識別能力的全新GPT-4大型語言模型之後,稍早於其第一屆開發者大會上公布名為GPT-4 Turbo的升級版大型語言模型。 相比先前在GPT-4可解析文本內容上限為50頁,GPT-4 Turbo則是可對應多達300頁內容,意味將能對應更長、更複雜的文字內容解析。此外,GPT-4 Turbo所對應訓練資料也對應至今年4月為止的內容,而先前推出的GPT-4訓練資料則是對應至2021年9月為止,但本身依然具備透過網路瀏覽 Mash Yang 1 年前