GPT-4o
GPT-4o (Generative Pre-trained Transformer 4 Omni, GPT-4 Omni)是由OpenAI訓練的多語言、多模態(多種類型資料,例如文本、圖像、音訊等)GPT大型語言模型。GPT-4o於2024年5月13日發布。 [1] 該模型比其前身GPT-4快兩倍,而價格僅為其50%。該模型由米拉·穆拉蒂在OpenAI直播演示中宣布。 [1] OpenAI聲稱該模型將對所有用戶免費, 並為付費ChatGPT Plus用戶提供高達5倍的使用限制。[2]
背景
GPT-4o最初在LMSYS上以3個不同模型的形式暗中發布。這3個模型分別稱為gpt2-chatbot、im-a-good-gpt2-chatbot和im-also-a-good-gpt2-chatbot。2024年5月7日,山姆·阿特曼透露OpenAI發布了這些神秘的新模型。[3]
功能
GPT-4o在語音、多語言和視覺基準測試中取得了最先進的成績,在語音辨識和翻譯領域創下了新紀錄。[4] GPT-4o 在 MMLU 基準測試中的得分為 88.7,而GPT-4 的得分為86.5。[4] [5]
根據該公司的演示,GPT-4o將有效地將ChatGPT轉變為可以進行即時語音對話的個人數位助理。 它還能夠使用文本和「視覺」進行交互,這意味著它可以查看用戶上傳的螢幕擷圖、照片、文檔或圖表,並就它們進行對話。OpenAI演示了與ChatGPT的語音對話,以獲得解決數學問題的即時說明、講述睡前故事並獲得程式撰寫建議。[6] 免費ChatGPT用戶將可以與新的GPT-4o模型進行有限次數的交互,然後該工具會自動恢復舊的GPT-3.5模型;付費用戶將可以使用最新GPT-4o訪問更多數量的消息。[6]
該模型支援超過50種語言,覆蓋超過97%的口語語言。它目前是LMSYS Elo Arena基準測試中的領先模型。[7]
大語言模型GPT-4o是一個針對GPT-4的升級版,該模型更加擅長處理文字和音訊,而且在速度、成本效益及多模態交互等方面都有了極大的提升。此外,該模型面向所有用戶,而不是局限於付費群體。[8]
參見
參考資料
- ^ 1.0 1.1 Wiggers, Kyle. OpenAI debuts GPT-4o 'omni' model now powering ChatGPT. TechCrunch. 2024-05-13 [2024-05-13] (美國英語).
- ^ Mauran, Cecily. OpenAI announces GPT-4o, a multimodal voice assistant that's free for all ChatGPT users. Mashable. 2024-05-13 [2024-05-13] (英語).
- ^ Sam Altman "https://twitter.com/sama/status/1787222050589028528" Twitter, X. Retrieved 14 May 2024.
- ^ 4.0 4.1 Hello GPT-4o. OpenAI.
- ^ OpenAI教谷歌做语音助手!新模型GPT-4o科幻级语音交互,零延迟满情绪,AI进入HER时代, 郭晓静、郝博阳 腾讯科技 2024-05-13 18:15.
- ^ 6.0 6.1 OpenAI unveils newest AI model, GPT-4o. 2024-05-13 [2024-05-13] (英語).
- ^ Fedus, William. GPT-4o is our new state-of-the-art frontier model..
- ^ OpenAI震撼發佈超強AI模式GPT-4o!Worldcoin瞬間暴漲超8%!.
外部連結