GPT-4o
GPT-4o (Generative Pre-trained Transformer 4 Omni, GPT-4 Omni)是由OpenAI训练的多语言、多模态(多种类型数据,例如文本、图像、音频等)GPT大型语言模型。GPT-4o于2024年5月13日发布。 [1] 该模型比其前身GPT-4快两倍,而价格仅为其50%。该模型由米拉·穆拉蒂在OpenAI直播演示中宣布。 [1] OpenAI声称该模型将对所有用户免费, 并为付费ChatGPT Plus用户提供高达5倍的使用限制。[2]
背景
GPT-4o最初在LMSYS上以3个不同模型的形式暗中发布。这3个模型分别称为gpt2-chatbot、im-a-good-gpt2-chatbot和im-also-a-good-gpt2-chatbot。2024年5月7日,萨姆·奥尔特曼透露OpenAI发布了这些神秘的新模型。[3]
功能
GPT-4o在语音、多语言和视觉基准测试中取得了最先进的成績,在音频语音识别和翻译领域创下了新纪录。[4] GPT-4o 在 MMLU 基准测试中的得分为 88.7,而GPT-4 的得分为86.5。[4] [5]
根据该公司的演示,GPT-4o将有效地将ChatGPT转变为可以进行实时语音对话的数字个人助理。 它还能够使用文本和“视觉”进行交互,这意味着它可以查看用户上传的屏幕截图、照片、文档或图表,并就它们进行对话。OpenAI演示了与ChatGPT的语音对话,以获得解决数学问题的实时说明、讲述睡前故事并获得程式撰寫建议。[6] 免费ChatGPT用户将可以与新的GPT-4o模型进行有限次数的交互,然后该工具会自动恢复旧的GPT-3.5模型;付费用户将可以使用最新GPT-4o访问更多数量的消息。[6]
该模型支持超过50种语言,覆盖超过97%的口语语言。它目前是LMSYS Elo Arena基准测试中的领先模型。[7]
大語言模型GPT-4o是一個針對GPT-4的升級版,該模型更加擅長處理文字和音频,而且在速度、成本效益及多模態交互等方面都有了極大的提升。此外,該模型面向所有用戶,而不是局限於付費群體。[8]
参见
参考资料
- ^ 1.0 1.1 Wiggers, Kyle. OpenAI debuts GPT-4o 'omni' model now powering ChatGPT. TechCrunch. 2024-05-13 [2024-05-13] (美国英语).
- ^ Mauran, Cecily. OpenAI announces GPT-4o, a multimodal voice assistant that's free for all ChatGPT users. Mashable. 2024-05-13 [2024-05-13] (英语).
- ^ Sam Altman "https://twitter.com/sama/status/1787222050589028528" Twitter, X. Retrieved 14 May 2024.
- ^ 4.0 4.1 Hello GPT-4o. OpenAI.
- ^ OpenAI教谷歌做语音助手!新模型GPT-4o科幻级语音交互,零延迟满情绪,AI进入HER时代, 郭晓静、郝博阳 腾讯科技 2024-05-13 18:15.
- ^ 6.0 6.1 OpenAI unveils newest AI model, GPT-4o. 2024-05-13 [2024-05-13] (英语).
- ^ Fedus, William. GPT-4o is our new state-of-the-art frontier model..
- ^ OpenAI震撼發佈超強AI模式GPT-4o!Worldcoin瞬間暴漲超8%!.
外部链接