在科技界的聚光燈下,OpenAI 再次展現(xiàn)了其創(chuàng)新的無限動力。繼3月底GPT-4o憑借原生圖像生成功能驚艷全球后,僅僅相隔兩周,北京時間4月15日凌晨,OpenAI宣布推出GPT-4.1系列模型,這一新系列迅速接替了原先的GPT-4模型,成為市場的新寵。
而故事的精彩遠(yuǎn)未止步,4月17日凌晨,OpenAI如約而至,帶來了兩款全新的o系列推理模型——o3與o4-mini,這兩款模型接替了之前的o1和o3-mini。o3與o4-mini不僅推理能力顯著增強,更是首次實現(xiàn)了將圖像直接融入“思考流程”的突破。尤為重要的是,它們能夠獨立使用ChatGPT的所有工具,這一特性讓OpenAI官方自豪地宣稱,這兩款模型是“迄今為止最智能的模型,標(biāo)志著ChatGPT能力的一次重大飛躍”。
然而,在贊揚聲此起彼伏的同時,也有一絲疑惑縈繞心頭。早在今年2月,OpenAI的CEO山姆·奧爾特曼(Sam Altman)就在X平臺上公開分享了內(nèi)部的模型發(fā)展藍(lán)圖,透露GPT-4.5(Orion)將是OpenAI的最后一個非推理(思維鏈)模型,并預(yù)告GPT-5將融合GPT系列與o系列的優(yōu)勢,同時明確表示“不再將o3作為獨立模型推出”。
但現(xiàn)實似乎與奧爾特曼的承諾有所出入。OpenAI不僅發(fā)布了新的GPT-4.1系列非推理模型,還獨立推出了o3推理模型。這不禁讓人好奇,傳說中的GPT-5,是否真能在今年夏天如期面世?
面對OpenAI這波模型發(fā)布潮,尤其是o3的登場,外界的反應(yīng)褒貶不一。許多用戶和開發(fā)者認(rèn)為,OpenAI的模型陣容愈發(fā)龐大,讓人在選擇時感到困惑。不過,OpenAI也采取了一定的措施來緩解這一狀況,隨著GPT-4.1系列的推出,公司預(yù)告將在4月30日全面下線ChatGPT中的GPT-4模型,并在API中棄用GPT-4.5預(yù)覽版。
作為通用基座模型,GPT-4.1系列分為旗艦版、mini版和nano版,支持高達百萬級的tokens上下文,在性能、成本和速度上全面超越了當(dāng)前的GPT-4o系列模型。盡管目前僅面向開發(fā)者開放API,但GPT-4.1系列無疑代表了OpenAI的當(dāng)前實力。
相比之下,o3和o4-mini則可能預(yù)示著OpenAI的未來。作為OpenAI在推理模型技術(shù)領(lǐng)域的最新探索,o3和o4-mini首次在推理鏈中融入了圖像理解能力。這意味著,它們不僅能識別信息,還能將視覺輸入納入思維過程,形成完整的邏輯鏈條。與GPT-4o這類多模態(tài)模型不同,o3和o4-mini的圖像處理能力旨在解決問題,是推理過程的關(guān)鍵一環(huán)。
在實際測試中,o3的表現(xiàn)令人印象深刻。它不僅在推理過程中展現(xiàn)出嚴(yán)謹(jǐn)和流暢的思考,還能在倫理推理題中準(zhǔn)確抓住關(guān)鍵信息,推導(dǎo)出合理的解釋。o3還能將視覺能力納入思維鏈中,通過分析圖像來規(guī)劃空間動線或診斷問題。這種“圖像作為推理變量”的設(shè)計,是過去o系列推理模型所不具備的。
在另一項測試中,o3被要求分析一段關(guān)于短視頻優(yōu)化的后臺數(shù)據(jù),并結(jié)合視頻分鏡提出優(yōu)化策略。它不僅覆蓋了核心策略,還匹配了具體的視覺節(jié)奏建議,展現(xiàn)出了類似“專業(yè)創(chuàng)作者助手”的能力。
通過這些測試,o3證明了其強大的推理能力、視覺理解能力以及工具調(diào)用能力。它不僅能夠理解任務(wù),還能在執(zhí)行過程中主動思考、搜索、調(diào)用工具和總結(jié)。這種“主動思維+執(zhí)行鏈條”的模式,正是當(dāng)前大模型演進的重要方向。
本文鏈接:http://www.tebozhan.com/showinfo-45-12363-0.htmlOpenAI新推o3模型,能否成為GPT-5前的最強“開胃菜”?
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com