【天極網(wǎng)企業(yè)頻道】先是GPT的持續(xù)迭代,后是文生視頻的Sora的一騎絕塵,一直被OpenAI牽著鼻子走的大模型在經(jīng)歷繁花似錦的一年之后,終于在行業(yè)化場景化嘗試落地,并于多模態(tài)能力尋求新的突破。?
GPT-4o橫空出世
而今天實(shí)現(xiàn)這一突破的還是OpenAI??梢哉f,在大模型混戰(zhàn)日益激烈的今天,OpenAI釋放了又一重磅炸彈——GPT-4o。
事情是這樣的。今天凌晨,OpenAI在其春季發(fā)布會(huì)上推出最新杰作GPT-4o,以其突破性的智能交互能力,徹底顛覆了我們對AI語音助手的認(rèn)知。
在一段簡短的視頻中,OpenAI揭曉了其新一代AI大模型GPT-4o,該模型能夠?qū)崟r(shí)進(jìn)行音頻、視覺和文本的推理。GPT-4o中的“o”源自O(shè)mni,即“全能”,體現(xiàn)了其全面而強(qiáng)大的能力。?
何為全能?在發(fā)布現(xiàn)場,OpenAI技術(shù)負(fù)責(zé)人穆拉迪(Mira?Murati)表示:“新型號GPT-4o‘速度快得多’,在文本、視頻和音頻方面都有改進(jìn),公司最終計(jì)劃讓用戶與ChatGPT進(jìn)行視頻聊天。這是我們第一次在易用性方面邁出巨大的一步?!?/p>
據(jù)透露,相較于先前的GPT-4?Turbo,GPT-4o在運(yùn)算速度和成本效益方面均實(shí)現(xiàn)了顯著的優(yōu)化。
更為出色的是,GPT-4o擁有對文本、圖像、音頻等多種信息模態(tài)的處理能力,從而為用戶提供了更為自然且流暢的交互體驗(yàn)。
更快更強(qiáng)還免費(fèi)
OpenAI不僅發(fā)布全新旗艦大模型GPT-4o,還更新界面以提高用戶使用體驗(yàn),并且宣布免費(fèi)開放使用,付費(fèi)用戶享有五倍的使用容量限制。
在免費(fèi)使用方面,官方給出的免費(fèi)限制在一定消息數(shù)量上,超過這個(gè)消息量之后,免費(fèi)的模型將被切回ChatGPT。這是GPT-4o的優(yōu)勢之一。
在API使用上,GPT-4o相較于去年11月發(fā)布的GPT-4-turbo,價(jià)格降低了50%,速度提升了200%,進(jìn)一步提升了性價(jià)比。
更令人期待的是,未來幾周內(nèi),GPT-4o的語音和視頻輸入功能也將陸續(xù)推出,為用戶帶來更多元的交互方式。?
與現(xiàn)有的大模型相比,GPT-4o在音頻與視覺方面表現(xiàn)得尤為出色。其中,在音頻方面,GPT-4o可以在短至232毫秒的時(shí)間內(nèi)響應(yīng)用戶的語音輸入,這也意味著320毫秒的用時(shí)已經(jīng)接近人類在日常對話中的反應(yīng)時(shí)間。
而在GPT-4o之前,用戶使用Voice?Mode(由三個(gè)獨(dú)立模型組成)與ChatGPT通話,但平均延遲為2.8秒(GPT-3.5)和5.4秒(GPT-4)。這也進(jìn)一步證明了GPT-4o的先進(jìn)之處。
同時(shí),GPT-4o能夠應(yīng)對文本、音頻和圖像任意組合的多元化輸入,并據(jù)此生成相應(yīng)類型的任意組合輸出。
此外,GPT-4o在英語文本和代碼處理方面的表現(xiàn)與GPT-4?Turbo旗鼓相當(dāng),而在非英語文本的處理能力上,GPT-4o更是展現(xiàn)出了顯著的性能提升。
據(jù)悉,GPT-4o在設(shè)計(jì)中內(nèi)置了跨模式的安全性,并創(chuàng)建了新的安全系統(tǒng),為語音輸出提供護(hù)欄。
此外,GPT-4o還與來自社會(huì)心理學(xué)、偏見和公平、錯(cuò)誤信息等領(lǐng)域的70多名外部專家開展廣泛的外部團(tuán)隊(duì)合作,以識別新增加的模式引入或放大的風(fēng)險(xiǎn),提高與GPT-4o互動(dòng)的安全性。
不停歇的OpenAI
從GPT到Sora再到GPT-4o,可以說,OpenAI在大模型創(chuàng)新的路上持續(xù)前行,并在大模型領(lǐng)域一騎絕塵。
早在上周便有消息傳出,OpenAI準(zhǔn)備推出一款A(yù)I搜索引擎,并將矛頭指向Google即將召開的I/O大會(huì)。然而,AI搜索引擎并未如期而至,到來的是GPT-4o。?
GPT-4o不僅能通過聲音和文字跟人交流,還能識別物體和圖像,并且邏輯推理能力也比現(xiàn)在市面上的產(chǎn)品要強(qiáng)。
可以說,GPT-4o將轉(zhuǎn)錄音頻和文本轉(zhuǎn)語音等功能合二為一,構(gòu)建一個(gè)更懂圖像和音頻的多模態(tài)模型,響應(yīng)速度也更快。
在筆者看來,無論是上個(gè)月推出的“語音引擎”(Voice?Engine),還是更早些時(shí)候發(fā)布的?TTS(文本轉(zhuǎn)語音)軟件,都有著不俗的表現(xiàn),有著更為廣泛的應(yīng)用場景,且實(shí)用性更強(qiáng)。
以微軟為例,微軟也在考慮用技術(shù)來提升語音助手,OpenAI表示,這次更新“是朝著實(shí)用性的方向發(fā)展?!?/p>
除了探索更為實(shí)用的場景外,OpenAI也將推出新的定價(jià)模式,調(diào)查數(shù)據(jù)顯示,一直“燒錢”的OpenAI今年預(yù)計(jì)將迎來數(shù)十億美元的收入。
據(jù)悉,假如客戶通過預(yù)付費(fèi)預(yù)定Tokens,便能享受高達(dá)50%。一些AI服務(wù)器經(jīng)銷商曾表示,在他們的軟件上運(yùn)行開源模型比使用OpenAI的模型便宜六倍。
毫無疑問,這種更靈活的定價(jià),將有助于OpenAI更好地與其他模型開發(fā)人員和AI服務(wù)器經(jīng)銷商競爭。
尋求場景化落地與商業(yè)化是OpenAI解決燒錢焦慮的重要方法,通過發(fā)布GPT-4o,我們看到OpenAI的決心與實(shí)力。
寫在最后
在競爭激烈的大模型市場,OpenAI接連發(fā)布重磅版本,一騎絕塵。
不管我們承認(rèn)與否,在GPT-4o的發(fā)布下,大模型的多模態(tài)交互的能力再次被拉高,OpenAI仍然站在多模態(tài)的最高峰。
接下來,讓我們期待大模型領(lǐng)域其他玩家的新發(fā)布。
- QQ:61149512