99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

Carol Li ? 來源:電子發(fā)燒友 ? 作者:李彎彎 ? 2024-05-15 00:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/李彎彎)當(dāng)?shù)貢r間5月13日,OpenAI舉行春季發(fā)布會,宣布將推出桌面版ChatGPT,并發(fā)布全新旗艦AI模型GPT-4o。

根據(jù)OpenAI官方網(wǎng)站介紹,GPT-4o中的“o”代表Omni,也就是“全能”的意思。GPT-4o文本、推理、編碼能力達到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4 Turbo的一半,視頻、音頻功能得到改善。

GPT-4o速度更快,且能感知用戶情緒

根據(jù)OpenAI介紹,GPT-4o與GPT-3.5、GPT-4的語音對談機制不同。GPT-3.5和GPT-4會先將音頻轉(zhuǎn)換為文本,再接收文本生成文本,最后將文本轉(zhuǎn)換為音頻,經(jīng)歷這三個過程,音頻中的情感表達等信息會被折損,而GPT-4o是跨文本、視覺和音頻的端到端模型,是OpenAI第一個綜合了這些維度的模型,可更好進行對談。

OpenAI技術(shù)負(fù)責(zé)人Mira Murati表示:“這是我們第一次在易用性方面真正邁出的一大步?!監(jiān)penAI研究員Mark Chen表示,新模型具有“感知情緒”的能力,能輸出笑聲、歌唱或表達情感,還可以處理用戶打斷它的情況。

GPT-4o極大地改進了OpenAI的AI聊天機器人ChatGPT的體驗。在發(fā)布會上,OpenAI研究主管Mark Chen和OpenAI的后訓(xùn)練團隊負(fù)責(zé)人Barret Zoph通過現(xiàn)場演示展示出了新模型GPT-4o的強大。

如在演示對話中,Mark Chen表現(xiàn)得有點緊張,然后開始急促地呼吸。當(dāng)GPT-4o聽到Chen過度呼氣時,它似乎從中察覺到了他的緊張,并說到:別緊張,你喘得像個吸塵器,深呼吸,再吐氣。接著GPT開始指導(dǎo)Chen怎么深吸慢呼平復(fù)心情。

在另一段對話演示中,Chen讓GPT給Zoph講個睡前故事哄他入睡,Chen反復(fù)打斷GPT的講述,問它能不能講得更刺激點,最后GPT用非常迪士尼的方式唱出了一個故事。

GPT-4o還可以通過視覺識別檢測人的情緒。在一個演示中,Zoph將手機舉到自己面前正對著臉,要求ChatGPT告訴他自己長什么樣子。GPT-4o注意到了Zoph臉上的微笑,對他說:“看起來你感覺非??鞓罚残︻侀_?!?br />
GPT-4o也能夠進行實時快速翻譯,OpenAI技術(shù)負(fù)責(zé)人Mira Murati在現(xiàn)場對ChatGPT說起了意大利語,GPT則將她的話翻譯成英語。

OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)表示,新的語音和視頻模式是他用過的最好的電腦界面,感覺就像電影里的AI。達到人類水平的反應(yīng)時間和表達能力是一個很大的變化。

Sam Altman談到:“對我來說,與電腦交談從來都不是一件很自然的事,現(xiàn)在它做到了。隨著我們增加(可選的)個性化、訪問你的信息、代表你采取行動的能力等等,我真的可以看到一個令人興奮的未來,我們能夠使用計算機做比以往任何時候都多的事情?!?br />
GPT-4o功能未來將會進一步發(fā)展

自發(fā)布之日,GPT-4o可在ChatGPT的免費版本中使用,并提供給OpenAI的高級ChatGPT Plus和Team計劃訂戶,具有“5倍更高”的消息限制。OpenAI指出,當(dāng)用戶達到速率限制時,ChatGPT將自動切換到GPT-3.5。

OpenAI稱,基于GPT-4o的ChatGPT文本和圖像輸入功能將于本周一上線,語音和視頻選項將在未來幾周內(nèi)推出。另外,OpenAI將在未來1個月左右向Plus用戶推出基于GPT-4o改進的語音體驗,目前GPT-4o的API并不包含語音功能。

OpenAI指出,在API使用方面,相比去年11月發(fā)布的GPT-4-turbo,GPT-4o價格降低一半。成本下降對于大模型的調(diào)用至關(guān)重要。OpenAI開始致力于將大模型推向市場。

另外據(jù)Murati介紹,GPT-4o的功能在未來將會進一步發(fā)展。比如,盡管目前GPT-4o可以查看不同語言的菜單照片并進行翻譯,但未來,該模型可能使ChatGPT能夠觀看直播的體育比賽并向您解釋規(guī)則。

Murati表示:“我們知道這些模型變得越來越復(fù)雜,但我們希望交互體驗實際上變得更加自然、簡單,您不需要關(guān)注UI,而只需專注于與ChatGPT的合作?!?br />
對于大家一直關(guān)注的安全性問題,OpenAI也重點提及。據(jù)稱,通過過濾訓(xùn)練數(shù)據(jù)和訓(xùn)練后改進模型行為等技術(shù),GPT-4o在設(shè)計中內(nèi)置了跨模式的安全性,并創(chuàng)建了新的安全系統(tǒng),為語音輸出提供護欄。

GPT-4o還與來自社會心理學(xué)、偏見和公平、錯誤信息等領(lǐng)域的70多名外部專家開展廣泛的外部合作,以識別新增加的模式引入或放大的風(fēng)險,提高與GPT-4o互動的安全性。

OpenAI表示,將繼續(xù)減少新發(fā)現(xiàn)的風(fēng)險。由于認(rèn)識到GPT-4o的音頻模式存在各種新的風(fēng)險,目前公開的是文本和圖像輸入以及文本輸出,在接下來的幾周和幾個月里將圍繞技術(shù)基礎(chǔ)設(shè)施、訓(xùn)練后的可用性、發(fā)布其他模式所需的安全性開展工作,例如音頻輸出將僅限于選定的預(yù)設(shè)聲音,并將遵守現(xiàn)有安全政策。

寫在最后

可以看到,大模型技術(shù)正在快速發(fā)展,而OpenAI新模型GPT-4o無疑又將大模型技術(shù)和應(yīng)用推向了一個新高度。目前全球科技廠商都在積極角逐,微軟、谷歌等頭部企業(yè)都紛紛召開發(fā)布會,密集推出大模型產(chǎn)品,蘋果傳言也已與OpenAI達成協(xié)議,在 iPhone使用其技術(shù)。不難看到,接下來大模型無論是在技術(shù)升級還是應(yīng)用落地上都將會呈現(xiàn)一番新景象。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16069
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1206

    瀏覽量

    8871
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9055
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    373

    瀏覽量

    592
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI發(fā)布o1大模型,數(shù)理化水平比肩人類博士,國產(chǎn)云端推理芯片的新藍海?

    時間思考后再做出回答,而傳統(tǒng)大模型是直接給出回答,但往往這個回答并不準(zhǔn)確。 ? OpenAI介紹稱,OpenAI o1模型解決了很多傳統(tǒng)模型,包括目前最強大模型OpenAI
    發(fā)表于 09-14 00:04 ?1816次閱讀
    <b class='flag-5'>OpenAI</b>發(fā)布<b class='flag-5'>o</b>1大模型,數(shù)理化水平比肩<b class='flag-5'>人類</b>博士,國產(chǎn)云端推理芯片的新藍海?

    從性能到商業(yè),Grok3、GPT-4o、DeepSeek如何重塑AI版圖?

    2025年2月,AI領(lǐng)域仿佛上演了一激烈的“諸神之戰(zhàn)”,馬斯克旗下xAI發(fā)布的Grok3、OpenAI推出的GPT-4o以及持續(xù)憑借R1模型大放異彩的DeepSeek,三大巨頭強勢登場,讓AI
    的頭像 發(fā)表于 02-19 18:14 ?1055次閱讀
    從性能到商業(yè),Grok3、<b class='flag-5'>GPT-4o</b>、DeepSeek如何重塑AI版圖?

    OpenAI宣布GPT 4o升智計劃

    近日,全球領(lǐng)先的人工智能公司OpenAI迎來了一項重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計劃,這一消息立即引起了業(yè)界的廣泛關(guān)注。 據(jù)Sam
    的頭像 發(fā)表于 02-17 14:24 ?586次閱讀

    OpenAI報告GPT-4o4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機構(gòu)OpenAI發(fā)布了一份事故報告,引起了業(yè)界的廣泛關(guān)注。報告中指出,OpenAI目前正面臨GPT-4o4o-mini這兩款重要模型性能下降的問題。 據(jù)
    的頭像 發(fā)表于 01-23 10:22 ?834次閱讀

    OpenAIGPT-4o4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報告,指出其GPT-4o4o-mini模型遭遇了性能下降的問題。這一消息引起了業(yè)界的廣泛關(guān)注和討論。 據(jù)OpenAI官方透露,他們目前正在積極調(diào)查這一
    的頭像 發(fā)表于 01-21 10:34 ?636次閱讀

    OpenAI發(fā)布o1模型API,成本大幅下降60%

    下降。 據(jù)OpenAI介紹,o1模型API的思考成本相較于預(yù)覽版本降低了60%,同時附帶了高級視覺功能,為用戶提供了更加豐富和多樣化的使用體驗。此外,GPT-4o的音頻
    的頭像 發(fā)表于 12-19 10:31 ?686次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應(yīng)速度、優(yōu)先使用新功能及最新模型,包括強大的 GPT-4o。本文將分享 2024 年 ChatGPT
    的頭像 發(fā)表于 10-29 18:17 ?2451次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1058次閱讀

    OpenAI解鎖GPT-4o定制功能,助力企業(yè)精準(zhǔn)優(yōu)化AI應(yīng)用

    在8月21日的最新動態(tài)中,OpenAI 宣布了一項革命性的新功能,正式向企業(yè)用戶開放其頂尖AI模型GPT-4o的定制能力。這一舉措標(biāo)志著OpenAI在激烈的企業(yè)級AI應(yīng)用市場中邁出了重
    的頭像 發(fā)表于 08-21 16:06 ?749次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們將詳細(xì)介紹如何申請OpenAIGPT-4.0 API Key。通過這個教程,你將能夠輕松獲取OpenAI API KEY并使用GPT-4.0的強大功能。 目錄
    的頭像 發(fā)表于 08-06 15:16 ?4521次閱讀
    <b class='flag-5'>OpenAI</b> api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT-4o</b>、<b class='flag-5'>GPT-4</b>omini

    OpenAI提前解鎖GPT-4o語音模式,引領(lǐng)對話新紀(jì)元

    OpenAI近日宣布了一項令人振奮的消息:即日起,部分ChatGPT Plus用戶將率先體驗到GPT-4o的語音模式,這一創(chuàng)新功能標(biāo)志著自然語言處理與人工智能交互技術(shù)邁出了重要一步。GPT-4o的高級語音模式以其卓越的實時對話
    的頭像 發(fā)表于 08-01 18:24 ?1493次閱讀

    OpenAI向部分用戶推出GPT-4o語音模式產(chǎn)品

    近日,美國著名人工智能研發(fā)機構(gòu)OpenAI正式宣布,自本周二(2022年7月30日)起,面向部分ChatGPT Plus用戶推出嶄新的GPT-4o語音模式產(chǎn)品。   據(jù)OpenAI詳細(xì)闡述
    的頭像 發(fā)表于 07-31 14:53 ?913次閱讀

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表
    的頭像 發(fā)表于 07-21 10:20 ?1665次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT-4o</b> mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> <b class='flag-5'>4</b> 而且更快 API KEY更便宜

    OpenAI發(fā)布高性價比小型AI模型GPT-4o mini

    在人工智能領(lǐng)域持續(xù)創(chuàng)新的OpenAI,近日推出了其最新力作——“GPT-4o mini”,一款旨在以親民價格提供強大功能的小型聊天機器人。這款產(chǎn)品的問世,標(biāo)志著OpenAI在推動人工智能普及與多模態(tài)融合方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:27 ?974次閱讀

    OpenAI發(fā)布最新人工智能模型——GPT-4o mini

    據(jù)國際媒體報道,OpenAI 在周四震撼發(fā)布了其最新的人工智能模型——GPT-4o mini,此舉標(biāo)志著這家領(lǐng)先的AI初創(chuàng)公司在拓寬其廣受歡迎的聊天機器人應(yīng)用領(lǐng)域方面邁出了重要一步。
    的頭像 發(fā)表于 07-19 15:24 ?1538次閱讀