99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領先

智能計算芯世界 ? 來源:量子位、網(wǎng)絡整理 ? 2023-03-17 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3 月14日晚,OpenAI 宣布發(fā)布 GPT-4。

此次的 GPT4.0 產(chǎn)品具備多模態(tài), 相比于 GPT-3.5,GPT4.0 新增視頻功能,并且能夠適用于所有語言。GPT-4.0 有 望加速 AIGC 的應用普及,并且在視頻內(nèi)容生成方面大放異彩,AIGC 有望步入快 速發(fā)展階段,背后大幅增長的訓練參數(shù)量有望加速 AI 算力的建設以及高速光通信 的需求。OpenAI 發(fā)布了一項新服務,允許開發(fā)人員直接使用 ChatGPT,并且將使 用價格削減了 90%,此次大規(guī)模降價意味著底層技術平臺的優(yōu)化,這也將進一步 加速此項技術的大規(guī)模商業(yè)化進程。

而且 GPT-4 是多模態(tài)的,同時支持文本和圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進行了訓練,并且在模型文件中有更多的權重,這也使得它的運行成本更高。

ceb6641e-c430-11ed-bfe3-dac502259ad0.png

GPT-4 在一系列基準測試中的表現(xiàn)優(yōu)于 GPT-3.5

OpenAI 稱它使用了微軟 Azure 來訓練模型,但沒有公布有關具體模型大小或用于訓練它的硬件的詳細信息。

據(jù)悉,GPT-4 參加了多種基準考試測試,包括美國律師資格考試 Uniform Bar Exam、法學院入學考試 LSAT、“美國高考”SAT 數(shù)學部分和證據(jù)性閱讀與寫作部分的考試,在這些測試中,它的得分高于 88% 的應試者。

OpenAI 表示,已經(jīng)與多家公司合作,要將 GPT-4 結(jié)合到他們的產(chǎn)品中,包括 Duolingo、Stripe 和 Khan Academy。GPT-4 模型也將以 API 的形式,提供給付費版 ChatGPT Plus 的訂閱用戶,允許開發(fā)者付費將 AI 集成到他們的應用程序中。微軟表示,新款的必應(Bing)搜索引擎將運行于 GPT-4 系統(tǒng)之上。

一覺醒來,萬眾期待的GPT-4,它來了!

OpenAI老板Sam Altman直接開門見山地介紹說:

這是我們迄今為止功能最強大的模型!

cece9bb0-c430-11ed-bfe3-dac502259ad0.png

有多強?

根據(jù)OpenAI官方的介紹,GPT-4是一個超大的多模態(tài)模型,也就是說,它的輸入可以是文字(上限2.5萬字),還可以是圖像。

(看圖)手套掉下去會怎樣? 它會掉到木板上,并且球會被彈飛。

cedfd0ec-c430-11ed-bfe3-dac502259ad0.gif

甚至只需要簡單在紙上畫一個網(wǎng)站的草稿圖:

cfd57dee-c430-11ed-bfe3-dac502259ad0.gif

拍一張照片上傳給GPT-4,它就可以立馬生成網(wǎng)站的HTML代碼!

d6415298-c430-11ed-bfe3-dac502259ad0.gif

在性能表現(xiàn)上,OpenAI直接甩出一句話:

在各種專業(yè)和學術基準上和人類相當!

而且不只是發(fā)布GPT-4這么簡單,OpenAI這次“啪的一下”把相關“大動作”一步到位了:

ChatGPT Plus:集成GPT-4的ChatGPT升級版

發(fā)布GPT-4的API

公布技術論文 * 公開System Card

不僅如此,傳聞的“必應早就用上了GPT-4”在今天也得到了微軟方面的證實:

沒錯,確實是這樣的!

d6bd6fd6-c430-11ed-bfe3-dac502259ad0.png

不得不說,自打ChatGPT問世以來,微軟和谷歌之間打響的數(shù)輪科技戰(zhàn)役,微軟這次又雙叒叕贏麻了。

甚至這一次,不少網(wǎng)友都發(fā)出了“見證歷史”的感慨:

d6e2ba5c-c430-11ed-bfe3-dac502259ad0.png

史上最強大模型

正如之前傳言,GPT-4確實擁有多模態(tài)能力,可以接受圖像輸入并理解圖像內(nèi)容。

并且可接受的文字輸入長度也增加到3.2萬個token(約2.4萬單詞)。

升級之后,GPT-4在各種職業(yè)和學術考試上表現(xiàn)和人類水平相當。

比如模擬律師考試,GPT-4取得了前10%的好成績,相比之下GPT-3.5是倒數(shù)10%。

做美國高考SAT試題,GPT-4也在閱讀寫作中拿下710分高分、數(shù)學700分(滿分800)。

d6f09014-c430-11ed-bfe3-dac502259ad0.png

那么GPT-4這些新能力實際用起來是什么樣的?技術報告中也給出不少展示。

首先,看圖能力可以用來解釋表情包、梗圖。

提問這張圖哪里好笑?GPT-4可以按順序描述出每一格的內(nèi)容,并總結(jié)出笑點:

用巨大的過時VGA接口給小巧的現(xiàn)代智能手機充電。

d6fd08da-c430-11ed-bfe3-dac502259ad0.png

更進一步,GPT-4可以理解圖表中數(shù)據(jù)的含義,并做進一步計算。

d72a0600-c430-11ed-bfe3-dac502259ad0.png

甚至可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對整篇論文的總結(jié)摘要。

d7549f96-c430-11ed-bfe3-dac502259ad0.png

文字輸入長度限制的增加,也大大擴展了GPT-4的實用性。

發(fā)布會直播上,OpenAI總裁Gregman現(xiàn)場表演了一波GPT-4給代碼修Bug。

出現(xiàn)問題啥也不用想,直接把1萬字的程序文檔一股腦扔給GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。

d79a3df8-c430-11ed-bfe3-dac502259ad0.gif

再最后附上出現(xiàn)的問題,在幾秒鐘內(nèi)瞬間得到解決辦法。

d7b24f42-c430-11ed-bfe3-dac502259ad0.png

在API方面,GPT-4還開放了一個使用功能,允許修改“系統(tǒng)提示”。

之前ChatGPT的回答總是冗長而平淡,這是因為系統(tǒng)提示中規(guī)定了“你只是一個語言模型……你的知識截止于2021年9月”。

現(xiàn)在通過修改這句話,GPT-4就可以展現(xiàn)出更多樣的性格,比如扮演蘇格拉底。

d87a0ece-c430-11ed-bfe3-dac502259ad0.png

也可以指定之后所有回答的形式,比如全用json格式。

d92c23ca-c430-11ed-bfe3-dac502259ad0.png

雖然GPT-4這波能力大升級,但之前ChatGPT會出現(xiàn)幻覺、胡說八道的毛病還是沒能完全改掉。

從前面的官方示例也可以看出,要想最大程度發(fā)揮GPT-4的能力,最好還是用上思維鏈路提示(Chain-of-thought Prompt)。

操作起來也非常簡單,只需在提問的時候額外提醒AI給出步驟,就能大大提高推理和計算的準確率。

谷歌依舊在跟

就在GPT-4發(fā)布前,谷歌方面為了迎戰(zhàn)微軟,宣布將一系列即將推出的AIGC功能,應用到自家產(chǎn)品中。

包括谷歌 Docs(文檔)、Gmail、Sheets(表格)和 Slides(幻燈片)。

d9572318-c430-11ed-bfe3-dac502259ad0.png

但不同于微軟和OpenAI的“發(fā)布即可用”,谷歌只會先將Docs和Gmail中的AI工具,在月底提供給一些“值得信賴的開發(fā)人員”。

而其它功能則將是在今年晚些時候向公眾開放。

至于具體時間,谷歌方面并沒有具體說明。

而外界對此評價是谷歌希望搶先微軟原定于本周四的發(fā)布。

但從今天的結(jié)果上來看,微軟依舊提前“搶灘登陸”。

d9f0f72c-c430-11ed-bfe3-dac502259ad0.png

在GPT-4發(fā)布之前,便有網(wǎng)友做出了GPT-3和GPT-4參數(shù)量的對比圖,并猜測GPT-4的參數(shù)量將達到100萬億。

這一次亦是如此。

有網(wǎng)友預言,未來GPT-5的參數(shù)量,會是這樣的:

da038ce8-c430-11ed-bfe3-dac502259ad0.png

但無論如何,這一次,我們離真·人工智能,更近了一步。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    49007

    瀏覽量

    249275
  • ChatGPT
    +關注

    關注

    29

    文章

    1589

    瀏覽量

    9080

原文標題:GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領先

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    的關鍵力量。星宸科技與豆包大模型的合作,將這一技術趨勢落實到實際應用場景中,在智能家居、可穿戴設備以及連鎖店等領域引發(fā)了深刻變革。 ? 智能家居升級 ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領域,
    的頭像 發(fā)表于 06-21 00:06 ?5650次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為、事件等算法,為行業(yè)帶來全新的
    的頭像 發(fā)表于 04-17 17:12 ?808次閱讀

    ??低?b class='flag-5'>發(fā)布模態(tài)模型文搜存儲系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來重大技術革新,基于觀瀾大模型技術體系,海康威視將大參數(shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?678次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費訂閱服務,提供了一系列增強功能和優(yōu)勢,讓用戶體驗更上一層樓: 更強模型驅(qū)動 (GPT-4及更高版本): ?訂閱用戶可訪問性能更強、回答更準確、對話能力更復雜的
    的頭像 發(fā)表于 02-13 19:59 ?932次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準、高效的AI服務。 而在
    的頭像 發(fā)表于 02-13 13:43 ?641次閱讀

    商湯日日新模態(tài)模型權威評測第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權威綜合評測權威平臺OpenCompass的模態(tài)評測中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?1008次閱讀

    解鎖 GPT-4o!2024 ChatGPT Plus 代升級全攻略(附國內(nèi)支付方法)

    ChatGPT Plus 每月 20 美元,OpenAI 承諾 Plus 用戶享有更快的響應速度、優(yōu)先使用新功能及最新模型,包括強大的 GPT-4o。本文將分享 2024 年 ChatGPT
    的頭像 發(fā)表于 10-29 18:17 ?2470次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術的飛速發(fā)展,我們見證了一代又一代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術競賽中,Llama 3和GPT-4作為兩個備受矚目的模型,它們代表了當前AI領域的最前
    的頭像 發(fā)表于 10-27 14:17 ?1148次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力超GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-4o。此外,其效率相對提升50%。
    的頭像 發(fā)表于 10-24 11:39 ?1063次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態(tài)之間的關聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,
    的頭像 發(fā)表于 10-18 09:39 ?1247次閱讀

    訊飛星火內(nèi)容運營大師新增三大功能

    一個月前,GPT-4o一出,打破了人們對于大模型的響應速度和模態(tài)理解能力的想象邊界。6月27日,科大訊飛馬上也要發(fā)布全面對標
    的頭像 發(fā)表于 10-14 10:08 ?1199次閱讀

    云知聲山海模態(tài)模型UniGPT-mMed登頂MMMU測評榜首

    近日,模態(tài)人工智能模型基準評測集MMMU更新榜單,云知聲山海模態(tài)模型UniGPT-mMed
    的頭像 發(fā)表于 10-12 14:09 ?664次閱讀
    云知聲山海<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>UniGPT-mMed登頂MMMU測評榜首

    OpenAI即將發(fā)布“草莓”推理大模型

    科技界迎來新動態(tài),據(jù)可靠消息透露,OpenAI正緊鑼密鼓地籌備著一項重大發(fā)布——預計在兩周內(nèi),將正式推出名為“草莓”的新型AI推理模型,并將其無縫融入ChatGPT服務中。這款以卓越推理能力為核心的大
    的頭像 發(fā)表于 09-11 16:53 ?815次閱讀

    云知聲推出山海模態(tài)模型

    在人工智能技術的浩瀚星海中,模態(tài)交互技術正成為引領未來的新航標。繼OpenAI的GPT-4o掀起滔天巨浪后,云知聲以創(chuàng)新之姿,推出了其匠心獨運的山海
    的頭像 發(fā)表于 08-27 15:20 ?629次閱讀

    依圖模態(tài)模型伙伴CTO精研班圓滿舉辦

    依圖科技多年來深耕人工智能領域,致力于將AI領先技術賦能各行業(yè)發(fā)展。隨著依圖天問大模型4.0的發(fā)布,依圖也開啟了大模型合作伙伴業(yè)務的新篇章。6月21日,來自全國各地的戰(zhàn)略合作伙伴走進依
    的頭像 發(fā)表于 07-23 15:16 ?685次閱讀