剛剛,OpenAI 深夜直播,GPT-4o 的原生圖像生成大升級(jí)!奧爾特曼親自上陣組隊(duì),演示了自拍變梗圖、相對(duì)論漫畫(huà)等功能,不過(guò)相對(duì)隔壁谷歌發(fā)布的新模型,OpenAI 的這波動(dòng)作著實(shí)有點(diǎn)不夠看。
就在谷歌剛剛?cè)映龅乇碜顝?qiáng)模型 Gemini 2.5 Pro 不久,OpenAI 也有動(dòng)作了。
奧爾特曼親自帶隊(duì),展示了 GPT-4o 圖像生成技術(shù)的各種大升級(jí),比如制作梗圖、文本渲染、多輪交互生成和指令遵循等。
整個(gè)直播中最亮的演示,莫過(guò)于這張官方玩梗的表情包了。
目前,這項(xiàng)功能已經(jīng)在 ChatGPT 和 Sora 中,向所有 Plus、Pro、Team 和免費(fèi)用戶推出。
當(dāng)然,新版 Sora 生圖的時(shí)間,也比以往更長(zhǎng)了。但 OpenAI 看來(lái),生圖的質(zhì)量和其具備的世界知識(shí),讓用戶值得等待那多出的幾秒。
GPT-4o 原生圖像生成來(lái)了!在直播中,奧爾特曼介紹道,從今天起,ChatGPT 中的原生圖像生成功能正式推出!
GPT-4o 的全模態(tài)能力,從此也融合進(jìn)了 Sora 中。
OpenAI 多模態(tài)研究的負(fù)責(zé)人 Gabe 介紹說(shuō),兩年前剛開(kāi)始這個(gè)項(xiàng)目時(shí),他對(duì)于 GPT-4 這個(gè)強(qiáng)大的模型會(huì)怎樣原生支持圖像模型非常好奇。
一年后,當(dāng)模型完成訓(xùn)練時(shí),他看到了令人興奮的跡象。從 GPT-2 以來(lái),他已經(jīng)很久沒(méi)有這種感覺(jué) —— 這是一個(gè)瘋狂時(shí)刻。
給出以下 prompt,GPT-4o 就生成了符合要求的圖像,完全還原了要求。
接下來(lái),三個(gè)人用手機(jī)來(lái)了張自拍,GPT-4o 立刻把三人自拍轉(zhuǎn)換成了動(dòng)漫風(fēng)格的版本。
甚至他們開(kāi)始官方玩梗,讓模型添加一段「Feel The AGI」在圖片上,一張表情包就此誕生。
這個(gè)過(guò)程,就體現(xiàn)了 4o 作為全能模型的強(qiáng)大能力。
因?yàn)樗粌H僅是一個(gè)語(yǔ)言模型,還包括圖像、音頻,所有輸入和輸出的模態(tài)。它可以理解、生成這些模態(tài),并且無(wú)縫地在它們之間工作。
用 OpenAI 的話說(shuō),「我們終于邁向了這種真正集成的多模態(tài)模型」。
接下來(lái),他們讓模型畫(huà)出一幅描述相對(duì)論的漫畫(huà),要求通俗易懂,還要加入一些幽默元素。
這個(gè)提示詞非常模糊,因此看看模型會(huì)生成什么樣的圖,就格外令人期待了。果然,生成效果令人驚喜。
注意,這個(gè)過(guò)程中,模型很可能利用了自己的世界知識(shí),對(duì)提示詞進(jìn)行了擴(kuò)展。
然后,他們給了模型一張卡片,希望生成同樣風(fēng)格的圖像,但要求主角不再是卡片中的巨貓國(guó)王,而是某位研究者的狗狗。
另外,卡片上還需要出現(xiàn)一些細(xì)節(jié),比如模型的名字和年份,以及狗狗的體重和身高。
可以看到,生成圖像在文本渲染方面非常驚艷,所有數(shù)據(jù)都準(zhǔn)確無(wú)誤。
最后一個(gè)演示,是基于此前幾人生成的內(nèi)容,制作一個(gè)紀(jì)念幣。
而且,還要求圖使用了一個(gè)特殊的十六進(jìn)制代碼,且加上生成圖像的文本和日期。
可以看到,生成結(jié)果非常驚艷!此前曾出現(xiàn)的藝術(shù)熊、收音機(jī)、愛(ài)因斯坦漫畫(huà)、研究者的狗狗以及模型名稱和日期,全部都出現(xiàn)在了紀(jì)念幣上。
模型之所以精準(zhǔn)完成這樣復(fù)雜的要求,是因?yàn)樗怯梅亲曰貧w的方式訓(xùn)練的,因此它能夠理解上下文中的文本和多張圖片,以非常和諧的方式在紀(jì)念幣上呈現(xiàn)出來(lái)。
和 GPT-4o 聊天,定制各種圖像總之,現(xiàn)在使用這個(gè)功能,我們可以創(chuàng)建各種圖像,或?qū)⑵滢D(zhuǎn)換為各種風(fēng)格。
從此,用 GPT-4o 創(chuàng)建和定制圖像,就像聊天一樣簡(jiǎn)單。
只需描述所需,就能得到想要的任何細(xì)節(jié),比如縱橫比、使用十六進(jìn)制代碼的精確顏色或透明背景。
我們可以讓它設(shè)計(jì)一個(gè)信息圖,解釋牛頓的棱鏡寬高比,背景為深藍(lán)色。
一張畫(huà)質(zhì)高級(jí)的教學(xué)級(jí)圖片,立馬生成。
這個(gè)圖像生成功能的特點(diǎn)就是,能遵循非常復(fù)雜的提示,極其注重細(xì)節(jié)。
15 個(gè)非常細(xì)化的要求,它都在一張圖里完美實(shí)現(xiàn)了。
要知道,大多數(shù)生圖模型被要求渲染多個(gè)項(xiàng)目時(shí),往往就會(huì)混淆顏色和形狀,但新模型卻能正確綁定 15 到 20 個(gè)對(duì)象的屬性,還能成功理解各自的復(fù)雜需求。
在你和它的聊天上下文中,GPT-4o 就能為你構(gòu)建圖像和文本,還能確保一致性。
從最早的洞穴壁畫(huà)到現(xiàn)代信息圖表,人類一直使用視覺(jué)圖像來(lái)交流、說(shuō)服和分析。
如今的生成式 AI 模型可以創(chuàng)造出超現(xiàn)實(shí)的場(chǎng)景,但在處理人們用于分享和創(chuàng)建信息的實(shí)用圖像方面仍然存在困難。
GPT?4o 的圖像生成功能擅長(zhǎng)準(zhǔn)確渲染文本,精確遵循提示詞,并利用 GPT-4o 固有的知識(shí)庫(kù)和聊天上下文 —— 包括轉(zhuǎn)換上傳的圖像或?qū)⑵溆米饕曈X(jué)靈感。
這些能力讓用戶可以更加容易地創(chuàng)建想象中的畫(huà)面,幫助通過(guò)視覺(jué)更有效地溝通,并將圖像生成發(fā)展成為一種具有精確性和強(qiáng)大功能的實(shí)用工具。
畢竟,只有當(dāng)圖像配上指代共享語(yǔ)言和經(jīng)驗(yàn)的符號(hào)時(shí),才能傳達(dá)精確的含義。
通過(guò)線上圖像和文本的聯(lián)合分布訓(xùn)練,模型不僅能學(xué)會(huì)圖像如何與語(yǔ)言相關(guān)聯(lián),還能知道它們之間的相互關(guān)系。
結(jié)合積極的后訓(xùn)練優(yōu)化,最終的模型展現(xiàn)出驚人的視覺(jué)表現(xiàn)力,能夠生成實(shí)用、一致且具有上下文感知能力的圖像。
文本渲染一張圖片勝過(guò)千言萬(wàn)語(yǔ),但有時(shí)在正確的位置添加幾個(gè)詞能夠大大提升圖像的含義。
GPT-4o 將精確的符號(hào)與圖像融合的能力使圖像生成成為視覺(jué)交流的有力工具。
由于圖像生成現(xiàn)在是 GPT?4o 的原生功能,用戶可以通過(guò)自然對(duì)話來(lái)完善圖像。
GPT?4o 能夠基于聊天上下文中的圖像和文本進(jìn)行構(gòu)建,確保始終保持一致性。
比如,一個(gè)正在設(shè)計(jì)中的游戲角色,它的外觀就能在多次迭代和調(diào)整中保持連貫一致。
GPT?4o 的圖像生成功能不僅可以遵循詳細(xì)的提示詞,而且還十分注重細(xì)節(jié)。
相比起其他只能處理 5-8 個(gè)物體的模型,GPT?4o 可以輕松搞定多達(dá) 10-20 個(gè)不同的物體。
并且,物體與其特征和關(guān)系的更緊密綁定使得控制更加精準(zhǔn)。
GPT?4o 能夠分析并學(xué)習(xí)用戶上傳的圖像,將圖像細(xì)節(jié)無(wú)縫整合到上下文中,用于輔助圖像生成。
內(nèi)置的圖像生成功能使 GPT?4o 能夠連接文本和圖像之間的知識(shí),使模型表現(xiàn)得更智能、更高效。
通過(guò)對(duì)反映多種多樣圖像風(fēng)格的圖像進(jìn)行訓(xùn)練,模型能夠以令人信服的方式創(chuàng)建或轉(zhuǎn)換圖像。
參考資料:
https://openai.com/index/introducing-4o-image-generation/
本文鏈接:http://www.www897cc.com/showinfo-45-11767-0.htmlOpenAI 直播狙擊谷歌:奧爾特曼 AGI 梗圖現(xiàn)場(chǎng)直出,GPT-4o 超強(qiáng)原生生圖來(lái)襲
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 谷歌最強(qiáng)模型 Gemini 2.5 Pro 發(fā)布即屠榜,創(chuàng)下史上最大分?jǐn)?shù)飛躍紀(jì)錄