首頁 > 要聞 >

什么是生成式人工智能

發(fā)布時間:2023-04-14 14:43:00來源:

在過去的幾個月里,使用生成式 AI 的應(yīng)用程序在市場上呈爆炸式增長。AI 照片應(yīng)用程序 Lensa和 OpenAI 的聊天機(jī)器人ChatGPT引起了巨大轟動,因?yàn)樗鼈兛梢园葱柚谱鞲哔|(zhì)量的文本和圖像?,F(xiàn)在微軟和谷歌正在迎頭趕上。但什么是生成式 AI,它是如何工作的?

什么是生成式人工智能?

盡可能簡單地說:生成式人工智能是一種人工智能(所謂的“人工智能”),它根據(jù)用戶的提示創(chuàng)建獨(dú)特的內(nèi)容。例如,提示您讓 Lensa 將那些很酷的 AI 個人資料照片制作成自拍選集。在 ChatGPT 的案例中,提示可能是“以 HL Mencken 的風(fēng)格寫一首關(guān)于百吉餅的十四行詩”。由此產(chǎn)生的文本和圖像是完全獨(dú)一無二的,由 AI 生成。生成式 AI 可以創(chuàng)建的不僅僅是文本和圖片。其他 AI 產(chǎn)品可以創(chuàng)造不可思議的語音娛樂,甚至有服務(wù)可以根據(jù)文本提示制作視頻內(nèi)容。

生成式 AI 結(jié)合了兩種強(qiáng)大的 AI 技術(shù):機(jī)器學(xué)習(xí)和創(chuàng)建新內(nèi)容的能力。AI 程序員使用機(jī)器學(xué)習(xí)來構(gòu)建可以識別現(xiàn)有數(shù)據(jù)中的模式和趨勢的模型,而內(nèi)容生成允許創(chuàng)建獨(dú)特的項(xiàng)目,如組合或圖像。當(dāng) AI 有足夠大的樣本量可以從(其訓(xùn)練集)中提取時,它幾乎可以重新創(chuàng)建它可以識別的任何東西。而且由于用于訓(xùn)練像 ChatGPT 這樣的 AI 模型的數(shù)據(jù)集非常大,它可以混合和匹配來自多個來源的元素,以提供既獨(dú)特又可識別的提示要求的內(nèi)容。

生成式人工智能的類型及其工作原理

生成式 AI 算法有多種形式,但分為三大類:生成對抗網(wǎng)絡(luò)(GAN)、變分自動編碼器(VAE) 和變形模型,如 GPT-4。每種類型的生成式 AI 算法都有其優(yōu)點(diǎn)和缺點(diǎn)。

GAN 是一種生成式 AI,它使用兩個深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)來生成新數(shù)據(jù)。第一個網(wǎng)絡(luò)稱為生成器,經(jīng)過訓(xùn)練可以創(chuàng)建類似于現(xiàn)有內(nèi)容的新數(shù)據(jù),而第二個網(wǎng)絡(luò)稱為鑒別器,經(jīng)過訓(xùn)練可以區(qū)分真實(shí)數(shù)據(jù)和生成的數(shù)據(jù)。當(dāng)程序員訓(xùn)練他們的 AI 時,生成器學(xué)習(xí)如何生成越來越逼真的圖像,讓鑒別器相信它們是真實(shí)的。這個過程被稱為“極小極大游戲”,因?yàn)槊總€網(wǎng)絡(luò)都試圖超越另一個網(wǎng)絡(luò),同時盡量減少自己的錯誤。

GAN 的一個潛在缺點(diǎn)是它們有時會產(chǎn)生不真實(shí)或模糊的圖像。例如,經(jīng)過訓(xùn)練以生成人臉圖像的 GAN 有時可能會創(chuàng)建帶有額外雙眼或扭曲面部結(jié)構(gòu)的圖片。人手看起來就像一場徹頭徹尾的噩夢。然而,這項(xiàng)技術(shù)還處于早期階段,像這樣的問題將在適當(dāng)?shù)臅r候得到解決。

VAE 是另一種生成式 AI,用于生成新的、獨(dú)特的數(shù)據(jù)。與 GAN 不同,VAE 使用其輸入數(shù)據(jù)的壓縮表示來生成類似于原始數(shù)據(jù)的新內(nèi)容。VAE 最常用于制作圖像和視頻,但它們也可以生成文本。VAE 的一個潛在限制是它們的數(shù)據(jù)可能不像 GAN 生成的數(shù)據(jù)那么多變,因?yàn)?VAE 學(xué)習(xí)輸入數(shù)據(jù)的更受限表示。此外,VAE 有時會遇到 GAN 遇到的圖像失真問題。

像GPT-4這樣的 Transformer 模型是生成式 AI 的一個相對較新的迭代,由于它們在許多自然語言處理任務(wù)上的出色表現(xiàn)而吸引了很多眼球。ChatGPT 是當(dāng)前基于 transformer 的 AI 產(chǎn)品的金星示例。這些模型基于一種稱為“轉(zhuǎn)換器”的神經(jīng)網(wǎng)絡(luò)架構(gòu)。它們旨在處理大量數(shù)據(jù)序列,在巨大的文本數(shù)據(jù)集上接受訓(xùn)練,并且可以對提示做出連貫且與上下文相關(guān)的響應(yīng)。

Transformer 模型的優(yōu)勢在于它們可以生成多樣化和高質(zhì)量的文本。但是,它們可能會受到訓(xùn)練數(shù)據(jù)中的偏差和不準(zhǔn)確的影響,從而導(dǎo)致不適當(dāng)或錯誤的輸出。此外,訓(xùn)練和運(yùn)行這些模型所需的大量計(jì)算資源和數(shù)據(jù)可能使它們對于某些應(yīng)用程序而言既困難又昂貴。

免責(zé)聲明:本文為轉(zhuǎn)載,非本網(wǎng)原創(chuàng)內(nèi)容,不代表本網(wǎng)觀點(diǎn)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實(shí)相關(guān)內(nèi)容。