Cerebras Systems推出類似ChatGPT的開源AI模型
總部位于硅谷的人工智能(AI)計算初創(chuàng)公司Cerebras Systems宣布發(fā)布七個開源的類似ChatGPT的AI模型。此舉旨在鼓勵研究和商業(yè)界的合作和創(chuàng)新。這些模型都是在 Cerebras 的 AI 超級計算機 Andromeda 上訓練的,范圍從較小的 111.13 億個參數(shù)語言模型到一個龐大的 <> 億個參數(shù)模型。以下是詳細信息...
Cerebras Systems推出類似ChatGPT的開源AI模型
Cerebras的創(chuàng)始人兼首席執(zhí)行官安德魯·費爾德曼(Andrew Feldman)強調(diào)了開源在人工智能社區(qū)中的重要性,并將其大部分進步歸功于協(xié)作環(huán)境。他承認,雖然最近出現(xiàn)了關閉開源人工智能項目的趨勢,因為它們具有商業(yè)潛力,但保持開放性對于持續(xù)創(chuàng)新至關重要。
Cerebras的型號范圍允許在各種設備上部署。較小的型號可以在智能手機或智能揚聲器上運行,而較大的型號需要PC或服務器。這種靈活性可以滿足不同的需求和應用,但對于更復雜的任務,例如大通道摘要,需要更大的模型。
雖然較大的模型通常提供更高級的生成函數(shù),但寒武紀AI的芯片顧問Karl Freund指出,尺寸并不是一切。他引用了最近的研究表明,如果更有效地訓練,較小的模型可以同樣準確,這表明在大小和訓練質(zhì)量之間進行權衡。
費爾德曼透露,他們最大的模型只用了一個多星期的時間來訓練,這個過程通常需要幾個月的時間。這種加速可以歸因于 Cerebras 系統(tǒng)的獨特架構(gòu),該系統(tǒng)具有專為 AI 訓練設計的餐盤大小的芯片。
目前,大多數(shù)人工智能模型都是在英偉達公司的芯片上訓練的,但越來越多的像Cerebras這樣的初創(chuàng)公司正在進入市場,以索取自己的份額。Feldman證實,在Cerebras機器上訓練的模型可以在Nvidia系統(tǒng)上用于額外的訓練或定制,為用戶提供靈活性和適應性。
免責聲明:本文為轉(zhuǎn)載,非本網(wǎng)原創(chuàng)內(nèi)容,不代表本網(wǎng)觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內(nèi)容。