Llama 3來了!
就在剛剛,Meta官網(wǎng)上新,官宣了Llama 3 80億和700億參數(shù)版本。
並且推出即為開源SOTA:
Meta官方數(shù)據(jù)顯示,Llama 3 8B和70B版本在各自參數(shù)規(guī)模上超越一眾對手。
8B模型在MMLU、GPQA、HumanEval等多項基準上都勝過Gemma 7B和Mistral 7B Instruct。
而70B模型則超越了閉源的當紅炸子雞Claude 3 Sonnet,和谷歌的Gemini Pro 1.5打得有來有回。
Huggingface連結(jié)一出,開源社群再次沸騰。
眼尖的盲生們還第一時間發(fā)現(xiàn)了華點:
Meta更藏了一手4000億參數(shù) 的Llama 3版本,不遜於Claude 3超大杯Opus的那種!
AI寫作助手創(chuàng)企HyperWriteAI的CEO見此已忍不住感慨:
我們正在步入一個新世界,一個GPT -4層級的模型開源並且可以自由存取的世界。
英偉達科學家Jim Fan則認為,還在訓練中的Llama 3 400B將成為開源大模型的分水嶺,改變許多學界研究和新創(chuàng)公司的發(fā)展方式。
全面取得SOTA,但8k視窗
更多技術(shù)細節(jié),Meta在部落格文章中給出。
架構(gòu)層面,Llama 3選擇了經(jīng)典的僅解碼(decoder-only)式Transformer架構(gòu),採用包含128K token詞彙表的分詞器。
訓練數(shù)據(jù)上看,Llama 3的訓練數(shù)據(jù)規(guī)模達到了15T tokens,全部來自於公開信息,其中5%為非英文數(shù)據(jù),涵蓋30多種語言。
Llama 3的資料量比Llama 2的訓練資料多7倍,其中程式碼比Llama 2多4倍。
此外,為了提高Llama 3 模型的推理效率,Meta AI也採用了分組查詢注意力(GQA)機制,在8192個tokens的序列上訓練模型,並使用掩碼確保自註意力不會跨越文檔邊界。
結(jié)果,無論是8B或70B版本,Llama 3相較於近似規(guī)模的上一代Llama 2,都取得了重大飛躍。
在迄今為止的8B和70B參數(shù)規(guī)模的模型中,Llama 3都成為了新的SOTA模型。
在語言(MMLU)、知識(GPQA)、程式設(shè)計(HumanEval)、數(shù)學(GSM-8K、MATH)等能力上,Llama 3幾乎全面領(lǐng)先於同等規(guī)模的其他模型。
除了這些常規(guī)的資料集,Meta AI也評估了Llama 3在現(xiàn)實場景中的效能,並為此研發(fā)了一套高品質(zhì)的測試資料集。
這個測試集包含了1800條數(shù)據(jù),涵蓋程式碼、推理、寫作、總結(jié)等12 個關(guān)鍵用例,並針對開發(fā)團隊保密。
結(jié)果,Llama 3不僅大幅超越Llama 2,也戰(zhàn)勝了Claude 3 Sonnet、Mistral Medium和GPT-3.5這些知名模型。
而在AGIEval、BIG-Bench、ARC-Challenge這些更高階、更困難的資料集上,Llama 3的表現(xiàn)同樣可圈可點。
8B版本在這些任務(wù)上超越了Mistral和Gemma,70B版本則戰(zhàn)勝了Gemini Pro和MoE架構(gòu)的Mixtral,分別斬獲對應(yīng)規(guī)模的SOTA。
不過美中不足的是,Llama 3的上下文視窗只有8k,這與現(xiàn)在動輒幾十上百萬窗口的大模型相比,彷彿還停留在上一代(手動狗頭)。
但也不必過度擔憂,Matt Shumer就對此持樂觀態(tài)度,他表示相信在開源社群的努力下,視窗長度很快就會擴展上去。
Llama迎來官方網(wǎng)頁版
目前,Llama 3兩種參數(shù)量的基礎(chǔ)和Instruct版本都已上線Hugging Face可供下載。
此外,微軟Azure、Google雲(yún)端、亞馬遜AWS、英偉達NIM等雲(yún)端服務(wù)平臺也將陸續(xù)上線Llama 3。
同時,Meta也表示Llama 3會得到英特爾、英偉達、AMD、高通等多家廠商提供的硬體平臺支援。
值得一提的是,此次與基礎(chǔ)模型一同發(fā)布的,還有基於Llama 3的官方Web版本,名字就叫Meta AI。
目前平臺有對話和繪畫兩大功能,只用對話的話無需註冊登入、即開即用,使用繪畫功能則需要先登入帳號。
不過,該平臺目前還不支援中文,也暫未上線文字上傳等功能。
程式碼方面,該平臺也能夠運行一些簡單的Python程序,但似乎只能輸出文本,涉及到繪圖這樣的任務(wù)就無法運行了。
總的來看,這個網(wǎng)頁版本還比較初級,但也不妨期待一波後面的更新。
One More Thing
一個小插曲是,其實在Meta官員宣前幾個小時,微軟的Azure市場已經(jīng)偷跑了Llama 3 8B Instruct版本的消息。
開源模型機器學習線上平臺Replicate上的Llama 3價格表也被網(wǎng)友們第一時間扒拉了出來。
但很快,這些「小道消息」就都被404了。
好在烏龍完了,官方也沒拖著,關(guān)心開源大模型的小夥伴們,可以造作起來了(doge)。
[1]https://ai.meta.com/blog/meta-llama-3/。 #[2]https://about.fb.com/news/2024/04/meta-ai-assistant-built-with-llama-3/。美洲駝/Meta-Llama-3-70B。
以上是Llama3突然來襲!開源社群再次沸騰:GPT4級模式自由訪問時代到來的詳細內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

熱AI工具

Undress AI Tool
免費脫衣圖片

Undresser.AI Undress
人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6
視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

用戶語音輸入通過前端JavaScript的MediaRecorderAPI捕獲並發(fā)送至PHP後端;2.PHP將音頻保存為臨時文件後調(diào)用STTAPI(如Google或百度語音識別)轉(zhuǎn)換為文本;3.PHP將文本發(fā)送至AI服務(wù)(如OpenAIGPT)獲取智能回復(fù);4.PHP再調(diào)用TTSAPI(如百度或Google語音合成)將回復(fù)轉(zhuǎn)為語音文件;5.PHP將語音文件流式返回前端播放,完成交互。整個流程由PHP主導數(shù)據(jù)流轉(zhuǎn)與錯誤處理,確保各環(huán)節(jié)無縫銜接。

要實現(xiàn)PHP結(jié)合AI進行文本糾錯與語法優(yōu)化,需按以下步驟操作:1.選擇適合的AI模型或API,如百度、騰訊API或開源NLP庫;2.通過PHP的curl或Guzzle調(diào)用API並處理返回結(jié)果;3.在應(yīng)用中展示糾錯信息並允許用戶選擇是否採納;4.使用php-l和PHP_CodeSniffer進行語法檢測與代碼優(yōu)化;5.持續(xù)收集反饋並更新模型或規(guī)則以提升效果。選擇AIAPI時應(yīng)重點評估準確率、響應(yīng)速度、價格及對PHP的支持。代碼優(yōu)化應(yīng)遵循PSR規(guī)範、合理使用緩存、避免循環(huán)查詢、定期審查代碼,並藉助X

使用Seaborn的jointplot可快速可視化兩個變量間的關(guān)係及各自分佈;2.基礎(chǔ)散點圖通過sns.jointplot(data=tips,x="total_bill",y="tip",kind="scatter")實現(xiàn),中心為散點圖,上下和右側(cè)顯示直方圖;3.添加回歸線和密度信息可用kind="reg",並結(jié)合marginal_kws設(shè)置邊緣圖樣式;4.數(shù)據(jù)量大時推薦kind="hex",用

要將AI情感計算技術(shù)融入PHP應(yīng)用,核心是利用雲(yún)服務(wù)AIAPI(如Google、AWS、Azure)進行情感分析,通過HTTP請求發(fā)送文本並解析返回的JSON結(jié)果,將情感數(shù)據(jù)存入數(shù)據(jù)庫,從而實現(xiàn)用戶反饋的自動化處理與數(shù)據(jù)洞察。具體步驟包括:1.選擇適合的AI情感分析API,綜合考慮準確性、成本、語言支持和集成複雜度;2.使用Guzzle或curl發(fā)送請求,存儲情感分數(shù)、標籤及強度等信息;3.構(gòu)建可視化儀錶盤,支持優(yōu)先級排序、趨勢分析、產(chǎn)品迭代方向和用戶細分;4.應(yīng)對技術(shù)挑戰(zhàn),如API調(diào)用限制、數(shù)

字符串列表可用join()方法合併,如''.join(words)得到"HelloworldfromPython";2.數(shù)字列表需先用map(str,numbers)或[str(x)forxinnumbers]轉(zhuǎn)為字符串後才能join;3.任意類型列表可直接用str()轉(zhuǎn)換為帶括號和引號的字符串,適用於調(diào)試;4.自定義格式可用生成器表達式結(jié)合join()實現(xiàn),如'|'.join(f"[{item}]"foriteminitems)輸出"[a]|[

pandas.melt()用於將寬格式數(shù)據(jù)轉(zhuǎn)為長格式,答案是通過指定id_vars保留標識列、value_vars選擇需融化的列、var_name和value_name定義新列名,1.id_vars='Name'表示Name列不變,2.value_vars=['Math','English','Science']指定要融化的列,3.var_name='Subject'設(shè)置原列名的新列名,4.value_name='Score'設(shè)置原值的新列名,最終生成包含Name、Subject和Score三列

pythoncanbeoptimizedFormized-formemory-boundoperationsbyreducingOverHeadThroughGenerator,有效dattratsures,andManagingObjectLifetimes.first,useGeneratorSInsteadoFlistSteadoflistSteadoFocessLargedAtasetSoneItematatime,desceedingingLoadeGingloadInterveringerverneDraineNterveingerverneDraineNterveInterveIntMory.second.second.second.second,Choos,Choos

安裝pyodbc:使用pipinstallpyodbc命令安裝庫;2.連接SQLServer:通過pyodbc.connect()方法,使用包含DRIVER、SERVER、DATABASE、UID/PWD或Trusted_Connection的連接字符串,分別支持SQL身份驗證或Windows身份驗證;3.查看已安裝驅(qū)動:運行pyodbc.drivers()並篩選含'SQLServer'的驅(qū)動名,確保使用如'ODBCDriver17forSQLServer'等正確驅(qū)動名稱;4.連接字符串關(guān)鍵參數(shù)
