国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

首頁(yè) 科技週邊 人工智慧 英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

Jul 26, 2024 am 08:40 AM
英偉達(dá) 理論 llama 3

開(kāi)放LLM 社群正是百花齊放、競(jìng)相爭(zhēng)鳴的時(shí)代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 等許多表現(xiàn)優(yōu)良的模型。但是,相較於以 GPT-4-Turbo 為代表的專有大模型,開(kāi)放模型在許多領(lǐng)域仍有明顯差距。

在通用模型之外,也有一些專精關(guān)鍵領(lǐng)域的開(kāi)放模型已被開(kāi)發(fā)出來(lái),例如用於程式設(shè)計(jì)和數(shù)學(xué)的DeepSeek-Coder-V2、用於視覺(jué)- 語(yǔ)言任務(wù)的InternVL 1.5(其在某些領(lǐng)域可比肩GPT-4-Turbo-2024-04-09)。

作為「AI 淘金時(shí)代的賣鏟王」,英偉達(dá)本身也在為開(kāi)放模型領(lǐng)域??做出貢獻(xiàn),例如其開(kāi)發(fā)的ChatQA 系列模型,請(qǐng)參閱本站報(bào)道《英偉達(dá)新對(duì)話QA 模型準(zhǔn)確度超GPT-4,卻遭吐槽:無(wú)權(quán)重代碼意義不大》。今年初,ChatQA 1.5 發(fā)布,其整合了檢索增強(qiáng)式生成(RAG)技術(shù),在對(duì)話問(wèn)答方面的表現(xiàn)超過(guò)了 GPT-4。

現(xiàn)在,ChatQA 已經(jīng)進(jìn)化到 2.0 版,這次改進(jìn)的主要方向是擴(kuò)展上下文視窗。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

  • 論文標(biāo)題:ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities

  • 論文地址:https://arxiv.org/pdf/M ,擴(kuò)展LLM 的上下文視窗長(zhǎng)度是一大研究和開(kāi)發(fā)熱點(diǎn),例如本站曾報(bào)道過(guò)的

    《直接擴(kuò)展到無(wú)限長(zhǎng),谷歌Infini-Transformer 終結(jié)上下文長(zhǎng)度之爭(zhēng)》
  • 。

所有領(lǐng)先的專有 LLM 都支援非常大的上下文視窗 —— 你可以在單一 prompt 中向其灌輸數(shù)百頁(yè)文字。例如 GPT-4 Turbo 和 Claude 3.5 Sonnet 的上下文視窗大小分別為 128K 和 200K。而 Gemini 1.5 Pro 可支援 10M 長(zhǎng)度的上下文,讓人嘆為觀止。 不過(guò)開(kāi)源大模型也在加緊追趕。例如 QWen2-72B-Instruct 和 Yi-34B 各自支援 128K 和 200K 的上下文視窗。但是,這些模型的訓(xùn)練資料和技術(shù)細(xì)節(jié)並未公開(kāi),因此很難去復(fù)現(xiàn)它們。此外,這些模型的評(píng)估大都基於合成任務(wù),無(wú)法準(zhǔn)確地代表在真實(shí)下游任務(wù)上的表現(xiàn)。例如,有多項(xiàng)研究顯示開(kāi)放 LLM 和領(lǐng)先的專有模型在真實(shí)世界長(zhǎng)上下文理解任務(wù)上依然差距明顯。

而英偉達(dá)的這個(gè)團(tuán)隊(duì)成功讓開(kāi)放的 Llama-3 在真實(shí)世界長(zhǎng)上下文理解任務(wù)上的性能趕上了專有的 GPT-4 Turbo。

在 LLM 社群中,長(zhǎng)上下文能力有時(shí)被認(rèn)為是一種能與 RAG 競(jìng)爭(zhēng)的技術(shù)。但實(shí)事求是地說(shuō),這些技術(shù)是可以互相增益的。

對(duì)於具有長(zhǎng)上下文視窗的 LLM 來(lái)說(shuō),根據(jù)下游任務(wù)以及準(zhǔn)確度和效率之間的權(quán)衡,可以考慮在 prompt 附帶大量文本,也可以使用檢索方法從大量文本中高效地提取出相關(guān)資訊。 RAG 具有明顯的效率優(yōu)勢(shì),可為基於查詢的任務(wù)輕鬆地從數(shù)十億 token 中檢索出相關(guān)資訊。這是長(zhǎng)上下文模型無(wú)法具備的優(yōu)勢(shì)。另一方面,長(zhǎng)上下文模型卻非常擅長(zhǎng)文件總結(jié)等 RAG 可能不擅長(zhǎng)的任務(wù)。

因此,對(duì)於一個(gè)先進(jìn)的 LLM 來(lái)說(shuō),這兩種能力都需要,如此才能根據(jù)下游任務(wù)以及準(zhǔn)確度和效率需求來(lái)考慮使用哪一種。

此前,英偉達(dá)開(kāi)源的 ChatQA 1.5 模型已經(jīng)能在 RAG 任務(wù)上勝過(guò) GPT-4-Turbo 了。但他們沒(méi)有止步於此,如今又開(kāi)源了 ChatQA 2,將足以比肩 GPT-4-Turbo 的長(zhǎng)上下文理解能力也整合了進(jìn)來(lái)!

具體來(lái)說(shuō),他們基於 Llama-3 模型,將其上下文視窗擴(kuò)展到了 128K(與 GPT-4-Turbo 同等水平),同時(shí)還為其配備了當(dāng)前最佳的長(zhǎng)上下文檢索器。

將上下文視窗擴(kuò)展至 128K

那麼,英偉達(dá)如何把 Llama-3 的上下文視窗從 8K 提升到了 128K?首先,他們基於 Slimpajama 準(zhǔn)備了一個(gè)長(zhǎng)上下文預(yù)訓(xùn)練語(yǔ)料庫(kù),使用的方法則來(lái)自 Fu et al. (2024) 的論文《Data engineering for scaling language models to 128k context》。 訓(xùn)練過(guò)程中他們也得到了一個(gè)有趣發(fā)現(xiàn):相比於使用原有的起始和結(jié)束 token

,使用

這樣的特殊字符來(lái)分隔不同文檔的效果會(huì)更好。他們猜測(cè),原因是 Llama-3 中的

token 是告知模型在預(yù)訓(xùn)練之後忽略之前的文本塊,但這無(wú)助於 LLM 適應(yīng)更長(zhǎng)的上下文輸入。 使用長(zhǎng)上下文資料進(jìn)行指令微調(diào)

該團(tuán)隊(duì)還設(shè)計(jì)了一種可同時(shí)提升模型的長(zhǎng)上下文理解能力和 RAG 性能的指令微調(diào)方法。

具體來(lái)說(shuō),這種指令微調(diào)方法分為三個(gè)階段。前兩個(gè)階段與 ChatQA 1.5 一樣,即首先在 128K 高品質(zhì)指令遵從資料集訓(xùn)練模型,然後使用對(duì)話問(wèn)答資料和所提供的上下文組成的混合資料進(jìn)行訓(xùn)練。但是,這兩個(gè)階段涉及的上下文都比較短 —— 序列長(zhǎng)度最大也不過(guò) 4K token。為了將模型的上下文視窗大小提升到 128K token,團(tuán)隊(duì)收集了一個(gè)長(zhǎng)監(jiān)督式微調(diào)(SFT)資料集。

其採(cǎi)用了兩種收集方式:

1. 對(duì)於短於 32k 的 SFT 資料序列:利用現(xiàn)有的基於 LongAlpaca12k 的長(zhǎng)上下文資料集、來(lái)自 Open Orca 的 GPT-4 樣本、Long Data Collections。

2. 對(duì)於序列長(zhǎng)度在 32k 到 128k 之間的資料:由於收集此類 SFT 樣本的難度很大,因此他們選擇了合成資料集。他們使用了 NarrativeQA,既包含真實(shí)的總結(jié)(ground truth),也包含語(yǔ)義相關(guān)的段落。他們將所有相關(guān)段落組裝到了一起,並隨機(jī)插入真實(shí)總結(jié)以模擬用於問(wèn)答對(duì)的真實(shí)長(zhǎng)文件。

然後,將前兩個(gè)階段得到的全長(zhǎng)的 SFT 資料集和短 SFT 資料集組合在一起,再進(jìn)行訓(xùn)練。這裡學(xué)習(xí)率設(shè)定為 3e-5,批量大小為 32。

長(zhǎng)上下文檢索器遇上長(zhǎng)上下文 LLM

當(dāng)前 LLM 使用的 RAG 流程存在一些問(wèn)題:

1. 為了產(chǎn)生準(zhǔn)確答案,top-k 逐塊檢索會(huì)引入不可忽略的上下文碎片。舉個(gè)例子,之前最佳的基於密集嵌入的檢索器僅支援 512 token。

2. 小top-k(例如5 或10)會(huì)導(dǎo)致召回率相對(duì)較低,而大top-k(例如100)則會(huì)導(dǎo)致產(chǎn)生結(jié)果變差,因?yàn)橹暗腖LM 無(wú)法很好地使用太多已分塊的上下文。

為了解決這個(gè)問(wèn)題,該團(tuán)隊(duì)提出使用最近期的長(zhǎng)上下文檢索器,其支援成千上萬(wàn) token。具體來(lái)說(shuō),他們選擇使用 E5-mistral 嵌入模型作為檢索器。

表 1 比較了 top-k 檢索的不同區(qū)塊大小和上下文視窗中的 token 總數(shù)。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

比較 token 數(shù)從 3000 到 12000 的變化情況,團(tuán)隊(duì)發(fā)現(xiàn) token 越多,結(jié)果越好,這就確認(rèn)了新模型的長(zhǎng)上下文能力確實(shí)不錯(cuò)。他們還發(fā)現(xiàn),如果總 token 數(shù)為 6000,則成本和效能之間會(huì)有比較好的權(quán)衡。當(dāng)將總 token 數(shù)設(shè)定為 6000 後,他們又發(fā)現(xiàn)文字區(qū)塊越大,結(jié)果越好。因此,在實(shí)驗(yàn)中,他們選擇的預(yù)設(shè)設(shè)定是區(qū)塊大小為 1200 以及 top-5 的文字區(qū)塊。

實(shí)驗(yàn)

評(píng)估基準(zhǔn)

為了進(jìn)行全面的評(píng)估,分析不同的上下文長(zhǎng)度,該團(tuán)隊(duì)使用了三類評(píng)估基準(zhǔn):

1. 長(zhǎng)上下文基準(zhǔn),超過(guò)100K token;中等長(zhǎng)上下文基準(zhǔn),低於32K token;

3. 短上下文基準(zhǔn),低於4K token。

如果下游任務(wù)可以使用 RAG,就會(huì)使用 RAG。

結(jié)果

該團(tuán)隊(duì)首先進(jìn)行了基於合成數(shù)據(jù)的 Needle in a Haystack(大海撈針)測(cè)試,然後測(cè)試了模型的真實(shí)世界長(zhǎng)上下文理解和 RAG 能力。

1. 大海撈針測(cè)試

Llama3-ChatQA-2-70B 能否在文本之海中找到目標(biāo)針?這是一個(gè)常用於測(cè)試 LLM 長(zhǎng)上下文能力的合成任務(wù),可看作是在評(píng)估 LLM 的閾值水準(zhǔn)。圖 1 展示了新模型在 128K token 中的表現(xiàn),可以看到新模型的準(zhǔn)確度達(dá)到了 100%。此測(cè)試證實(shí)新模型具有堪稱完美的長(zhǎng)上下文檢索能力。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K2. 超過(guò) 100K token 的長(zhǎng)上下文評(píng)估

在來(lái)自 InfiniteBench 的真實(shí)世界任務(wù)上,該團(tuán)隊(duì)評(píng)估了模型在上下文長(zhǎng)度超過(guò) 100K token 時(shí)的性能表現(xiàn)。結(jié)果見(jiàn)表 2。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K可以看到,新模型的表現(xiàn)優(yōu)於許多當(dāng)前最佳模型,例如GPT4-Turbo-2024-04-09 (33.16)、GPT4-1106 preview (28.23)、Llama-3-70B-Instruct -Gradient-262k (32.57) 和Claude 2 (33.96)。此外,新模型的成績(jī)也已經(jīng)非常接近 Qwen2-72B-Instruct 得到的最高分?jǐn)?shù) 34.88。整體來(lái)看,英偉達(dá)的這個(gè)新模型頗具競(jìng)爭(zhēng)力。

3. token 數(shù)在 32K 以內(nèi)的中等長(zhǎng)上下文評(píng)估

表 3 給出了上下文的 token 數(shù)在 32K 以內(nèi)時(shí)各模型的性能表現(xiàn)。

可以看到,GPT-4-Turbo-2024-04-09 的分?jǐn)?shù)最高,為 51.93。新模型的分?jǐn)?shù)為 47.37,比 Llama-3-70B-Instruct-Gradient-262k 高,但低於 Qwen2-72B-Instruct。原因可能是 Qwen2-72B-Instruct 的預(yù)訓(xùn)練大量使用了 32K token,而團(tuán)隊(duì)使用的持續(xù)預(yù)訓(xùn)練語(yǔ)料庫(kù)小得多。此外,他們還發(fā)現(xiàn)所有 RAG 解決方案的表現(xiàn)都遜於長(zhǎng)上下文解決方案,這表明所有這些當(dāng)前最佳的長(zhǎng)上下文 LLM 都可以在其上下文視窗內(nèi)處理 32K token。

4. ChatRAG Bench:token 數(shù)低於 4K 的短上下文評(píng)估

在 ChatRAG Bench 上,該團(tuán)隊(duì)評(píng)估了模型在上下文長(zhǎng)度少於 4K token 時(shí)的性能表現(xiàn),見(jiàn)表 4。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

新模型的平均分?jǐn)?shù)為 54.81。儘管這個(gè)成績(jī)不如 Llama3-ChatQA-1.5-70B,但依然優(yōu)於 GPT-4-Turbo-2024-04-09 和 Qwen2-72B-Instruct。這證明了一點(diǎn):將短上下文模型擴(kuò)展成長(zhǎng)上下文模型是有代價(jià)的。這也引出了一個(gè)值得探索的研究方向:如何進(jìn)一步擴(kuò)展上下文視窗同時(shí)又不影響其在短上下文任務(wù)上的表現(xiàn)?

5. 對(duì)比 RAG 與長(zhǎng)上下文

表 5 和表 6 比較了使用不同的上下文長(zhǎng)度時(shí),RAG 與長(zhǎng)上下文解決方案的表現(xiàn)。當(dāng)序列長(zhǎng)度超過(guò) 100K 時(shí),僅報(bào)告了 En.QA 和 En.MC 的平均分?jǐn)?shù),因?yàn)?RAG 設(shè)定無(wú)法直接用於 En.Sum 和 En.Dia。

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K

可以看到,當(dāng)下游任務(wù)的序列長(zhǎng)度低於 32K 時(shí),新提出的長(zhǎng)上下文解決方案優(yōu)於 RAG。這意味著使用 RAG 可以節(jié)省成本,但準(zhǔn)確度會(huì)下降。

另一方面,當(dāng)上下文長(zhǎng)度超過(guò) 100K 時(shí),RAG(Llama3-ChatQA-2-70B 使用 top-5,Qwen2-72B-Instruct 使用 top-20)優(yōu)於長(zhǎng)上下文解決方案。這意味著當(dāng) token 數(shù)超過(guò) 128K 時(shí),即使當(dāng)前最佳的長(zhǎng)上下文 LLM,也可能難以實(shí)現(xiàn)有效的理解和推理。團(tuán)隊(duì)建議在這種情況下,能使用 RAG 就盡量使用 RAG,因?yàn)槠淠軒?lái)更高的準(zhǔn)確度和更低的推理成本。

以上是英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開(kāi)發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開(kāi)發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1601
29
PHP教程
1502
276
突破傳統(tǒng)缺陷檢測(cè)的界限,\'Defect Spectrum\'首次實(shí)現(xiàn)超高精度豐富語(yǔ)意的工業(yè)缺陷檢測(cè)。 突破傳統(tǒng)缺陷檢測(cè)的界限,\'Defect Spectrum\'首次實(shí)現(xiàn)超高精度豐富語(yǔ)意的工業(yè)缺陷檢測(cè)。 Jul 26, 2024 pm 05:38 PM

在現(xiàn)代製造業(yè)中,精準(zhǔn)的缺陷檢測(cè)不僅是確保產(chǎn)品品質(zhì)的關(guān)鍵,更是提升生產(chǎn)效率的核心。然而,現(xiàn)有的缺陷檢測(cè)資料集常常缺乏實(shí)際應(yīng)用所需的精確度和語(yǔ)意豐富性,導(dǎo)致模型無(wú)法辨識(shí)特定的缺陷類別或位置。為了解決這個(gè)難題,由香港科技大學(xué)廣州和思謀科技組成的頂尖研究團(tuán)隊(duì),創(chuàng)新地開(kāi)發(fā)了「DefectSpectrum」資料集,為工業(yè)缺陷提供了詳盡、語(yǔ)義豐富的大規(guī)模標(biāo)註。如表一所示,相較於其他工業(yè)資料集,「DefectSpectrum」資料集提供了最多的缺陷標(biāo)註(5438張缺陷樣本),最細(xì)緻的缺陷分類(125個(gè)缺陷類別

英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K 英偉達(dá)對(duì)話模式ChatQA進(jìn)化到2.0版本,上下文長(zhǎng)度提到128K Jul 26, 2024 am 08:40 AM

開(kāi)放LLM社群正是百花齊放、競(jìng)相爭(zhēng)鳴的時(shí)代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1等許多表現(xiàn)優(yōu)良的模型。但是,相較於以GPT-4-Turbo為代表的專有大模型,開(kāi)放模型在許多領(lǐng)域仍有明顯差距。在通用模型之外,也有一些專精關(guān)鍵領(lǐng)域的開(kāi)放模型已被開(kāi)發(fā)出來(lái),例如用於程式設(shè)計(jì)和數(shù)學(xué)的DeepSeek-Coder-V2、用於視覺(jué)-語(yǔ)言任務(wù)的InternVL

數(shù)百萬(wàn)晶體資料訓(xùn)練,解決晶體學(xué)相位問(wèn)題,深度學(xué)習(xí)方法PhAI登Science 數(shù)百萬(wàn)晶體資料訓(xùn)練,解決晶體學(xué)相位問(wèn)題,深度學(xué)習(xí)方法PhAI登Science Aug 08, 2024 pm 09:22 PM

編輯|KX時(shí)至今日,晶體學(xué)所測(cè)定的結(jié)構(gòu)細(xì)節(jié)和精度,從簡(jiǎn)單的金屬到大型膜蛋白,是任何其他方法都無(wú)法比擬的。然而,最大的挑戰(zhàn)——所謂的相位問(wèn)題,仍然是從實(shí)驗(yàn)確定的振幅中檢索相位資訊。丹麥哥本哈根大學(xué)研究人員,開(kāi)發(fā)了一種解決晶體相問(wèn)題的深度學(xué)習(xí)方法PhAI,利用數(shù)百萬(wàn)人工晶體結(jié)構(gòu)及其相應(yīng)的合成衍射數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),可以產(chǎn)生準(zhǔn)確的電子密度圖。研究表明,這種基於深度學(xué)習(xí)的從頭算結(jié)構(gòu)解決方案方法,可以以僅2埃的分辨率解決相位問(wèn)題,該分辨率僅相當(dāng)於原子分辨率可用數(shù)據(jù)的10%到20%,而傳統(tǒng)的從頭算方

GoogleAI拿下IMO奧數(shù)銀牌,數(shù)學(xué)推理模型AlphaProof面世,強(qiáng)化學(xué)習(xí) is so back GoogleAI拿下IMO奧數(shù)銀牌,數(shù)學(xué)推理模型AlphaProof面世,強(qiáng)化學(xué)習(xí) is so back Jul 26, 2024 pm 02:40 PM

對(duì)AI來(lái)說(shuō),奧數(shù)不再是問(wèn)題了。本週四,GoogleDeepMind的人工智慧完成了一項(xiàng)壯舉:用AI做出了今年國(guó)際數(shù)學(xué)奧林匹克競(jìng)賽IMO的真題,並且距拿金牌僅一步之遙。上週剛結(jié)束的IMO競(jìng)賽共有六道賽題,涉及代數(shù)、組合學(xué)、幾何和數(shù)論。谷歌提出的混合AI系統(tǒng)做對(duì)了四道,獲得28分,達(dá)到了銀牌水準(zhǔn)。本月初,UCLA終身教授陶哲軒剛剛宣傳了百萬(wàn)美元獎(jiǎng)金的AI數(shù)學(xué)奧林匹克競(jìng)賽(AIMO進(jìn)步獎(jiǎng)),沒(méi)想到7月還沒(méi)過(guò),AI的做題水平就進(jìn)步到了這種水平。 IMO上同步做題,做對(duì)了最難題IMO是歷史最悠久、規(guī)模最大、最負(fù)

為大模型提供全新科學(xué)複雜問(wèn)答基準(zhǔn)與評(píng)估體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)共同推出SciQAG框架 為大模型提供全新科學(xué)複雜問(wèn)答基準(zhǔn)與評(píng)估體系,UNSW、阿貢、芝加哥大學(xué)等多家機(jī)構(gòu)共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問(wèn)答(QA)資料集在推動(dòng)自然語(yǔ)言處理(NLP)研究中發(fā)揮著至關(guān)重要的作用。高品質(zhì)QA資料集不僅可以用於微調(diào)模型,也可以有效評(píng)估大語(yǔ)言模型(LLM)的能力,尤其是針對(duì)科學(xué)知識(shí)的理解和推理能力。儘管目前已有許多科學(xué)QA數(shù)據(jù)集,涵蓋了醫(yī)學(xué)、化學(xué)、生物等領(lǐng)域,但這些數(shù)據(jù)集仍有一些不足之處。其一,資料形式較為單一,大多數(shù)為多項(xiàng)選擇題(multiple-choicequestions),它們易於進(jìn)行評(píng)估,但限制了模型的答案選擇範(fàn)圍,無(wú)法充分測(cè)試模型的科學(xué)問(wèn)題解答能力。相比之下,開(kāi)放式問(wèn)答

PRO | 為什麼基於 MoE 的大模型更值得關(guān)注? PRO | 為什麼基於 MoE 的大模型更值得關(guān)注? Aug 07, 2024 pm 07:08 PM

2023年,幾乎AI的每個(gè)領(lǐng)域都在以前所未有的速度進(jìn)化,同時(shí),AI也不斷地推動(dòng)著具身智慧、自動(dòng)駕駛等關(guān)鍵賽道的技術(shù)邊界。在多模態(tài)趨勢(shì)下,Transformer作為AI大模型主流架構(gòu)的局面是否會(huì)撼動(dòng)?為何探索基於MoE(專家混合)架構(gòu)的大模型成為業(yè)界新趨勢(shì)?大型視覺(jué)模型(LVM)能否成為通用視覺(jué)的新突破? ……我們從過(guò)去的半年發(fā)布的2023年本站PRO會(huì)員通訊中,挑選了10份針對(duì)以上領(lǐng)域技術(shù)趨勢(shì)、產(chǎn)業(yè)變革進(jìn)行深入剖析的專題解讀,助您在新的一年裡為大展宏圖做好準(zhǔn)備。本篇解讀來(lái)自2023年Week50

準(zhǔn)確率達(dá)60.8%,浙大基於Transformer的化學(xué)逆合成預(yù)測(cè)模型,登Nature子刊 準(zhǔn)確率達(dá)60.8%,浙大基於Transformer的化學(xué)逆合成預(yù)測(cè)模型,登Nature子刊 Aug 06, 2024 pm 07:34 PM

編輯|KX逆合成是藥物發(fā)現(xiàn)和有機(jī)合成中的關(guān)鍵任務(wù),AI越來(lái)越多地用於加快這一過(guò)程。現(xiàn)有AI方法性能不盡人意,多樣性有限。在實(shí)踐中,化學(xué)反應(yīng)通常會(huì)引起局部分子變化,反應(yīng)物和產(chǎn)物之間存在很大重疊。受此啟發(fā),浙江大學(xué)侯廷軍團(tuán)隊(duì)提出將單步逆合成預(yù)測(cè)重新定義為分子串編輯任務(wù),迭代細(xì)化目標(biāo)分子串以產(chǎn)生前驅(qū)化合物。並提出了基於編輯的逆合成模型EditRetro,該模型可以實(shí)現(xiàn)高品質(zhì)和多樣化的預(yù)測(cè)。大量實(shí)驗(yàn)表明,模型在標(biāo)準(zhǔn)基準(zhǔn)資料集USPTO-50?K上取得了出色的性能,top-1準(zhǔn)確率達(dá)到60.8%。

SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預(yù)測(cè)AI方法,首次結(jié)合分子表面訊息 SOTA性能,廈大多模態(tài)蛋白質(zhì)-配體親和力預(yù)測(cè)AI方法,首次結(jié)合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發(fā)領(lǐng)域,準(zhǔn)確有效地預(yù)測(cè)蛋白質(zhì)與配體的結(jié)合親和力對(duì)於藥物篩選和優(yōu)化至關(guān)重要。然而,目前的研究並沒(méi)有考慮到分子表面訊息在蛋白質(zhì)-配體相互作用中的重要作用?;洞?,來(lái)自廈門大學(xué)的研究人員提出了一種新穎的多模態(tài)特徵提?。∕FE)框架,該框架首次結(jié)合了蛋白質(zhì)表面、3D結(jié)構(gòu)和序列的信息,並使用交叉注意機(jī)制進(jìn)行不同模態(tài)之間的特徵對(duì)齊。實(shí)驗(yàn)結(jié)果表明,該方法在預(yù)測(cè)蛋白質(zhì)-配體結(jié)合親和力方面取得了最先進(jìn)的性能。此外,消融研究證明了該框架內(nèi)蛋白質(zhì)表面資訊和多模態(tài)特徵對(duì)齊的有效性和必要性。相關(guān)研究以「S

See all articles