亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文,可謂名至實歸。

自然語言處理四大頂會之一NAACL2019將于6月2日-7日在美國明尼阿波利斯市舉行。

據(jù)官方統(tǒng)計,NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長論文投稿1198篇,短論文757篇。

今天,大會揭曉了本屆會議的最佳論文獎項,包括最佳專題論文、最佳可解釋NLP論文、最佳長論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長論文獎項,可謂名至實歸。

最佳長論文:谷歌BERT模型

最佳長論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團隊在去年10月發(fā)布的BERT模型,在機器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人的成績:全部兩個衡量指標上全面超越人類!并且還在11種不同NLP測試中創(chuàng)出最佳成績,包括將GLUE基準推至80.4%(絕對改進7.6%),MultiNLI準確度達到86.7%(絕對改進率5.6%)等。

自BERT模型發(fā)布以來,許多基于BERT的改進模型不斷在各種NLP任務刷新成績。毫不夸張地說,BERT模型開啟了NLP的新時代!

首先來看下谷歌AI團隊做的這篇論文。

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯(lián)合調節(jié)所有層中的上下文來預先訓練深度雙向表示。因此,預訓練的BERT表示可以通過一個額外的輸出層進行微調,適用于廣泛任務的最先進模型的構建,比如問答任務和語言推理,無需針對具體任務做大幅架構修改。

論文作者認為現(xiàn)有的技術嚴重制約了預訓練表示的能力。其主要局限在于標準語言模型是單向的,這使得在模型的預訓練中可以使用的架構類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來改進基于架構微調的方法。

BERT提出一種新的預訓練目標:遮蔽語言模型(maskedlanguagemodel,MLM),來克服上文提到的單向性局限。MLM的靈感來自Cloze任務(Taylor,1953)。MLM隨機遮蔽模型輸入中的一些token,目標在于僅基于遮蔽詞的語境來預測其原始詞匯id。

與從左到右的語言模型預訓練不同,MLM目標允許表征融合左右兩側的語境,從而預訓練一個深度雙向Transformer。除了遮蔽語言模型之外,本文作者還引入了一個“下一句預測”(nextsentenceprediction)任務,可以和MLM共同預訓練文本對的表示。

預訓練模型架構的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經過獨立訓練的從左到右和從右到左LSTM的串聯(lián)來生成下游任務的特征。三個模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項紀錄,全面超越人類!

最佳專題論文:減輕機器學習系統(tǒng)的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來越多的研究提出了減輕機器學習系統(tǒng)偏見的方法。這些方法通常依賴于對受保護屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個重要的挑戰(zhàn):

(1)受保護的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時考慮多個受保護的屬性及其交集。

在減輕職業(yè)分類偏見的背景下,我們提出了一種方法,用于阻隔個人真實職業(yè)的預測概率與他們名字的單詞嵌入之間的相關性。

這種方法利用了詞嵌入中編碼的社會偏見,從而無需訪問受保護屬性。最重要的是,這種方法只要求在訓練時訪問個人姓名,而不是在部署時。

我們使用了一個大規(guī)模的在線傳記數(shù)據(jù)集來評估我們提出的方法的兩種變體。我們發(fā)現(xiàn),這兩種變體同時減少了種族和性別偏見,而分類器的總體真實陽性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數(shù)學框架建模人類語言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數(shù)學框架對人類語言進行建模。

這個框架利用了量子物理中精心設計的數(shù)學公式,將不同的語言單元統(tǒng)一在一個復值向量空間中,例如,將單詞作為量子態(tài)的粒子,句子作為混合系統(tǒng)。我們構建了一個復值網(wǎng)絡來實現(xiàn)該框架的語義匹配。

由于具有良好約束的復值組件,網(wǎng)絡允許對顯式物理意義進行解釋。所提出的復值匹配網(wǎng)絡(complex-valuednetworkformatching,CNM)在兩個基準問題回答(QA)數(shù)據(jù)集上具有與強大的CNN和RNN基線相當?shù)男阅堋?/p>

最佳短論文:視覺模態(tài)對機器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關于多模態(tài)機器翻譯(MMT)的研究表明,視覺模態(tài)要么是不必要的,要么僅僅是有幫助的。

我們假設這是在任務的惟一可用數(shù)據(jù)集(Multi30K)中使用的非常簡單、簡短和重復的語句的結果,其中源文本被呈現(xiàn)為上下文。

然而,在一般情況下,我們認為可以將視覺信息和文本信息結合起來進行實際的翻譯。

在本文中,我們通過系統(tǒng)的分析探討了視覺模態(tài)對最先進的MMT模型的貢獻。我們的結果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當前的觀點相矛盾,即要么是因為圖像特征的質量,要么是因為它們集成到模型中的方式,MMT模型忽視了視覺模態(tài)。

最佳資源論文:常識性問答的新數(shù)據(jù)集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個問題時,除了特定的上下文外,人們往往會利用他們豐富的世界知識。

最近的工作主要集中在回答一些有關文件或背景的問題,很少需要一般常識背景。

為了研究基于先驗知識的問答任務,我們提出了CommonsenseQA:一個具有挑戰(zhàn)性的用于常識性問答的新數(shù)據(jù)集。

為了獲取超出關聯(lián)之外的常識,我們從ConceptNet(Speeretal.,2017)中提取了與單個源概念具有相同語義關系的多個目標概念。參與者被要求撰寫多項選擇題,其中要提到源概念,并依次區(qū)分每個目標概念。這鼓勵參與人員創(chuàng)建具有復雜語義的問題,這些問題通常需要先驗知識。

我們通過這個過程創(chuàng)建了12247個問題,并用大量強大的基線說明了我們任務的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準確率,遠低于人類表現(xiàn),即89%的準確度。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6242

    瀏覽量

    110100
  • 語言模型
    +關注

    關注

    0

    文章

    568

    瀏覽量

    11238
  • 自然語言處理

    關注

    1

    文章

    629

    瀏覽量

    14533

原文標題:自然語言處理頂會NAACL最佳論文出爐!谷歌BERT名至實歸獲最佳長論文

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    思必馳與上海交大聯(lián)合實驗室五篇論文入選NeurIPS 2025

    近日,機器學習與計算神經科學領域全球頂級學術頂級會議NeurIPS 2025公布論文錄用結果,思必馳-上海交大聯(lián)合實驗室共有5篇論文被收錄。
    的頭像 發(fā)表于 10-23 15:24 ?406次閱讀
    思必馳與上海交大聯(lián)合實驗室五篇<b class='flag-5'>論文</b>入選NeurIPS 2025

    智芯公司榮獲ICEPT 2025優(yōu)秀論文

    近日,第26屆電子封裝技術國際會議(ICEPT 2025)在上海舉行。智芯公司提交的論文“WBLGA SiP High-Reliability and High-Thermal
    的頭像 發(fā)表于 08-26 11:22 ?846次閱讀

    思必馳與上海交大聯(lián)合實驗室研究成果入選兩大頂級會議

    近日,計算語言學與自然語言處理領域全球頂級會議ACL 2025及語音研究領域旗艦會議INTERS
    的頭像 發(fā)表于 07-11 16:24 ?628次閱讀
    思必馳與上海交大聯(lián)合實驗室研究成果入選兩大頂級<b class='flag-5'>會議</b>

    格靈深瞳六篇論文入選ICCV 2025

    近日,國際頂級會議ICCV 2025(計算機視覺國際大會)公布論文錄用結果,格靈深瞳團隊共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?1201次閱讀

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文

    》,成功榮獲第52屆計算機體系結構國際研討(ISCA)最佳論文獎。作為國內學術機構在該會議上的首次獲獎成果,其核心創(chuàng)新聚焦于邊緣側大語言
    的頭像 發(fā)表于 07-05 11:21 ?1718次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國際計算機視覺大會)公布論文錄用結果,理想汽車共有8篇論文入選,其中5篇來自自動駕駛團隊,3篇來自基座模型團隊。ICCV作為計算機視覺領域的頂級學術
    的頭像 發(fā)表于 07-03 13:58 ?738次閱讀

    后摩智能四篇論文入選三大國際

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際
    的頭像 發(fā)表于 05-29 15:37 ?944次閱讀

    云知聲四篇論文入選自然語言處理ACL 2025

    結果正式公布。云知聲在此次國際學術盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?957次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b><b class='flag-5'>會</b>ACL 2025

    美報告:中國芯片研究論文全球領先

    據(jù)新華社報道,美國喬治敦大學“新興技術觀察項目(ETO)”3日在其網(wǎng)站發(fā)布一份報告說,2018年至2023年間,在全球發(fā)表的芯片設計和制造相關論文中,中國研究人員的論文數(shù)量遠超其他國家,中國在高被
    的頭像 發(fā)表于 03-05 14:32 ?1653次閱讀

    后摩智能5篇論文入選國際

    2025年伊始,后摩智能在三大國際(AAAI、ICLR、DAC)中斬獲佳績,共有5篇論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?1091次閱讀
    后摩智能5篇<b class='flag-5'>論文</b>入選國際<b class='flag-5'>頂</b><b class='flag-5'>會</b>

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數(shù)據(jù)中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供一種強大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識,從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?2446次閱讀

    語音識別與自然語言處理的關系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個重要的技術支柱。語音識別技術使得機器能夠理解人類的語音,而自然語言處理則讓機器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?2052次閱讀

    什么是LLM?LLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數(shù)據(jù)訓練,使得
    的頭像 發(fā)表于 11-19 15:32 ?4308次閱讀

    ASR與自然語言處理的結合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領域的兩個重要分支,它們在許多應用中緊密結合,共同構成了自然語言理解和生成的技術體系
    的頭像 發(fā)表于 11-18 15:19 ?1373次閱讀

    自然語言處理與機器學習的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側重點和應用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1976次閱讀