主頁 > 知識庫 > NVIDIA在語言理解方面取得突破,有望實現(xiàn)實時會話AI

NVIDIA在語言理解方面取得突破,有望實現(xiàn)實時會話AI

熱門標(biāo)簽:網(wǎng)站排名優(yōu)化 地方門戶網(wǎng)站 AI電銷 鐵路電話系統(tǒng) 服務(wù)外包 呼叫中心市場需求 百度競價排名 Linux服務(wù)器
  BERT的訓(xùn)練時間實現(xiàn)創(chuàng)紀(jì)錄的53分鐘,推理時間縮短至2毫秒,使得Microsoft等公司能夠在大型應(yīng)用程序中采用先進的語言理解技術(shù)
  NVIDIA日前宣布在語言理解方面取得了突破性成果,令企業(yè)能夠以更加自然的方式,使用實時會話AI與客戶進行互動。
  BERT是當(dāng)前最先的AI語言模型之一,NVIDIA借助其AI平臺率先將BERT的訓(xùn)練時間控制在一小時之內(nèi),并以僅比2毫秒多一點的時間完成了AI推理。這種具有突破性的性能水平能夠讓開發(fā)者將先進的語言理解技術(shù)應(yīng)用于大型應(yīng)用程序之上,為全球數(shù)億消費者提供服務(wù)。
  早期采用NVIDIA性能提升技術(shù)的公司中包括Microsoft,平安科技以及全球范圍內(nèi)一些最具創(chuàng)新性的初創(chuàng)公司。借助于NVIDIA平臺,這些公司為客戶開發(fā)了高度直觀、響應(yīng)即時且基于語言的服務(wù)。
  有限的會話AI服務(wù)已經(jīng)存在多年。但由于此前無法實現(xiàn)超大型AI模型的實時部署,聊天機器人、智能個人助理和搜索引擎的理解能力很難達到與人類相當(dāng)?shù)乃?。然而,NVIDIA通過在其AI平臺中添加關(guān)鍵性的優(yōu)化功能,將此問題迎刃而解,在AI訓(xùn)練和推理方面都創(chuàng)造了新的速度紀(jì)錄,并構(gòu)建了迄今為止同類型中最大的語言模型。
  NVIDIA深度學(xué)習(xí)應(yīng)用研究副總裁Bryan Catanzaro表示:“對于適用于自然語言的AI而言,大型語言模型正在為其帶來革新。它們正在幫助我們解決那些最為棘手的語言問題,讓我們距離實現(xiàn)真正的會話AI更進了一步。NVIDIA所取得的突破性工作成果加速了這些模型的創(chuàng)建,讓企業(yè)能夠打造全新的高質(zhì)量服務(wù),以前所未有的方式服務(wù)客戶,為其帶來愉快的客戶體驗。”
  最快的訓(xùn)練速度、最短的推理時間和最大的模型規(guī)模
  預(yù)計未來幾年,基于自然語言理解的AI服務(wù)將呈指數(shù)級增長。根據(jù)Juniper Research的研究表明,在未來4年中,僅數(shù)字語音助手的數(shù)量就將有望從25億攀升到80億。此外,據(jù)Gartner預(yù)計,到2021年,15%的客服互動都將完全通過AI完成,相比于2017年,將增長4倍。
  在引領(lǐng)這個新時代的過程中,NVIDIA對其AI平臺進行了多項關(guān)鍵性優(yōu)化,從而創(chuàng)造了三項新的自然語言理解性能記錄:
  最快的訓(xùn)練速度:BERT(Bidirectional Encoder Representationsfrom Transformers)是世界上最先進的AI語言模型之一。NVIDIA使用搭載了92臺NVIDIA DGX-2H系統(tǒng)的NVIDIA DGX SuperPOD運行該模型的大型版本,憑借1472個NVIDIA V100 GPU的強大性能,NVIDIA將BERT-Large的典型訓(xùn)練時間從幾天縮短至僅僅53分鐘。此外,NVIDIA還在單獨一臺NVIDIA DGX-2系統(tǒng)上執(zhí)行了BERT-Large模型的訓(xùn)練任務(wù),用時也僅為2.8天,這充分體現(xiàn)了NVIDIA GPU在會話AI方面的可擴展性。
  最短的推理時間:借助于運行了NVIDIA TensorRT的NVIDIA T4 GPU,NVIDIA執(zhí)行BERT-BaseSQuAD數(shù)據(jù)集的推理任務(wù),用時僅為2.2毫秒,遠低于許多實時應(yīng)用程序所需的10毫秒處理閾值,與使用高度優(yōu)化的CPU代碼時所測得的40多毫秒相比,有著顯著改進。
  最大的模型規(guī)模:開發(fā)者們對于更大模型的需求正在日益增長,NVIDIA研究團隊基于Transformer構(gòu)建并訓(xùn)練了世界上最大的語言模型,Transformer是BERT的技術(shù)構(gòu)件,也正被越來越多的其他自然語言AI模型所使用。NVIDIA定制的模型包含83億個參數(shù),是BERT-Large的24倍。
  生態(tài)系統(tǒng)的采用情況
  全球數(shù)以百計的開發(fā)者都已使用NVIDIA的AI平臺,來推進他們自己的語言理解研究并創(chuàng)建新的服務(wù)。
  Microsoft Bing正在利用其AzureAI平臺和NVIDIA技術(shù)的強大功能來運行BERT,并使搜索結(jié)果更為準(zhǔn)確。
  Microsoft Bing部門項目經(jīng)理Rangan Majumder說:“Microsoft Bing依靠最先進的AI模型和計算平臺,為我們的客戶提供最好的全球搜索體驗。通過與NVIDIA密切合作,Bing使用NVIDIA GPU(AzureAI基礎(chǔ)設(shè)施的一部分)進一步優(yōu)化了熱門自然語言模型BERT的推理功能,從而大幅提升了Bing于去年部署的排名搜索的搜索質(zhì)量。與基于CPU的平臺相比,使用Azure NVIDIA GPU進行推理,延遲降低了一半,吞吐量提升了5倍,這使得Bing能夠為全球所有客戶提供更加專業(yè)、更具成本效益且更實時的搜索體驗。”
  在中國,基于GPU加速的BERT已經(jīng)陸續(xù)在搜索引擎、廣告系統(tǒng)、內(nèi)容推薦、智能客服等實際應(yīng)用中發(fā)揮重要作用。
  平安集團——世界500強第29位,金融機構(gòu)第4位——旗下平安科技,覆蓋金融、醫(yī)療、汽車、房產(chǎn)、智慧城市五大生態(tài)圈,其人工智能解決方案服務(wù)超過5億用戶。目前平安科技已經(jīng)將基于Occam平臺訓(xùn)練加速的BERT部署到在線客服問答系統(tǒng)上,未來會在更多的應(yīng)用場景中使用。
  平安集團首席科學(xué)家肖京博士表示,“平安科技率先采用先進AutoML技術(shù)打造一鍵式開發(fā)Occam平臺,在NVIDIA研發(fā)的Fast Transformer的助力下,Occam以零算法基礎(chǔ)和少量數(shù)據(jù)即可實現(xiàn)訓(xùn)練高精度機器學(xué)習(xí)模型為核心,結(jié)合SaaS、PaaS與微服務(wù)架構(gòu)的思想,為各行各業(yè)提出適應(yīng)性的解決方案。區(qū)別于其他的AutoML平臺,Occam平臺更具精準(zhǔn)高效的自動模型訓(xùn)練能力,在保證模型精度的情況下,能夠縮短模型訓(xùn)練的研發(fā)周期;同時在訓(xùn)練模型的推理能力上更勝一籌,因此在最具挑戰(zhàn)的自然語言處理技術(shù)領(lǐng)域,平安科技憑借Occam平臺能夠獨占鰲頭,為營銷、運營、風(fēng)控、決策、服務(wù)、預(yù)測等各種智能場景業(yè)務(wù)提供支持。”
  “我們用了NVIDIA最新的Faster Transformer改造的PA-Occam-BERT。實現(xiàn)了在NVIDIAGPU上相較CPU系統(tǒng),10倍以上的延遲提升,和20倍以上吞吐提升,正因如此,平安科技能夠以最短的時間,最低的成本訓(xùn)練出最精準(zhǔn)、最具推理能力的PA-Occam-BERT模型,在Stanford DAWN Bench SQuAD 2.0問答推理延遲競賽中獲得冠軍,這一成績讓我們有信心未來在更多業(yè)務(wù)線上部署基于GPU的PA-Occam-BERT,實現(xiàn)技術(shù)的快速落地。”平安科技副總工程師、Occam平臺技術(shù)總監(jiān)王健宗博士表示。
  NVIDIA初創(chuàng)加速計劃中也有多家初創(chuàng)公司(例如:Clinc、PassageAI和Recordsure等)正在使用NVIDIA的AI平臺為銀行、汽車制造商、零售商、醫(yī)療服務(wù)提供商、旅行社和酒店等客戶構(gòu)建先進的會話AI服務(wù)。
  Clinc已通過客戶名冊,使全球3000多萬人可以使用NVIDIAGPU支持的會話AI解決方案。這些客戶包括領(lǐng)先的汽車制造商、醫(yī)療健康組織和一些全球頂級金融機構(gòu),例如:Barclays、USAA和土耳其最大的銀行Isbank。
  Clinc首席執(zhí)行官Jason Mars說:“Clinc領(lǐng)先的AI平臺能夠理解復(fù)雜的問題,并將其轉(zhuǎn)化為功能強大、切實可行的洞察,以服務(wù)于這些全球領(lǐng)先的品牌。借助NVIDIAAI平臺提供的突破性性能,我們能夠突破會話AI的界限并提供革命性服務(wù),讓我們的客戶能夠借助于先進的技術(shù),以更強大、更有意義的方式與客戶進行互動。”
  目前提供的優(yōu)化
  NVIDIA已為開發(fā)者提供了多項用于實現(xiàn)會話AI突破的軟件優(yōu)化:
  • 使用PyTorch的NVIDIA GitHub BERT訓(xùn)練代碼
  • 適用于TensorFlow的NGC模型腳本和檢查點
  • GitHub上TensorRT經(jīng)過優(yōu)化的BERT樣本
  • 速度更快的Transformer:C++API、TensorRT插件和TensorFlow OP
  • MXNetGluon-NLP,帶面向BERT的AMP支持(訓(xùn)練和推理)
  • AIHub上TensorRT經(jīng)過優(yōu)化的BERT Jupyter Notebook
  • Megatron-LM:用于訓(xùn)練大型Transformer模型的PyTorch代碼
  • NVIDIA所采用的BERT是熱門存儲庫HuggingFace中的一個優(yōu)化版本

標(biāo)簽:崇左 銅川 仙桃 湖南 蘭州 湘潭 衡水 黃山

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《NVIDIA在語言理解方面取得突破,有望實現(xiàn)實時會話AI》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266