99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP 2019 Highlights 給NLP從業(yè)者的一個(gè)參考

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2020-09-25 16:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語(yǔ)言處理專(zhuān)家elvis在medium博客上發(fā)表了關(guān)于NLP在2019年的亮點(diǎn)總結(jié)。對(duì)于自然語(yǔ)言處理(NLP)領(lǐng)域而言,2019年是令人印象深刻的一年。在這篇博客文章中,我想重點(diǎn)介紹一些我在2019年遇到的與機(jī)器學(xué)習(xí)和NLP相關(guān)的最重要的故事。我將主要關(guān)注NLP,但我還將重點(diǎn)介紹一些與AI相關(guān)的有趣故事。標(biāo)題沒(méi)有特別的順序。故事可能包括論文,工程工作,年度報(bào)告,教育資源的發(fā)布等。

論文刊物

ML / NLP創(chuàng)造力與社會(huì)

ML / NLP工具和數(shù)據(jù)集

文章和博客文章

人工智能倫理

ML / NLP教育

Google AI引入了ALBERT,它是BERT 的精簡(jiǎn)版本,用于自監(jiān)督學(xué)習(xí)上下文語(yǔ)言表示。主要改進(jìn)是減少冗余并更有效地分配模型的容量。該方法提高了12個(gè)NLP任務(wù)的最新性能。

Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut:ALBERT: ALiteBERTforSelf-supervised LearningofLanguageRepresentations.ICLR 2020.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186
arxiv.org/abs/1810.0480

機(jī)器在比賽中的表現(xiàn)(類(lèi)似sat的閱讀理解)。隨機(jī)猜測(cè)的基線得分為25.0。最高分是95.0分。

今年早些時(shí)候,NVIDIA的研究人員發(fā)表了一篇頗受歡迎的論文(Coined StyleGAN)(arxiv.org/pdf/1812.0494),提出了一種從樣式轉(zhuǎn)換中采用的GAN替代生成器架構(gòu)。這是一項(xiàng)后續(xù)工作(arxiv.org/pdf/1912.0495),著重于改進(jìn),例如重新設(shè)計(jì)生成器歸一化過(guò)程。

Tero Karras, Samuli Laine, Timo Aila:A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排顯示目標(biāo)圖像,下排顯示合成圖像

我今年最喜歡的論文之一是code2seq(code2seq.org/),它是一種從結(jié)構(gòu)化代碼表示中生成自然語(yǔ)言序列的方法。這樣的研究可以讓位于諸如自動(dòng)代碼摘要和文檔之類(lèi)的應(yīng)用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav:code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有沒(méi)有想過(guò)是否有可能為生物醫(yī)學(xué)文本挖掘訓(xùn)練生物醫(yī)學(xué)語(yǔ)言模型?答案是BioBERT(arxiv.org/abs/1901.0874),這是一種從生物醫(yī)學(xué)文獻(xiàn)中提取重要信息的情境化方法。

Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang:BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT發(fā)布后,F(xiàn)acebook研究人員發(fā)布了RoBERTa,該版本引入了新的優(yōu)化方法來(lái)改進(jìn)BERT,并在各種NLP基準(zhǔn)上產(chǎn)生了最新的結(jié)果。(ai.facebook.com/blog/-t)

Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov:RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

來(lái)自Facebook AI的研究人員最近還發(fā)布了一種基于全注意力關(guān)注層的方法,用于提高Transformer語(yǔ)言模型的效率。從這個(gè)研究小組更多的工作包括方法來(lái)教如何使用自然語(yǔ)言規(guī)劃的AI系統(tǒng)。

Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin:Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解釋性仍然是機(jī)器學(xué)習(xí)和NLP中的重要主題。集大成者!可解釋人工智能(XAI)研究最新進(jìn)展萬(wàn)字綜述論文: 概念體系機(jī)遇和挑戰(zhàn)—構(gòu)建負(fù)責(zé)任的人工智能

Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera:Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.CoRR abs/1910.10045 (2019)

Sebastian Ruder發(fā)表了有關(guān)自然語(yǔ)言處理的神經(jīng)遷移學(xué)習(xí)的論文

(ruder.io/thesis/)。

Ruder2019Neural,Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人員開(kāi)發(fā)了一種在對(duì)話中進(jìn)行情感識(shí)別的方法(arxiv.org/abs/1910.0498),可以為情感對(duì)話的產(chǎn)生鋪平道路。另一個(gè)相關(guān)的工作涉及一種稱(chēng)為DialogueGCN(aclweb.org/anthology/D1)的GNN方法,以檢測(cè)對(duì)話中的情緒。該研究論文還提供了代碼實(shí)現(xiàn)。

Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea:Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling.CoRR abs/1910.04980 (2019)

Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh:DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum團(tuán)隊(duì)在《自然》雜志上發(fā)表了一篇論文(nature.com/articles/s41),他們聲稱(chēng)自己開(kāi)發(fā)了一種量子計(jì)算機(jī),其速度比世界上最大的超級(jí)計(jì)算機(jī)還要快。在此處詳細(xì)了解他們的實(shí)驗(yàn)。

Arute, F., Arya, K., Babbush, R. et al.Quantum supremacy using a programmable superconducting processor.Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)需要大量改進(jìn)的領(lǐng)域之一是可解釋性。本論文(arxiv.org/abs/1908.0462)探討了在語(yǔ)言模型的上下文explainability一個(gè)可靠的方法關(guān)注的局限性。

Sarah Wiegreffe, Yuval Pinter:Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神經(jīng)邏輯機(jī)器是一種神經(jīng)符號(hào)網(wǎng)絡(luò)體系結(jié)構(gòu)(arxiv.org/abs/1904.1169),能夠很好地在歸納學(xué)習(xí)和邏輯推理方面做得很好。該模型在諸如排序數(shù)組和查找最短路徑之類(lèi)的任務(wù)上表現(xiàn)出色。

Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神經(jīng)邏輯機(jī)器架構(gòu)

這是一篇將Transformer語(yǔ)言模型應(yīng)用于提取和抽象神經(jīng)類(lèi)文檔摘要的論文(arxiv.org/abs/1909.0318)。

Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:OnExtractiveandAbstractiveNeuralDocumentSummarizationwithTransformerLanguageModels.CoRRabs/1909.03186 (2019)

研究人員開(kāi)發(fā)了一種方法,側(cè)重于使用比較來(lái)建立和訓(xùn)練ML模型。這種技術(shù)不需要大量的特征標(biāo)簽對(duì),而是將圖像與以前看到的圖像進(jìn)行比較,以確定圖像是否屬于某個(gè)特定的標(biāo)簽。

blog.ml.cmu.edu/2019/03

Nelson Liu等人發(fā)表了一篇論文,討論了預(yù)先訓(xùn)練的語(yǔ)境設(shè)定者(如BERT和ELMo)獲取的語(yǔ)言知識(shí)的類(lèi)型。

arxiv.org/abs/1903.0885

Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一種前訓(xùn)練方法,它在20個(gè)任務(wù)上都比BERT有改進(jìn)。我寫(xiě)了一個(gè)總結(jié),這偉大的工作在這里。

arxiv.org/abs/1906.0823

Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le:XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

這項(xiàng)來(lái)自DeepMind的工作報(bào)告了一項(xiàng)廣泛的實(shí)證調(diào)查的結(jié)果,該調(diào)查旨在評(píng)估應(yīng)用于各種任務(wù)的語(yǔ)言理解模型。這種廣泛的分析對(duì)于更好地理解語(yǔ)言模型所捕獲的內(nèi)容以提高它們的效率是很重要的。

arxiv.org/abs/1901.1137

Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kocisky, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom:Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一個(gè)簡(jiǎn)單而健壯的框架,用于建模視覺(jué)和語(yǔ)言任務(wù),包括VQA和Flickr30K等。這種方法利用了一組Transformer層,并結(jié)合了self-attention來(lái)對(duì)齊文本中的元素和圖像中的區(qū)域。

arxiv.org/abs/1908.0355

Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang:VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

這項(xiàng)工作提供了一個(gè)詳細(xì)的分析比較NLP轉(zhuǎn)移學(xué)習(xí)方法和指導(dǎo)NLP的從業(yè)者。

arxiv.org/abs/1903.0598

Matthew E. Peters, Sebastian Ruder, Noah A. Smith:To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks.RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的實(shí)現(xiàn),能夠產(chǎn)生高質(zhì)量、流暢的表示。

arxiv.org/abs/1902.0409

Facebook的研究人員發(fā)表了XLM的代碼(PyTorch實(shí)現(xiàn)),這是一個(gè)跨語(yǔ)言模型的預(yù)培訓(xùn)模型。

github.com/facebookrese

本文全面分析了強(qiáng)化學(xué)習(xí)算法在神經(jīng)機(jī)器翻譯中的應(yīng)用。

cl.uni-heidelberg.de/st

這篇發(fā)表在JAIR上的調(diào)查論文對(duì)跨語(yǔ)言單詞嵌入模型的培訓(xùn)、評(píng)估和使用進(jìn)行了全面的概述。

jair.org/index.php/jair

Gradient發(fā)表了一篇優(yōu)秀的文章,詳細(xì)闡述了強(qiáng)化學(xué)習(xí)目前的局限性,并提供了一條潛在的分級(jí)強(qiáng)化學(xué)習(xí)的前進(jìn)道路。一些人發(fā)布了一套優(yōu)秀的教程來(lái)開(kāi)始強(qiáng)化學(xué)習(xí)。

thegradient.pub/the-pro

這篇簡(jiǎn)要介紹了上下文詞表示。

arxiv.org/abs/1902.0600

責(zé)任編輯:xj

原文標(biāo)題:【前沿】28篇標(biāo)志性論文見(jiàn)證「自然語(yǔ)言處理NLP」2019->2020年度亮點(diǎn)進(jìn)展

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14150
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22619

原文標(biāo)題:【前沿】28篇標(biāo)志性論文見(jiàn)證「自然語(yǔ)言處理NLP」2019->2020年度亮點(diǎn)進(jìn)展

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    網(wǎng)絡(luò)安全從業(yè)者入門(mén)指南

    所有網(wǎng)絡(luò)安全專(zhuān)業(yè)和各部門(mén)人員都有個(gè)共同的總體目標(biāo),就是要降低網(wǎng)絡(luò)風(fēng)險(xiǎn)。但是,對(duì)于工業(yè)、醫(yī)療保健、其他以網(wǎng)絡(luò)化物理系統(tǒng) (CPS) 為運(yùn)營(yíng)基礎(chǔ)的關(guān)鍵基礎(chǔ)設(shè)施領(lǐng)域的企業(yè)來(lái)說(shuō),這目標(biāo)正在逐步消失。原因之
    發(fā)表于 06-20 15:56 ?1次下載

    同行:我所認(rèn)識(shí)的女性AI從業(yè)者

    技術(shù)的世界或許山高水遠(yuǎn),但她的身邊并非空無(wú)
    的頭像 發(fā)表于 03-10 15:56 ?1625次閱讀
    同行:我所認(rèn)識(shí)的女性AI<b class='flag-5'>從業(yè)者</b>

    助推數(shù)字化影視進(jìn)程:影視從業(yè)者的得力助手

    發(fā)展快車(chē)道 影視數(shù)智化創(chuàng)造全新體驗(yàn),不僅是場(chǎng)技術(shù)的革命,更是次藝術(shù)的飛躍。以人工智能、大數(shù)據(jù)等前沿?cái)?shù)字化技術(shù),深度滲透產(chǎn)品創(chuàng)作、傳播路徑和審美體驗(yàn),強(qiáng)化影視生產(chǎn)各要素的聯(lián)系,為影視藝術(shù)的發(fā)展開(kāi)辟了全新的可
    的頭像 發(fā)表于 02-10 09:16 ?540次閱讀

    【「大話芯片制造」閱讀體驗(yàn)】+內(nèi)容概述,適讀人群

    書(shū)后,對(duì)芯片制造的復(fù)雜性和精妙性有了全新的認(rèn)識(shí)。 第章,展示了半導(dǎo)體工廠的布局,選址與組織部門(mén)。我們可以知道半導(dǎo)體從業(yè)者自身的個(gè)定位與分工。對(duì)半導(dǎo)體行業(yè)的特殊性,半導(dǎo)體
    發(fā)表于 12-21 16:32

    學(xué)嵌入式好找工作嗎?

    時(shí)刻充滿(mǎn)新鮮感和挑戰(zhàn)性。 當(dāng)然,嵌入式作為個(gè)職業(yè)發(fā)展方向也并非毫無(wú)挑戰(zhàn),它要求從業(yè)者有較強(qiáng)的學(xué)習(xí)能力,要不斷跟進(jìn)硬件更新?lián)Q代和軟件技術(shù)迭代,并且前期學(xué)習(xí)曲線相對(duì)較陡,需要花費(fèi)大量時(shí)間精力去掌握眾多
    發(fā)表于 12-16 15:43

    貝思科爾ReviewHub在線評(píng)審工具開(kāi)放限時(shí)免費(fèi)試用名額,快速領(lǐng)??!

    限時(shí)免費(fèi)試用,旨在為廣大電子設(shè)計(jì)從業(yè)者帶來(lái)前所未有的設(shè)計(jì)體驗(yàn)與變革。貝思科爾希望能夠推動(dòng)整個(gè)行業(yè)的技術(shù)進(jìn)步與創(chuàng)新發(fā)展,為廣大電子設(shè)計(jì)從業(yè)者提供更有力的支持和幫助,
    的頭像 發(fā)表于 12-03 03:00 ?59次閱讀
    貝思科爾ReviewHub在線評(píng)審工具開(kāi)放限時(shí)免費(fèi)試用名額,快速領(lǐng)??!

    貝思科爾DX-BST原理圖智能工具,限時(shí)免費(fèi)試用開(kāi)啟,不容錯(cuò)過(guò)!

    限時(shí)免費(fèi)試用,旨在為廣大電子設(shè)計(jì)從業(yè)者帶來(lái)前所未有的設(shè)計(jì)體驗(yàn)與變革。貝思科爾希望能夠推動(dòng)整個(gè)行業(yè)的技術(shù)進(jìn)步與創(chuàng)新發(fā)展,為廣大電子設(shè)計(jì)從業(yè)者提供更有力的支持和幫助,
    的頭像 發(fā)表于 12-03 01:07 ?49次閱讀
    貝思科爾DX-BST原理圖智能工具,限時(shí)免費(fèi)試用開(kāi)啟,不容錯(cuò)過(guò)!

    ASR與自然語(yǔ)言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語(yǔ)音識(shí)別)與自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語(yǔ)言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1023次閱讀

    自然語(yǔ)言處理的未來(lái)發(fā)展趨勢(shì)

    隨著技術(shù)的進(jìn)步,自然語(yǔ)言處理(NLP)已經(jīng)成為人工智能領(lǐng)域的個(gè)重要分支。NLP的目標(biāo)是使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言,這不僅涉及到語(yǔ)言的表層形式,還包括語(yǔ)言的深層含義。隨著大數(shù)
    的頭像 發(fā)表于 11-11 10:37 ?1720次閱讀

    NLP技術(shù)在聊天機(jī)器人中的作用

    的第一個(gè)作用是幫助聊天機(jī)器人理解用戶(hù)的意圖。聊天機(jī)器人需要能夠識(shí)別用戶(hù)的問(wèn)題或請(qǐng)求,并將其轉(zhuǎn)化為可執(zhí)行的任務(wù)。這涉及到以下幾個(gè)步驟: 詞義消歧 :NLP技術(shù)可以幫助聊天機(jī)器人理解單詞的多種含義,并根據(jù)上下文選擇正確的解釋。 意圖識(shí)
    的頭像 發(fā)表于 11-11 10:33 ?1019次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。大型語(yǔ)言模型(LLM)是NLP領(lǐng)域的
    的頭像 發(fā)表于 11-08 09:27 ?2439次閱讀

    Llama 3 在自然語(yǔ)言處理中的優(yōu)勢(shì)

    在自然語(yǔ)言處理(NLP)的快速發(fā)展中,我們見(jiàn)證了從基于規(guī)則的系統(tǒng)到基于機(jī)器學(xué)習(xí)的模型的轉(zhuǎn)變。隨著深度學(xué)習(xí)技術(shù)的興起,NLP領(lǐng)域迎來(lái)了新的突破。Llama 3,作為個(gè)假設(shè)的先進(jìn)
    的頭像 發(fā)表于 10-27 14:22 ?727次閱讀

    如何打開(kāi)XR的三個(gè)“枷鎖”

    如果有個(gè)科技產(chǎn)品,讓科技從業(yè)者們又愛(ài)又恨的話,XR(虛擬現(xiàn)實(shí)VR、增強(qiáng)現(xiàn)實(shí)AR和混合現(xiàn)實(shí)MR)可以當(dāng)之無(wú)愧地排在第。愛(ài)的是,XR直擊人類(lèi)的信息需求。人類(lèi)獲取的信息中85%是通過(guò)視覺(jué)
    的頭像 發(fā)表于 09-29 08:01 ?974次閱讀
    如何打開(kāi)XR的三<b class='flag-5'>個(gè)</b>“枷鎖”

    【每天學(xué)點(diǎn)AI】五個(gè)階段帶你了解人工智能大模型發(fā)展史!

    20世紀(jì)50年代NLP的早期研究主要基于規(guī)則的方法,依賴(lài)于語(yǔ)言學(xué)專(zhuān)家手工編寫(xiě)的規(guī)則和詞典。這些規(guī)則通常是關(guān)于語(yǔ)法、語(yǔ)義和句法結(jié)構(gòu)的人工規(guī)則。例如個(gè)簡(jiǎn)單的陳述句通常遵循“主語(yǔ)+謂語(yǔ)+賓語(yǔ)”的結(jié)構(gòu)
    的頭像 發(fā)表于 09-25 16:51 ?1063次閱讀
    【每天學(xué)點(diǎn)AI】五<b class='flag-5'>個(gè)</b>階段帶你了解人工智能大模型發(fā)展史!

    大數(shù)據(jù)從業(yè)者必知必會(huì)的Hive SQL調(diào)優(yōu)技巧

    大數(shù)據(jù)從業(yè)者必知必會(huì)的Hive SQL調(diào)優(yōu)技巧 摘要 :在大數(shù)據(jù)領(lǐng)域中,Hive SQL被廣泛應(yīng)用于數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)查詢(xún)和分析。然而,由于數(shù)據(jù)量龐大和復(fù)雜的查詢(xún)需求,Hive SQL查詢(xún)的性能往往
    的頭像 發(fā)表于 09-24 13:30 ?691次閱讀