您現(xiàn)在的位置:首頁(yè) > 背景提升 > 自然語言處理與人工智能-大學(xué)組
驗(yàn)證碼

獲取驗(yàn)證碼

自然語言處理與人工智能【大學(xué)組】

計(jì)算機(jī)科學(xué)/NLP/人工智能

項(xiàng)目背景

“You are what you say.”語言是思維的表達(dá),思維是語言的內(nèi)容。思維和語言是人類意識(shí)的集中體現(xiàn),更是人與機(jī)器的分野。長(zhǎng)久以來,人工智能依然停留在“弱人工智能”的階段,無法等同于人類智能,核心原因在于算法無法幫助機(jī)器“理解語義邏輯”。也就是說,“人工智能如果不能使用自然語言作為知識(shí)的表示基礎(chǔ),人工智能就實(shí)現(xiàn)不了實(shí)質(zhì)的跨越。”因此,旨在讓機(jī)器以有價(jià)值的方式閱讀、解密和理解人類語言,實(shí)現(xiàn)人機(jī)互動(dòng)的自然語言處理,是人工智能、機(jī)器學(xué)習(xí)的核心研究對(duì)象,具有重要的行研價(jià)值和廣闊的發(fā)展空間。自然語言處理科學(xué)家更是高精尖科技企業(yè)爭(zhēng)相搶奪的對(duì)象。自然語言處理的具體應(yīng)用包括谷歌語音識(shí)別、科大訊飛自動(dòng)翻譯、百度自然語言處理平臺(tái)等等。


項(xiàng)目介紹

項(xiàng)目?jī)?nèi)容包括線性回歸、邏輯回歸、決策樹、SVM機(jī)器學(xué)習(xí)算法和自然語言處理中的文本分類問題。學(xué)生將深入探究Word2Vec詞向量嵌入、Doc2Vec文本向量生成、基于LSTM和其他RNN的分類算法,了解RNN模型缺陷以及基于Attention的Transformer語言模型如何彌補(bǔ)這些缺陷。學(xué)生將在項(xiàng)目結(jié)束時(shí),提交個(gè)性化研究課題項(xiàng)目報(bào)告,進(jìn)行成果展示。

個(gè)性化研究課題參考:

基于雙向LSTM語言模型的多義詞消歧

根據(jù)推文內(nèi)容語義與語言習(xí)慣分析判斷用戶所在城市

發(fā)表基于NLP的微博內(nèi)容調(diào)查報(bào)告

評(píng)估句子片段幽默程度的自注意力算法優(yōu)化


適合人群

大學(xué)生

計(jì)算機(jī)科學(xué)、人工智能、軟件工程、語言學(xué)(具備計(jì)算機(jī)科學(xué)/編程基礎(chǔ))、哲學(xué)與神經(jīng)科學(xué)(具備計(jì)算機(jī)科學(xué)/編程基礎(chǔ))等專業(yè)或者希望修讀相關(guān)專業(yè)的學(xué)生;學(xué)生需要具備初等線性代數(shù)基礎(chǔ),至少會(huì)使用一門編程語言。


導(dǎo)師介紹

帝國(guó)理工學(xué)院終身正教授

Lucia導(dǎo)師現(xiàn)任帝國(guó)理工學(xué)院自然語言處理終身正教授,是歐洲研究理事會(huì)(ERC)啟動(dòng)基金獲得者(獎(jiǎng)勵(lì)職業(yè)生涯早期杰出學(xué)者),在帝國(guó)理工學(xué)院講授自然語言處理課程,旨在糅合語言學(xué)與機(jī)器學(xué)習(xí),引導(dǎo)學(xué)生深入探究自然語言處理邏輯、技術(shù)與應(yīng)用。她的研究聚焦數(shù)據(jù)驅(qū)動(dòng)的自然語言處理,特別關(guān)注多模態(tài)、多語言語境模型、語言與視覺的交叉方向,在國(guó)際權(quán)威期刊發(fā)表論文百余篇。研究成果已在機(jī)器翻譯、Image Caption等諸多領(lǐng)域?qū)崿F(xiàn)落地。


任職學(xué)校

帝國(guó)理工學(xué)院(Imperial College London)位于英國(guó)倫敦,是一所主攻理學(xué)、工學(xué)、醫(yī)學(xué)和商學(xué)的世界頂尖公立研究型大學(xué)。帝國(guó)理工學(xué)院是世界最具創(chuàng)新力大學(xué)之一,與劍橋大學(xué)、牛津大學(xué)、倫敦大學(xué)學(xué)院、倫敦政治經(jīng)濟(jì)學(xué)院并成為“G5超級(jí)精英大學(xué)”,在2019年QS世界大學(xué)排名位列第8,英國(guó)第3。計(jì)算機(jī)科學(xué)在世界范圍內(nèi)享有盛譽(yù)。


項(xiàng)目大綱

自然語言處理初探 Introduction to natural language processing

Word2Vec模型詞嵌入 Word embeddings using the Word2Vec model

Doc2Vec: 文檔的向量化表示 Doc2Vec: vectorized representation of documents

數(shù)據(jù)驅(qū)動(dòng)的分類算法與循環(huán)神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò) Data-driven classification algorithms; recurrent neural networks and LSTM

循環(huán)神經(jīng)網(wǎng)絡(luò)的缺陷;基于Attention的Transformer模型 Drawbacks of RNNs; attention-based transformers

項(xiàng)目回顧與成果展示 Program Review and Presentation

論文輔導(dǎo) Project Deliverables Tutoring


時(shí)間安排與收獲

7周在線小組科研學(xué)習(xí)+5周論文輔導(dǎo)學(xué)習(xí) 共125課時(shí)

學(xué)術(shù)報(bào)告

優(yōu)秀學(xué)員獲主導(dǎo)師Reference Letter

EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等級(jí)別索引國(guó)際會(huì)議全文投遞與發(fā)表(可用于申請(qǐng))

結(jié)業(yè)證書

成績(jī)單


更多課程分類
驗(yàn)證碼

獲取驗(yàn)證碼