175| 5
|
wy微專業(yè)-AI工程師-自然語(yǔ)言處理 |
wy微專業(yè)-AI工程師-自然語(yǔ)言處理
一:導(dǎo)論:基礎(chǔ)知識(shí)與中英文文本操作 開課時(shí)間: 11月22日10:00 – 12月8日20:00課程主頁(yè) 第1章 自然語(yǔ)言處理基礎(chǔ) 1.1 本章概述 1.2文本數(shù)據(jù)、字、詞、term 1.3 字符串處理 1.4 模式匹配與正則表達(dá)式 1.5 【實(shí)戰(zhàn)】字符串基本處理與正則表達(dá)式文本匹配與替換 1.6 本章小結(jié) 第2章 英文文本處理與解析 2.1 本章概述 2.2 英文文本解析任務(wù)介紹:分詞、去停用詞、提取詞干等 2.3 【實(shí)戰(zhàn)】NLTK工具庫(kù)英文文本處理案例 2.4 【實(shí)戰(zhàn)】spaCy工具庫(kù)英文文本處理案例 2.5 【實(shí)戰(zhàn)】基于python的英文文本相似度比對(duì) 2.6 【實(shí)戰(zhàn)】簡(jiǎn)易文本情感分析器構(gòu)建 2.7 本章小結(jié) 第3章 中文文本處理與解析 3.1 本章概述 3.2 中文文本處理任務(wù)介紹:分詞、去停用詞、N-gram 3.3英文文本解析任務(wù)介紹:詞性分析、依賴分析、命名實(shí)體識(shí)別、關(guān)鍵詞抽取 3.4 jieba工具庫(kù)介紹 3.5 【實(shí)戰(zhàn)】python中文文本清洗、處理與可視化 3.6 【實(shí)戰(zhàn)】python新聞網(wǎng)站關(guān)鍵詞抽取 3.7 本章小結(jié) 二:語(yǔ)言模型:通順度模型與智能糾錯(cuò) 開課時(shí)間: 11月22日10:00 – 12月22日20:00課程主頁(yè) 第1章 語(yǔ)言模型與應(yīng)用 1.1本章概述 1.2 假設(shè)性獨(dú)立與聯(lián)合概率鏈規(guī)則 1.3 N-gram語(yǔ)言模型 1.4 N-gram應(yīng)用:詞性標(biāo)注、中文分詞、機(jī)器翻譯與語(yǔ)音識(shí)別 1.5 本章小結(jié) 第2章 統(tǒng)計(jì)語(yǔ)言模型與神經(jīng)語(yǔ)言模型構(gòu)建 2.1 本章概述 2.2 基于統(tǒng)計(jì)的語(yǔ)言模型構(gòu)建 2.3【實(shí)戰(zhàn)】KenLM工具庫(kù)使用及語(yǔ)言模型生成 2.3 基于RNN的神經(jīng)語(yǔ)言模型 2.4【實(shí)戰(zhàn)】基于KenLM的簡(jiǎn)易拼寫糾錯(cuò) 2.5【實(shí)戰(zhàn)】基于RNN的神經(jīng)語(yǔ)言模型 2.6【實(shí)戰(zhàn)】基于pytorch的語(yǔ)言模型訓(xùn)練 2.7 本章小結(jié) 三:文本表示:詞向量構(gòu)建與分布表示 開課時(shí)間: 12月23日10:00 – 12月29日20:00課程主頁(yè) 第1章 文本詞與句的表示 第1章文本詞與句的表示 1.1 本章概述 1.2 文本表示概述 1.3 文本離散表示:詞袋模型與TF-IDF 1.4 文本分布式表示:word2vec 1.5 【實(shí)戰(zhàn)】python中文文本向量化表示 1.6 【實(shí)戰(zhàn)】基于gensim的中文文本詞向量訓(xùn)練與相似度匹配 1.7 本章小結(jié) 第2章文本表示進(jìn)階 2.1本章概述 2.2 預(yù)訓(xùn)練在圖像領(lǐng)域的應(yīng)用 2.3 ELMO:基于上下文的word-embedding 2.4 GPT:Transformer建模句子信息 2.5 BERT:預(yù)訓(xùn)練雙向Transformer 2.6 基于BERT進(jìn)行fine-tuning 2.7本章小結(jié) 四:文本分類:情感分析與內(nèi)容分類 開課時(shí)間: 12月23日10:00 – 1月5日20:00課程主頁(yè) 第1章文本分類機(jī)器學(xué)習(xí)模型與實(shí)戰(zhàn) 1.1 本章概述 1.2 樸素貝葉斯模型與中文文本分類 1.3 邏輯回歸/SVM與文本分類 1.4 facebook fasttext原理與操作 1.5 【實(shí)戰(zhàn)】python中文新聞分類 1.6 【實(shí)戰(zhàn)】基于fasttext的文本情感分析 1.7 本章小結(jié) 第2章文本分類深度學(xué)習(xí)模型與實(shí)戰(zhàn) 2.1 本章概述 2.2 詞嵌入與fine-tuning 2.3 基于卷積神經(jīng)網(wǎng)絡(luò)的文本分類 2.4 基于LSTM的文本分類 2.5 Transformer/self-attention介紹 2.6【實(shí)戰(zhàn)】使用tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)完成新聞分類 2.7【實(shí)戰(zhàn)】使用tensorflow構(gòu)建LSTM完成影評(píng)褒貶分析模型 2.8 本章小結(jié) 五:主題模型:文本主題抽取與表示 開課時(shí)間: 12月23日10:00 – 1月12日20:00課程主頁(yè) 第1章文本主題抽取與表示 1.1 本章概述 1.2 基于tf-idf與text-rank的主題詞抽取 1.3 監(jiān)督學(xué)習(xí)與文本打標(biāo)簽 1.4 無監(jiān)督學(xué)習(xí)與LDA主題模型 1.5【實(shí)戰(zhàn)】基于python的中文關(guān)鍵詞抽取與可視化 1.6【實(shí)戰(zhàn)】基于LDA的新聞主題分析與可視化呈現(xiàn) 1.7 本章小結(jié) 六:seq2seq模型:文本序列映射學(xué)習(xí) 開課時(shí)間: 12月23日10:00 – 1月19日20:00課程主頁(yè) 第1章序列到序列模型與應(yīng)用 1.1 本章概述 1.2 從RNN到seq2seq模型 1.3 編碼解碼模型 1.4 seq2seq模型詳解 1.5 注意力(attention)機(jī)制 1.6 【實(shí)戰(zhàn)】tensorflow seq2seq模型使用方法詳解 1.7 【實(shí)戰(zhàn)】基于seq2seq的文本摘要生成實(shí)現(xiàn) 1.8 本章小結(jié) 七:文本生成:寫詩(shī)作詞對(duì)對(duì)聯(lián) 開課時(shí)間: 1月20日10:00 – 1月26日20:00課程主頁(yè) 第1章文本生成與自動(dòng)創(chuàng)作 1.1 本章概述 1.2 基于RNN/LSTM的語(yǔ)言模型回顧 1.3 基于語(yǔ)言模型的文本生成原理 1.4 【實(shí)戰(zhàn)】基于LSTM的唐詩(shī)生成器 1.5 基于seq2seq的文本序列生成原理 1.6 【實(shí)戰(zhàn)】基于seq2seq的對(duì)聯(lián)生成器 1.7 本章小結(jié) 八:機(jī)器翻譯:雙語(yǔ)翻譯 開課時(shí)間: 1月20日10:00 – 2月9日20:00課程主頁(yè) 第1章 統(tǒng)計(jì)機(jī)器翻譯 第1章統(tǒng)計(jì)機(jī)器翻譯 1.1 本章概述 1.2 詞、句子和語(yǔ)料與基本概率論知識(shí) 1.3 翻譯模型與語(yǔ)言模型 1.4 解碼與beam-search 1.5 翻譯系統(tǒng)評(píng)估 1.6【實(shí)戰(zhàn)】moses統(tǒng)計(jì)翻譯系統(tǒng)實(shí)戰(zhàn) 1.7 本章小結(jié) 第2章基于seq2seq的機(jī)器翻譯模型 2.1 本章概述 2.2 基礎(chǔ)seq2seq編解碼模型機(jī)器翻譯應(yīng)用 2.3 基于注意力機(jī)制的seq2seq機(jī)器翻譯優(yōu)化 2.4【實(shí)戰(zhàn)】基于keras完成的基礎(chǔ)seq2seq機(jī)器翻譯模型 2.5【實(shí)戰(zhàn)】基于tensorflow的google版seq2seq機(jī)器翻譯模型 2.6 本章小結(jié) 第3章facebook基于CNN的機(jī)器翻譯模型 3.1 本章概述 3.2 基于CNN的翻譯系統(tǒng)模型結(jié)構(gòu) 3.3 使用CNN完成神經(jīng)翻譯系統(tǒng)的tricks 3.4【實(shí)戰(zhàn)】facebook CNN機(jī)器翻譯系統(tǒng)代碼解析 3.5 本章小結(jié) 第4章來自Google的Transformer模型 4.1 本章概述 4.2 來自Google的Transformer模型 4.3 Transformer模型的訓(xùn)練細(xì)節(jié) 4.4【實(shí)戰(zhàn)】Transformer源碼解析 4.5 本章小結(jié) 九:聊天機(jī)器人:機(jī)器客服與語(yǔ)音助手 開課時(shí)間: 1月20日10:00 – 2月16日20:00課程主頁(yè) 第1章 基于內(nèi)容匹配的聊天機(jī)器人 1.1 本章概述 1.2 聊天機(jī)器人基本知識(shí)綜述 1.3 基于內(nèi)容匹配的聊天機(jī)器人 1.4 【實(shí)戰(zhàn)】基于深度學(xué)習(xí)匹配的聊天機(jī)器人tensorflow實(shí)現(xiàn) 1.5 基于深度學(xué)習(xí)匹配的聊天機(jī)器人pytorch實(shí)現(xiàn) 1.6 本章小結(jié) 第2章 基于seq2seq的聊天機(jī)器人 2.1 本章概述 2.2 聊天機(jī)器人場(chǎng)景與seq2seq模型回顧 2.3 數(shù)據(jù)處理與準(zhǔn)備 2.4 基于tensorflow seq2seq的chatbot完整實(shí)現(xiàn) 2.5 拓展:基于transformer的chatbot實(shí)現(xiàn) 2.6 本章小結(jié) 十:視覺文本任務(wù):看圖說話 開課時(shí)間: 2月17日10:00 – 2月23日20:00課程主頁(yè) 第1章 看圖說話問題與實(shí)現(xiàn) 1.1 本章概述 1.2“看圖說話”問題介紹 1.3 簡(jiǎn)易CNN+RNN編碼解碼模型完成圖片短文本描述原理 1.4 注意力模型與“看圖說話”優(yōu)化 1.5【實(shí)戰(zhàn)】基于CNN+RNN的編解碼“看圖說話”與beam-search優(yōu)化 1.6【實(shí)戰(zhàn)】基于attention model的“看圖說話”實(shí)現(xiàn) 1.7 本章小結(jié) 第2章 視覺問答機(jī)器人(VQA)原理與實(shí)現(xiàn) 2.1 本章概述 2.2 視覺問答機(jī)器人問題介紹 2.3 基于圖像信息和文本信息抽取匹配的VQA實(shí)現(xiàn)方案 2.4 基于注意力(attention)的深度學(xué)習(xí)VQA實(shí)現(xiàn)方案 2.5【實(shí)戰(zhàn)】使用keras完成CNN+RNN基礎(chǔ)VQA模型 2.6【實(shí)戰(zhàn)】基于attention的深度學(xué)習(xí)VQA模型實(shí)現(xiàn) 2.7 本章小結(jié) 十一:文本相似度計(jì)算與文本匹配問題 開課時(shí)間: 2月17日10:00 – 3月1日20:00課程主頁(yè) 第1章 文本相似度問題與應(yīng)用場(chǎng)景 1.1 本章概述 1.2 文本相似度問題 1.3 傳統(tǒng)文本相似度計(jì)算方式:編輯距離、simhash、word2vec 1.4 【實(shí)戰(zhàn)】編輯距離計(jì)算python實(shí)現(xiàn) 1.5 【實(shí)戰(zhàn)】基于simhash的相似文本判斷 1.6 【實(shí)戰(zhàn)】詞向量Word Averaging 1.7 本章小結(jié) 第2章基于深度學(xué)習(xí)的文本語(yǔ)義匹配 2.1 本章概述 2.2 基于深度學(xué)習(xí)的句子相似度模型 2.3 DSSM(Deep Structured Semantic Models)模型詳解 2.4 DRMM(Deep Relevance Matching Model)模型詳解 2.5【實(shí)戰(zhàn)】基于LSTM的監(jiān)督學(xué)習(xí)語(yǔ)義表達(dá)抽取 2.6【實(shí)戰(zhàn)】基于DSSM的問題語(yǔ)義相似度匹配案例 2.7【實(shí)戰(zhàn)】基于DRMM的問答匹配案例 2.8 本章小結(jié)
購(gòu)買主題
本主題需向作者支付 10 資源幣 才能瀏覽
| |
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號(hào)-1 )
GMT+8, 2025-6-19 01:28 , Processed in 0.062372 second(s), 17 queries , MemCached On.