千鋒教育-做有情懷、有良心、有品質的職業教育機構
一.特征向量和距離
1.人工智能技術綜述
1.1 人工智能和機器學習的關系
1.2 人工智能主要方向剖析
1.3 人工智能學習路線規劃
2.特征提取:物理世界的數學描述
2.1 onehot和multihot
2.2 圖像特征和邊緣提取
2.3 連續特征的正規化和分段
2.4 行為類特征的向量化
2.5 社交類特征的向量化
2.6 離散特征的向量化
3.向量之間的距離計算以及使用場景
3.1 歐氏距離、海明距離、閔可夫斯基距離
3.2 內積距離
3.3 雅克比相似度和雅克比距離
3.5 各類距離的比較以及優缺點
3.6 numpy入門以及距離計算
二.線性回歸
1.線性回歸概述
1.1線性回歸的定義
1.2線性回歸的適用場景
1.3嶺回歸
2.模型評估
2.1線性回歸的評測方法
2.2訓練集和測試集
2.3模型的泛化能力
3.模型學習方法
3.1損失函數MSE和最小二乘法
3.2導數的定義和計算
3.4 極大值和極小值
3.5梯度下降法
3.6 從幾何角度理解梯度下降法
4.sklearn框架
4.1 sklearn框架的介紹、安裝方法
4.2 使用sklearn完成線性回歸模型
5.深入理解線性回歸
5.1多項式回歸解決非線性問題
5.2 特征冗余和噪音特征
5.3 線性回歸和正態分布
三.邏輯回歸
1.分類任務和概率
1.1多分類和二分類
1.2 分類模型和概率模型
2.邏輯回歸
2.1感知器及其局限性
2.2 Sigmoid函數詳解
2.3 邏輯回歸在分類問題上的應用
2.4 模型的正則化
3.梯度下降法
3.1 Sigmoid函數的導數推導
3.2 邏輯回歸的損失函數KL距離
3.3 梯度下降法在邏輯回歸上的應用
3.4 學習因子的設定
3.5 正則項在邏輯回歸中的必要性
4.邏輯回歸實戰
4.1 使用sklearn實現邏輯回歸
4.2 使用TensorFlow實現邏輯回歸
4.4 邏輯回歸調參指南
5.損失函數的選擇和對比
5.1KL距離和MSE的區別
5.2 KL距離背后的統計學原理
5.3 KL距離和交叉熵
6.邏輯回歸的統計學原理
6.1最大似然估計和KL損失函數
6.2.邏輯回歸和正態分布
7.模型的正則化
7.1 L1正則和L2正則的異同
7.2正則化和過擬合
7.3 從概率的角度理解正則化
7.4 sklearn如何進行正則化的實現
8.分類模型的評價指標
8.1 正確率,準確率和召回率
8.2 AUC和ROC
8.3 各類分類指標的優點、局限性
8.4 代碼實戰各類指標的計算
四、無監督模型
1.Kmeans模型
1.1聚類的目的和意義
1.2 Kmeans模型詳解以及參數學習
1.3使用sklearn進行Kmeans模型實戰
1.4 Kmeans模型的缺點
1.5 Kmeans各類改進版本
1.6 EM算法詳解
1.7 Kmeans算法和邏輯回歸
2.隱式主題模型-LDA
2.1 LDA模型的原理
2.2 LDA模型的求解
2.3 LDA主題模型實戰:推薦系統中的應用
2.4 LDA模型背后的概率意義
2.5.吉布斯采樣
2.6 LDA模型代碼實戰
五、因子分解模型-FM模型
1.特征交叉原理和FM模型
1.1 特征交叉的原理和意義
1.2特征交叉的數學實現
1.3通過內積簡化特征交叉
1.4 FM模型原理詳解
1.5 FM模型和邏輯回歸異同解析
2.FM模型的數學推導
2.1 FM模型在數學上的化簡
2.2梯度下降法在FM模型中的應用
3.使用python進行FM模型實戰
六、深度神經網絡
1.深層模型的意義
1.1特征變換和特征提取
1.2 激活函數的意義和必要性
1.3 深層模型架構
1.4 softmax函數和多分類
1.5 深度學習和神經網絡
1.6 shortcut結構詳解
2.常見激活函數
2.1 sigmoid激活函數詳解
2.2 tanh激活函數詳解
2.3 relu激活函數詳解
2.4 relu函數的改進版本詳解
3.softmax函數和多分類
3.1 softmax函數的推導和onehot向量的關系
3.2 softmax的導數推導
3.3多分類和多標簽
4.深度學習實戰
4.1主流機器學習框架平臺介紹
4.2 TensorFlow和keras框架詳解
4.3如何調用自己的GPU
4.4深度學習實戰:用keras搭建自己的神經網絡
七、深度學習進階
1.梯度下降法
1.1 矩陣和向量的求導法則
1.2 矩陣和向量的鏈式法則
1.3 梯度下降法在深層神經網絡中的推導和應用
1.4 梯度消失和梯度爆炸產生原因分析以及解決方案
1.5 鞍點、局部極小、以及解決方案
2. 權重初始化
2.1權重的對稱性及其危害
2.2 隨機初始化權重的方法
3. 梯度下降法及其改進
3.1傳統梯度下降法的缺點
3.2 SGD算法
3.3動量法
3.4 RMSprop算法
3.5 Adam算法
3.6改進型梯度下降法在keras中的實現
4.輸入的標準化
4.1 標準化的意義
4.2 批標準化以及keras的實現
4.3 層標準化以及keras的實現
5.深度學習的正則化
5.1 L1正則和L2正則在深度學習中的應用
5.2 dropout以及keras實現
八、序列神經網絡
1.循環神經網絡
1.1時序模型以及使用場景
1.2 RNN模型以及keras的實現
1.3 LSTM模型以及keras的實現
1.3.GRU模型以及keras的實現
1.4.時序模型代碼實戰
2.Attention神經網絡
2.1.seq2seq架構
2.2 Attention模型
2.3 常見注意力算法
2.4 self-attention
2.5多抽頭Attention
2.6 transformer架構
2.7 attention模型在圖像中的應用
九、自然語言處理
1.word2vec和fasttext
1.1.自然語言處理和語言模型
1.2.詞向量模型word2vec
1.3.skipgram和cbow構建方法
1.4.霍夫曼樹和負采樣
1.5.fasttext模型和文本分類
1.6.子詞模型
1.7 word2vec和fasttext的代碼實戰
2.大模型之Bert
2.1.NLP的龍骨模型-Bert
2.2.Bert模型的訓練方法
2.3.Bert模型的應用
2.4.Bert模型實戰
2.5.Bert常見的改進方法
十、計算機視覺
1.深入理解卷積層
1.1 卷積的物理意義
1.2 卷積層的操作方法
1.3 卷積層步長和窗口選取技巧
1.4卷積層的keras實現
1.5.常見卷積改進方法
2.池化層
2.1 最大池化
2.2 均值池化
2.3 池化層的keras實現
3.圖像分類
3.1.圖像分類常用數據集介紹:coco、imagenet 等
3.2 多層卷積神經網絡在圖像分類中的應用
4.卷積在文本分類中的應用
4.1 卷積在文本特征提取的方法
4.2 textCNN詳解
一. 推薦系統整體架構
1.內容生產和內容理解
1.1 推薦系統的內容生產
1.2.內容審核和內容打標
1.3.內容有效期預測
2.內容分發
2.1 召回階段的目的、意義和設計思想
2.2 排序階段的目的、意義和設計思想
3.推薦系統的評價指標
3.1推薦系統的商業價值
3.2 日活、CTR、人均時長等指標分析
二. 召回模型
1.基于行為類的召回
1.1 協同過濾:itemCF
1.2 協同過濾:UserCF
1.3 隨機游走模型:node2vec
1.4 行為類召回的優勢、缺點總結
2.基于內容類的召回
1.1 基于文本embedding的召回系統
2.2 基于標簽體系的召回系統
2.3 基于up主的召回系統
2.4 微軟DSSM雙塔召回模型
2.5 最近鄰快速檢索工具annoy和faiss
3.YoutubeDNN召回系統
3.1 用戶行為特征、自然屬性特征的提取,預處理和歸一化
3.2 Item特征提取,預處理和歸一化
3.3 負采樣:NCE和sampledSoftmax
3.4 youtubeDNN召回系統
4.交叉特征召回
4.1 FM模型在召回系統中的應用
4.2 FFM模型在召回系統中的應用
4.3 矩陣分解SVD在召回系統中的應用
三. 排序系統
1.CTR預估
1.1 排序指標精講
1.2 AUC和userAUC
2. Deep & Cross
2.1 模型結構精講
2.2 特征交叉詳解
2.3 使用keras實現Deep & Cross模型
3.xDeepFM
3.1 模型結構精講
3.2 CIN模塊
3.3 使用keras實現xDeepFM模型
4.邏輯回歸在排序模型中的應用
4.1 邏輯回歸精講
4.2 詳解大規模特征工程
4.3 邏輯回歸在百度鳳巢系統
5.阿里巴巴DIN模型詳解
5.1 Base模型詳解
5.2 DIN模型詳解
5.3 DIEN模型詳解
5.4 DSIN模型詳解
6.阿里CVR預估模型ESMM
6.1 CVR預估的場景和挑戰
6.2 ESMM模型詳解
6.3 隱式學習pCVR
6.4 樣本選擇(BBS)問題的解決方案
6.5 樣本稀疏(DS)問題的解決方案
四. 推薦系統指標體系構建
1.AB測試
1.1 流量分桶的原理
1.2 AB測試置信度計算
1.3 基于分層的AB測試
2.指標評價體系
2.1 推薦系統的商業價值
2.2 ctr提升的方法
2.3 人均時長提升方法
五. 微信視頻號推薦實戰
1.特征提取
1.1 文本內容特征提取
1.2 短視頻內容embedding抽取
1.3 短視頻畫面embedding抽取
1.4 短視頻多模態embedding抽取
2.推薦系統核心代碼實戰
2.1 召回系統代碼實戰
2.2 排序系統代碼實戰
一. 序列神經網絡
1.循環神經網絡
1.1 時序模型以及使用場景
1.2 RNN模型以及keras的實現
1.3 LSTM模型以及keras的實現
1.3 GRU模型以及keras的實現
1.4 時序模型代碼實戰
2.Attention神經網絡
2.1 seq2seq架構
2.2 Attention模型
2.3 常見注意力算法
2.4 self-attention
2.5 多抽頭Attention
2.6 transformer架構
2.7 attention模型在圖像中的應用
二. 自然語言處理入門
1.word2vec和fasttext
1.1 自然語言處理和語言模型
1.2 詞向量模型word2vec
1.3 skipgram和cbow構建方法
1.4 霍夫曼樹和負采樣
1.5 Facebook 的fasttext模型和文本分類
1.6 子詞模型
1.7 word2vec和fasttext的代碼實戰
2.卷積在文本分類中的應用
2.1 卷積在文本特征提取的方法
2.2 textCNN詳解
三. 大規模預訓練模型
1.Google Bert模型精講
1.1 NLP的龍骨模型-Bert
1.2 Bert模型的訓練方法
1.3 Bert模型的應用
1.4 Bert模型實戰
2.Bert模型改進
2.1 Elmo模型精講
2.2 GPT1.0~GPT2.0精講模型
2.3 XLNet模型精講
2.4 RoBERT模型精講
2.5 ALBert模型精講
2.6 T5模型精講
四. 中文自然語言處理
1.百度ernie模型
1.1 paddle框架學習
1.2 知識圖譜構建
1.3 ernie大模型訓練精講
1.4 ernie大模型使用場景精講
2.中文分詞精講
1.1 序列標注與深度學習
1.2 HMM模型精講
1.3 CRF模型精講
1.4 CRF和LSTM結合精講
1.5 中文分詞代碼實戰
3.新詞發現
1.1 信息熵和大數據
1.2 中文信息熵計算
1.3 基于信息熵的中文新詞發現
五. 自然語言處理項目精講
1.京東客服:智能聊天機器人
1.1 智能聊天機器人整體框架
1.2 文本匹配模型
1.3 深度語義理解模型
1.4 Attention和語義匹配
1.5 度量學習和語義快速檢索
2.騰訊新聞:內容平臺的文本分類
2.1 文本分類任務:多標簽和多分類
2.2 情感分析實戰
2.3 垃圾過濾實戰
2.4 樣本不均衡和解決方案
3.騰訊百萬級實體知識圖譜精講
3.1 結構化數據的抽取
3.2 neo4j數據庫介紹和常見查詢語句
3.3 transE模型及其改進
3.4 大規模圖隨機游走算法
3.5 知識圖譜的落地場景和實際應用
4.騰訊新聞內容理解-長文本標簽抽取實戰
4.1 標簽抽取和關鍵詞抽取
4.2 基于textrank的標簽抽取
4.3 異質標簽的歸一化
4.4 基于雙塔模型的標簽抽取
4.5 基于分類模型的標簽抽取
5.新浪輿情系統-文本摘要抽取
5.1 抽取式摘要抽取
5.2 基于Bert的摘要抽取
5.3 基于大模型的生成式摘要