
0人評分過此書
本書內容涉及穩健的矩陣回歸模型、初等模型的解析解、面向大規模學習的隨機優化、張量分解、基於遞歸神經網路的圖像描述算法、標記分布學習及其應用,以及軟體缺陷挖掘。
楊健教授介紹了幾種全新的穩健回歸模型,包括基於核範數的穩健矩陣回歸,基於推廣冪指數分布的穩健矩陣回歸,基於核-L1範數的聯合矩陣回歸,以及基於樹結構核範數的穩健矩陣回歸。
林宙辰教授討論了若干具有解析解的初等模型,以及其在圖像處理領域的諸多成功應用。
在大規模數據的機器學習算法中,隨機近似是一種新興的技術手段。張利軍教授介紹了階段混合梯度下降、隨機臨近梯度下降,能夠有效降低學習算法的空間和時間複雜度。
張量結構往往用於刻劃數據的多源關係。徐增林教授介紹了非參非線性張量分解,能夠提高分解模型的精確度。
圖像描述是近年來有挑戰性的任務。張長水教授介紹了基於注意力的遞歸神經網路編碼器,刻畫了圖像和句子之間的編碼關係。
和圖像描述類似,大量的機器學習樣本涉及標記多義性的問題。耿新教授詳細介紹了一種新的機器學習設計法——標記分布學習,為解決標記多義性開闢了一條新途徑。
最後,黎銘副教授探討了機器學習技術在軟體缺陷挖掘中的創新應用,以及其中面臨的若干挑戰性問題。
楊健教授介紹了幾種全新的穩健回歸模型,包括基於核範數的穩健矩陣回歸,基於推廣冪指數分布的穩健矩陣回歸,基於核-L1範數的聯合矩陣回歸,以及基於樹結構核範數的穩健矩陣回歸。
林宙辰教授討論了若干具有解析解的初等模型,以及其在圖像處理領域的諸多成功應用。
在大規模數據的機器學習算法中,隨機近似是一種新興的技術手段。張利軍教授介紹了階段混合梯度下降、隨機臨近梯度下降,能夠有效降低學習算法的空間和時間複雜度。
張量結構往往用於刻劃數據的多源關係。徐增林教授介紹了非參非線性張量分解,能夠提高分解模型的精確度。
圖像描述是近年來有挑戰性的任務。張長水教授介紹了基於注意力的遞歸神經網路編碼器,刻畫了圖像和句子之間的編碼關係。
和圖像描述類似,大量的機器學習樣本涉及標記多義性的問題。耿新教授詳細介紹了一種新的機器學習設計法——標記分布學習,為解決標記多義性開闢了一條新途徑。
最後,黎銘副教授探討了機器學習技術在軟體缺陷挖掘中的創新應用,以及其中面臨的若干挑戰性問題。
- 版權訊息
- 內容簡介
- 序
- 序言
- 前言
-
1 穩健的矩陣回歸模型與方法
-
1 引言
-
2 基於核範數的穩健矩陣回歸
-
3 基於推廣冪指數分佈的穩健矩陣回歸
-
4 基於核-L1範數的聯合矩陣回歸
-
5 基於樹結構核範數的穩健矩陣回歸
-
6 結束語
-
參考文獻
-
-
2 若干低秩子空間恢復模型的閉解及其應用
-
1 引言
-
2 無噪低秩表示模型的閉解
-
2.1 應用:潛在低秩表示模型的推導
-
-
3 無噪潛在低秩模型的閉解
-
3.1 應用:提升潛在低秩表示模型的聚類性能
-
-
4 若干主要低秩模型的解之間的關係
-
4.1 解的質量的比較
-
4.2 求解速度的比較
-
-
5 閉解應用的另一個例子:仿射變換下特徵點誤匹配檢測
-
6 結束語
-
參考文獻
-
-
3 面向大規模機器學習的隨機優化
-
1 引言
-
2 相關工作
-
3 降低時間複雜度
-
3.1 研究背景
-
3.2 階段混合梯度下降
-
3.3 實驗
-
-
4 降低空間複雜度
-
4.1 研究背景
-
4.2 隨機臨近梯度下降
-
4.3 實驗
-
-
5 總結與展望
-
附錄
-
參考文獻
-
-
4 非參貝葉斯張量分解研究
-
1 引言
-
2 Tucker分解
-
3 CP分解
-
4 非參貝葉斯分解
-
4.1 InfTucker分解
-
4.2 InfTucker算法
-
4.3 實驗結果
-
-
5 結束語
-
參考文獻
-
-
5 基於遞歸神經網絡的圖像描述算法
-
1 引言
-
2 相關工作
-
3 模型與方法
-
3.1 基於多尺度局部色塊的圖像表示
-
3.2 基於注意力的遞歸神經網絡解碼器
-
-
4 實驗與分析
-
4.1 實驗設定
-
4.2 定量評估結果
-
4.3 微軟比賽結果
-
4.4 定性評估結果
-
-
5 結束語
-
參考文獻
-
-
6 標記分佈學習及其應用
-
1 引言
-
2 學習框架
-
2.1 符號及形式化定義
-
2.2 評價指標
-
-
3 標記分佈學習算法
-
3.1 「問題轉化」算法
-
3.2 「算法改造」算法
-
3.3 專用算法
-
-
4 標記分佈學習應用
-
4.1 原始數據中的標記分佈
-
4.2 基於先驗知識的標記分佈
-
4.3 從數據集中學到的標記分佈
-
-
5 結束語
-
參考文獻
-
-
7 軟體缺陷挖掘
-
1 引言
-
2 基於編程模式挖掘軟體缺陷
-
3 基於缺陷標註挖掘軟體缺陷
-
4 基於缺陷報告挖掘軟體缺陷
-
5 結束語
-
參考文獻
-
評分與評論
請登入後再留言與評分