統計理論

統計理論

統計學習理論是研究利用經驗數據進行機器學習的一種一般理論,屬於計算機科學、模式識別和應用統計學相交叉與結合的範疇,其主要創立者是本書的作者Vladimir N. Vapnik。統計學習理論的基本內容誕生於20世紀60~70年代,到90年代中期發展到比較成熟並受到世界機器學習界的廣泛重視,其核心內容反映在Vapnik的兩部重要著作中,本書即是其中一部,另一部是“The Nature of Statistical Learning Theory”(《統計學習理論的本質》)。

概述


由於較系統地考慮了有限樣本的情況,統計學習理論與傳統統計學理論相比有更好的實用性,在這一理論下發展出的支持向量機SVM)方法以其有限樣本下良好的推廣能力而備受重視。
本書是對統計學習理論和支持向量機方法的全面、系統、詳盡的闡述,是各領域中研究和應用機器學習理論與方法的科研工作者和研究生的重要參考資料。

作者簡介


Vladimir N.Vapnik於1990年加入美國AT&T貝爾實驗室,現仍擔任顧問,1995年起任英國Royal Holloway大學計算機和統計學教授。Vapnik教授從事計算機科學、理論與應用統計學研究已有30多年,發表了7部學術著作和上百篇研究論文。他的主要學術成就是研究發展了一套基於經驗數據估計依賴關係的一般理論,即統計學習理論,以及在此理論基礎上的一種新的學習機器——支持向量機,它具有很高的推廣能力。這些理論與方法可以用在很多模式識別和回歸估計問題中,並已經在很多實際問題中取得了很好的應用成果。

作者簡介


許建華,2002年於清華大學模式識別與智能系統專業獲工學博士學位。現在南京師範大學計算機系從事教學與科研工作。主要研究方向為模式識別、神經網路、機器學習、人工智慧、信號處理理論及其應用。

目錄


引論:歸納和統計推理問題
第一部分 學習和推廣性理論
第1章 處理學習問題的兩種方法
第1章附錄 解不適定問題的方法
第2章 概率測度估計與學習問題
第3章 經驗風險最小化原則一致性的條件
第4章 指示損失函數風險的界
第4章附錄 關於ERM原則風險的下界
第5章 實損失函數風險的界
第6章 結構風險最小化原則
第6章附錄 基於間接測量的函數全計
第7章 隨機不適定問題
第8章 估計給定點上的函數值
第二部分 函數的支持向量估計
第9章 感知器及其推廣
第10章 估計指示函數的支持向量方法
第11章 估計實函數的支持向量方法
第12章 模式識別的支持向量機
第13章 函數逼近、回歸估計和信號處理的支持向量機
第三部分 學習理論的統計學基礎
第14章 頻率一致收斂於概率的充分必要要件
第15章 均值一致收斂於期望的充分必要條件
第16章 均值一致單邊收斂於期望的充分必要條件