![快乐机器学习](https://wfqqreader-1252317822.image.myqcloud.com/cover/216/32375216/b_32375216.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
技术附录
A.NFL定理
定义A为算法,xin为样本内数据,xout为样本外数据(N个),c为目标函数,h为假设函数。在考虑所有c的情况下,算法A在样本外的误差期望如下所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_1.jpg?sign=1738885967-3lsHzYAIgAfUpdOKEiSqR6gWhV4aPLAf-0-009339ed6ea02c88fc1a695bad743408)
在第4行中,当c为均匀分布时,c和h的预测结果有一半不一致。那么c一共有2N个预测结果,一半就是2N-1。上述结果与算法A无关,可见“胡乱猜”的算法和高级算法的期望误差或者期望性能相同。
B.霍夫丁不等式
霍夫丁不等式(Hoeffding's Inequality)是根据切诺夫上界(Chernoff Bound)和霍夫丁引理(Hoeffding's Lemma)证明出来的,而切诺夫上界由马尔可夫不等式(Markov's Inequality)证明出来的。
它们的关系如右图所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_2.jpg?sign=1738885967-Prp3iWajIZCwdEE23vBWmOIHsk5ahgL8-0-3a73bb4918fe37e10443d36fa07ed9d9)
证明霍夫丁不等式
马尔可夫不等式、切诺夫上界、霍夫丁引理和霍夫丁不等式的具体证明如下表所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_3.jpg?sign=1738885967-boglcjhiiX7FhbeJUyEx1FzKVYxpeuZw-0-74afde136e15ff5b9a58659e58c0d800)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_63_1.jpg?sign=1738885967-c2N39MH9tJ13cUKiUoVHnIHLvkqFCSin-0-53b3adef7ad92074f265cd4dbd8d3aa2)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_1.jpg?sign=1738885967-qUwg1n89Uwj3FAPFvezQtQ5yCDpM5KGP-0-769b8f68ba4c2bbd21ac6abe53788a48)
当Zi服从伯努利分布时,那么a=0,b=1,将上式和机器学习结合得到
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_2.jpg?sign=1738885967-LL58CtS3xSIFBjVt3iLnAnictaDHuKax-0-ba2073d8cb2a3257ede36c207e9ce058)
[1]NFL定理证明见本章附录A。
[2]霍夫丁不等式证明见本章附录B。
[3]增长函数的上界推导比较烦琐,见本章参考资料[1]。