郭一璞 發自 凹非寺量子位 報道 | 公眾號 QbitAI
機器學習的黑箱性一直讓很多人感到頭大。
對許多技術人員來說,機器學習在出現問題的時候,總會讓人一頭霧水,搞不清楚具體是哪裡出了問題。
而對於商業應用來說,在醫療等高風險的情況下,機器學習的黑箱性給推廣普及造成了困難,說不清楚,要如何讓吃瓜群眾和監管部門信任?
現在,了解機器學習黑箱性,有了一本系統全面的書:
Christoph Molnar年初公開的《可解釋的機器學習(Interpretable Machine Learning)》
這本書總共耗時兩年完成,長達250頁。
在它的GitHub項目頁上,一共有了1297個commits,除了作者Christoph Molnar之外,還有25位貢獻者為它做出了貢獻和修改。
Readme里的備註總共記錄了從v0.1到v1.2出了10版,可謂是「披閱二載,增刪十次」,是眾人智慧的結晶。
因此,這本書也吸引了1277名用戶標星,而作者將其公之於眾的推特也吸引了近千轉發,3000多人點讚。
Hacker News上不少人都對這本書嘖嘖稱讚:
我在搞關於這個問題的學術研究,這是我當前找到的唯一一本相關的書,簡直太棒了。
這本書簡直太讓人愛了,而且非常有用,既清晰又易讀,還給出了許多在既定情況下如何操作的方法,提供了充足的細節方便你做決策。
甚至,還有中國出版社的編輯看上了這本書,希望引進出版中文版本:
而且,此書完整電子版免費閱讀。
那,這本書里究竟寫了些啥?
書里寫了啥
除了前言、致謝等內容外,整本書的核心部分有8個章節。分別是:
1.機器學習簡介2.可解釋性3.數據集4.可解釋的模型5.模型不可知方法6.基於實例的解釋7.神經網絡解釋8.機器學習與可解釋性研究的未來
每個部分作者都做了充足的解釋與介紹,比如第四章《可解釋的模型》中,作者介紹了線性回歸、邏輯回歸、決策樹等模型,並進行了針對性的解釋,介紹了基本的原理和特點,還提出了如果這個模型出現問題時的一些解決辦法。
而且,對於更為基礎的概念介紹章節,作者用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考鏈接可以進一步學習了解。
此外,還提供了相關的例子,都有現成的鏈接,是用R語言寫的。
作者介紹
這本書的作者Christoph Molnar,目前是慕尼黑大學的博士生,研究的專業就是可解釋的機器學習,此前也在慕尼黑大學讀了統計學碩士,主要研究將數據轉換成產品。
除了這本書之外,他還有一個名為Machine Master的博客,分享關於神經網絡、Python、統計學、數據處理等方面經驗。
評論列表
情感分析的比較透徹,男女朋友們可以多學習學習
老師,可以諮詢下嗎?
求助
發了正能量的信息了 還是不回怎麼辦呢?