人工智能黑箱作業 信任與否成難題

摘自 Fortune

人工智能依賴數據 資料不足如廢功武
 
香港的投資公司Deep Knowledge Ventures在2014年引入電腦計算程式,這家管理1億歐元的公司期望以數據分析策略進行投資,而非依賴人類的直覺。管理合夥人Dmitry Kaminskiy表示混算程式主要採用否定機制。如果系統發現風險,Deep Knowledge就不會進行相關投資。
 
不過5年過後,Deep Knowledge已改變重心,不再使用該計算程式。美國西北大學凱洛管理學院教授Brain Uzzi指出:「因為數據不足,所以今天重大決定都是依靠我們的直覺。」
 
不過隨著累積更多數據,人工智能總會擔當更多角色,這只是遲早問題。然而,部分管理權威和理論家卻過度追捧人工智能。
 
過度信任系統釀禍 無人可解混算操作
 
今年初有一篇研究論文警告這些管理層不要太過著迷人工智能。作者之一的卡迪夫大學學者Dirk Lindebaum表示:「我們放手給予這些程式越來越大的自主權,但最後變成沒有選擇,盲目跟隨程式指示。」
 
包括Lindebaum在內的學者指出兩架波音737 Max 8客機墜毀就是自動系統的警號。機司並不完全理解系統的運作,自然不可能判斷系統被錯誤的感應器數據蒙蔽。
 
這種「自動系統的異常」正令市場對人工智能感到憂慮,因為今天許多強大的機械學習程式根本沒有人知道當中的混算如何操作。系統如何得出結果並不透明,即使是編寫程式人員也一頭無緒。
 
電腦有時勝人腦 信與不信難決策
 
不過系統發出異常指示,有時卻又會超出人們的智慧。例如2016年Alphabet的AlphaGo人工智能算式擊敗圍棋世界軍冠。其實在第二局第37步棋,AlphaGo下了非常詭異的一步,以致當時大賽的專家評論員均對AlphaGo不看好。這一步亦令AlphaGo的研究員困惑,但最終事實證明,AlphaGo作的是正確決定,只是沒有人能理解而已。
 
因此,到底決策者應否信任人工智能系統呢?像AlphaGo的例子,若不相信系統混算,那麼這精彩的第37步棋便永不會出現,勝負亦可能改寫。但是對於波音737 Max 8的例子,信任系統卻釀成大禍。
 
這個難解不易找到答案。紐約大學專門教授人工智能課程的商學教授Robert Seamans便表示,正因這個原因,管理者必須完全理解系統運算的原理。

Leave a Reply

Your email address will not be published. Required fields are marked *