隱私數據泛濫短期內降低了人工智能的開發(fā)門檻,讓算法的設計實現更加簡單,但這以數據所有權的粗暴剝奪和算法濫用為代價,不可能是長久之計。
11月21日《金融時報》刊出李開復先生寫的一篇文章《中國搞21世紀數字經濟的條件比美國有利》,文中談到,中國人已開始在智慧城市開展大數據收集工作,公民的隱私當然會受到損害,但算法也將因此變得更加豐富。中國政府善于——借用馬克·扎克伯格的話來說——“快速行動,破除陳規(guī)”。巨大的消費市場,以及持續(xù)的增長潛力,將使中國有可能發(fā)展出一套頗具經濟效益且獨立于西方的數字生態(tài)系統……
此文令筆者驚詫莫名。李開復先生是IT與互聯網行業(yè)的意見領袖,前Google公司中國區(qū)總經理,更是互聯網創(chuàng)業(yè)投資行業(yè)的領軍人物。對于數字化與人工智能的發(fā)展,李先生應該有比絕大部分IT與互聯網人士更加深刻的洞察。但認為公民隱私數據濫用會推動人工智能和相關的算法演進,中國因此比美國更有利于發(fā)展數字經濟,卻是一種片面與短視的認識,必須加以澄清。
弱人工智能時代的數據污染
人工智能作為一種最新的信息技術手段,核心就是通過模仿人類的學習過程,以海量數據對于特定的復雜數學模型(如神經網絡)進行訓練,通過數學模型的逐步優(yōu)化,建立包含智能化業(yè)務規(guī)則的系統并加以實用。
現階段的人工智能是弱人工智能,其特點是:1.單一模型只能針對特定應用;2.需要海量的正確數據進行模型訓練;3.產生的智能化業(yè)務規(guī)則可解釋性極差。
換句話說,一個弱人工智能系統就是一個專用的無法打開的黑盒子,既沒有高適應性,也無法拆解出具體的智能化業(yè)務規(guī)則,而且高度依賴于參與訓練的海量數據。
從目前的業(yè)務實踐來看,構建人工智能系統,絕大部分工作是數據準備,包括設計數據、獲取數據、清洗數據和整合數據等步驟。這部分工作平均要花費60%-70%的時間。對于大型的人工智能系統,一般會安排專門的數據工程師按照數據科學家的要求進行數據準備。
在弱人工智能發(fā)展階段,人工智能系統高度依賴于海量數據訓練,并且算法本身對錯誤數據幾乎沒有甄別能力。
數據作為整個人工智能產業(yè)鏈的最上游,數據的任何問題都有可能影響到人工智能的產業(yè)鏈中下游甚至最終的全面應用。
試想一下,如果支撐人工智能的關鍵數據來源是灰色的甚至是黑色的,這就意味著從源頭開始的數據采集、處理、傳遞和數據質量管理就處于失控狀態(tài)。
數據使用者無法通過追溯的方式了解數據本身的采集要求,更不可能通過提高數據源數據質量的方式訓練出更加高質量的模型。在很多場景下,來源不明的數據甚至無法手工剔除錯誤,以避免對模型訓練的干擾。
如果非法數據的提供方出于某些目的對數據進行特定方向的加工處理,并提供給人工智能企業(yè),那基于這些數據訓練出的模型就可能受到特定方向的誤導,造成模型畸形,未來的全面應用就有可能會面臨極大風險。
盡管目前還沒有這樣的案例出現,但從理論上來分析,這是完全可能的,非法數據來源正在為人工智能應用埋下未知風險。
對于中小企業(yè)的人工智能應用,數據污染和算法畸形可能不會造成嚴重后果,畢竟應用范圍有限。但對于涉及國計民生或者是對市場有重大影響的行業(yè),嚴控訓練數據來源、數據質量,是企業(yè)和政府必須考慮的問題。
2016年10月美國國家科技委員會公布的《美國國家人工智能研究和發(fā)展戰(zhàn)略計劃》中有七大戰(zhàn)略計劃,第五個就是開發(fā)用于人工智能培訓及測試的公共數據集和環(huán)境。
這份戰(zhàn)略計劃中談到,政府將開發(fā)滿足多樣化人工智能興趣與應用的豐富數據集,并開放滿足商業(yè)和公共利益的訓練測試資源,以支持企業(yè)在豐富健康的大數據環(huán)境下加速人工智能技術發(fā)展,規(guī)避數據缺陷本身帶來的潛在風險。
播灑跳蚤,收獲的絕對不會是巨龍。不合法不健康缺乏管控的大數據基礎,很難構建出有強大競爭力的人工智能產業(yè)環(huán)境。那些認為損害隱私會帶來算法提升乃至獲得數字經濟競爭優(yōu)勢的想法是片面的、短視的。