您的位置:首頁»正文

人工智慧的預防方針

對世界各地的決策者來說, 決策的最佳方法是基於證據, 不管可以獲得的資料多不完美。 但如果事實很少或根本不存在, 領導人應該怎麼辦?對於必須為“先進預測演算法”的副作用收拾殘局的人來說, 這是個問題。 先進預測演算法是機器學習和人工智慧的二進位搭建要素。

在學術界, 人工智慧思維的學者不是“奇點論者”就是“現代主義者”。 奇點論者一般認為, 人工智慧技術固然給人類造成了生存威脅, 但仍然利大於弊。 但儘管這一群體中包括了很多技術“大拿”, 能吸引大量資金, 但他們的學術產出尚不能令人信服地證明他們的結論。

另一方面, 現代主義者總是關注新技術的公平性、可問責性和透明性。 比如, 他們關注自動化如何影響勞動力市場。 但在這方面, 研究也不具有說服力。 比如, 《麻省理工學院技術評論》(MIT Technology Review)最近比較了考察預期就業損失的19項主要研究的發現, 結果表明, 對全球“被消滅”崗位數字的預測為180萬—20億不等。

簡言之, 這場爭論的雙方都拿不出“有用的真理”。 對於人工智慧的影響, 有人預言只會造成微不足道的就業市場破壞, 有人則認為會給人類帶來滅絕危險。 顯然, 世界需要新的框架來分析和管理即將到來的技術破壞(technological disruption)。

平心而論, 資料不完整是技術研究者司空見慣的問題。 即使在“正常”條件下,

對新興技術的研究也與就著昏暗的油燈在黑暗中破解謎題差不多。 既有理論的假設不容置疑, 確保有益結果成為定量分析負面事件概率和據此管理相關風險的問題。

但往往會出現一個“後正常”(post-normal)科學謎題出現, 這個概念由哲學家西爾維奧•馮托維茨(Silvio Funtowicz)和傑羅姆•拉維茨(Jerome Ravetz)1993年首次提出, 他們講它定義為一個“事實不確定、價值有爭議、影響力巨大、迫切需要作出決定”的問題。 對於這些挑戰——人工智慧是其中之一——政策不能等待科學進展跟上。

目前, 大部分人工智慧決策由全球北方做出, 較不發達國家的關注點沒有得到強調, 也讓技術的兩用(dual-use)變得更加困難。 更糟糕的是, 決策者常常沒有充分考慮到潛在的環境影響, 幾乎完全專注于自動化、機器人和機器的人類影響。

即使沒有可靠資料, 決策者也必須朝人工智慧治理的方向邁進。 在全世界都在等待科學確定性(有可能永遠不會到來)的時候, 能夠指引我們走入未知的方案已經存在:“預防原則”。 預防原則1992年作為聯合國可持續發展的裡約共約在全球實施, 隨後被寫入了歐盟創始條約之一。 它指出, 缺少確定性不能成為不去保護人類健康和環境的藉口。 對於技術推動的未來的不確定性, 這一原則也是合適的。

預防原則不乏批評者。 但儘管它的優點多年來爭論不斷, 我們仍必須接受一點:缺少傷害證據(lack of evidence of harm)和未產生傷害的證據(evidence of lack of harm)不是一碼事。 這一簡單的概念被應用於眾多人類發展問題——如公共衛生和嬰兒死亡。

三個理由表明人工智慧也不例外。

首先, 將預防原則應用於人工智慧環境有助於實現全球政策討論的再平衡, 讓弱勢聲音在當前被公司利益壟斷的爭論中擁有更大的影響力。 決策也會更加包容和慎重, 產生更能體現社會需要的方案。 電氣和電子工程師研究所(Institute of Electrical and Electronics Engineers)以及哈佛甘迺迪政府學院的未來學會(The Future Society)本著這一參與精神起著領導作用。 其他專業組織和研究中心也應該效仿。

此外, 治理機構運用預防原則可以將責任負擔轉移給演算法的創造者。 要求演算法決策可解釋能夠改變激勵, 防止黑箱操作, 有助於讓商業決策變得更加透明, 並讓公共部門在技術開發上趕超私人部門。 而通過強迫科技公司和政府識別和考慮多個選項,

預防原則能夠突出被忽視的問題, 如環境影響。

科學在一項創新產生可供研究的結果之前很久就幫助管理這項創新, 這樣的情況是很罕見的。 但在演算法、機器學習和人工智慧環境下, 人類不能等待。 預防原則的美好之處不但在於它基於國際法, 還在於它作為在不同的科學環境中管理創新的框架的歷史記錄。 我們應該儘早採取這一原則, 不要坐等進步的收益無法平等地分佈, 或者跟糟糕的, 坐等不可扭轉的傷害造成。

作者馬賽伊•庫澤姆斯基是歐洲大學研究所跨國治理學院政策研究員

此微信內容由《財經》雜誌宏觀學術組精編呈現。 “財經雜誌評論”微信公眾號:caijingreview。 歡迎關注!

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示