您的位置:首頁»財經»正文

信AI還是信自己?這是一個問題

[ 編者按 ]關於人工智慧的爭論已經激烈到了一個臨爆點。 想要尋找一個戲劇化的衝突場景?不妨追一追正在播出的《西部世界》、《真實的人類》等美劇。

樂觀主義者對AI的熱情更盛, 他們渴望將日常生活中的更多事物自動化。 懷疑論者對AI的態度更加謹慎, 他們認為AI對人類社會帶來的顛覆可能不全是有益的, 並且刻意減少對AI工具的使用。

拒絕AI賦能, 或許會使一大群人在未來的社會競爭中處於劣勢。 因為對AI信任的程度可能導致就業機會的差異, 從而影響每個人社會經濟地位的變化。 AI追隨者和AI否定者之間的衝突可能最終會迫使政府出臺不利於創新的政策。

想讓AI充分發揮其潛力, 我們必須找到讓人們信任它的方法。

每期監測和精編中文視野之外的全球高價值情報, 為你提供先人一步洞察機會的新鮮資訊, 為你提供升級思維方式的深度內容, 是為[ 紅杉匯內參 ]

內參

三個方法緩解

AI信任危機

作者 /Vyacheslav W. Polonski

編譯 / 洪杉

除非你過著隱居生活, 否則你的生活中一定充斥著關於機器學習和人工智慧的各式新聞。 人工智慧的一系列突破性進展, 似乎已經讓它具備了預測未來的能力。 員警利用人工智慧來確定犯罪活動可能發生的時間、地點;醫生用它來測算病人什麼時間最可能心臟病發作或是中風;研究人員甚至嘗試著賦予人工智慧想像能力,

讓其能夠預測未來。

當然, 我們生活中的許多決定需要基於準確的預測, 而AI一般都比人類能作出更好的預測。 但是, 儘管取得了如此的技術進步, 人們似乎對AI的預測結果依然充滿不信任。

想讓AI給人類帶來實在的好處, 我們必須要找到一種方式, 使其獲得人類的信任。

我們應該信任機器人醫生嗎?

利用世界上最強大的超級電腦系統, IBM推出的針對癌症的人工智慧軟體Watson可以給醫生提供最好的癌症治療建議。 該軟體聲稱可為12種癌症提供高品質的治療建議, 這包括了世界上80%的癌症病例。 目前, 已有超過14000名患者接受了它計算出的治療建議。

然而, 當醫生們開始和Watson人機互動的時候, 他們發現自己陷入了相當尷尬的境地。

一方面, 如果Watson提供了符合他們觀點的治療建議, 醫生就不覺得它的建議有價值。

電腦只是告訴了醫生們已經知道的東西, 這些建議也沒有改變目前採用的療法。 它可能作為定心丸, 讓醫生們對自己的決定更加自信。 但是IBM目前還沒提供Watson真的可以提高癌症患者存活率的證據。

另一方面, 如果Watson的建議正好跟專家的意見相左, 醫生們則會認為它能力不足(或是將這一不權威的解決辦法歸咎於系統故障)。 更多的情況是, 機器無法解釋為何其治療方法很可能是有效的, 因為其機器學習演算法過於複雜, 人們沒法完全理解。 結果, 這又導致了更大的不信任, 讓很多醫生直接無視了看起來有點古怪的人工智慧建議。

信任問題的根源在於人類自身

很多專家認為未來社會將建立在有效的人機合作上, 但是人類對機器缺乏信任是阻礙這一未來實現的最重要因素。

Watson存在的問題在於醫生的不信任。 人類的信任往往是基於其他人怎麼想, 以及擁有關於其可靠性的經驗。 這兩者都可以幫助人們建立心理上的安全感。 而人工智慧目前對大多數人而言仍是相對較新穎的東西。 它採用複雜的系統性分析, 從大量資料中識別出潛在模式和虛弱信號。

即使技術上可以解釋得清楚(但情況往往並非如此), 人工智慧的決策過程對很多人而言依然過於難以理解。 與我們不能理解的事物互動, 則可能會導致焦慮和失控的感覺。

很多人並不熟悉人工智慧真正起作用的情況, 因為這往往發生在幕後, 但是他們卻能十分清醒地看到人工智慧發生重大錯誤的情況:

將有色人種視為大猩猩的穀歌演算法;

在聖法蘭西斯科闖紅燈的Uber自動駕駛汽車;

自動生成的、將廣告投放於反猶太和恐同視頻旁的YouTube廣告宣傳活動;

某個搭載了亞馬遜語音助手Alexa的設備給兒童提供成人內容;

遊戲“口袋怪物”的演算法再次出現種族隔離問題, 使其火上澆油;

微軟聊天機器人變成了白人至上主義者;

自動駕駛模式的特斯拉汽車發生了一起致命事故。

這些不幸的事件收穫了過多的媒體關注度, 再次強調人類不能總是依靠技術這一資訊。 最後, 所有的一切都會回到機器學習也會出錯這一簡單事實上。

《終結者》的觀影影響:

被AI分裂的社會?

人類對AI的感情可謂複雜。但是為什麼有些人能接受AI,而另一些人卻對其深表懷疑呢?

2017年12月有一組實驗,要求各種不同背景的實驗物件觀看一些關於AI的科幻電影,並在觀影之前和之後分別邀請他們填寫關於他們對自動化看法的調查問卷。詢問的內容包括他們對互聯網的總體態度、他們在AI技術方面的體驗、將日常生活中某些任務自動化的意願:哪些任務是樂意用假想的AI助手實現自動化的、以及哪些任務是想要堅持自己執行的。

令人驚訝的是,像《終結者》《雲端情人》或《機械姬》這類電影,為我們描繪的是一個烏托邦還是反烏托邦的未來都並不重要。實驗發現,無論人們觀看的電影是以積極還是消極的角度去描繪AI,只是單純的在電影世界裡觀看到高科技未來,就能使參與者的態度變得極端化。樂觀主義者會對AI的熱情變得更盛,他們渴望自動化日常生活中的更多事物。相反,懷疑論者對AI的態度就變得更加謹慎,他們質疑AI的潛在益處,並且更願意積極抵制朋友和家人使用AI工具。

從這些發現中得到的啟示是令人擔憂的。一方面,這表明人們帶著偏見使用AI相關證據來支持他們現有的態度,這是一種根深蒂固的人性趨勢,被稱為“確認性偏差”。這種認知偏差是在研究中觀察到的極端化效應背後的主要推手。

另一方面,由於技術進步的步伐不減,拒絕接受AI所能帶來的優勢,可能會使一大批人處於嚴重的不利地位。隨著人工智慧在大眾文化和媒體中的出現頻率越來越高,它可能會促成嚴重的社會分裂,使其分裂為兩撥人,一撥是AI的信仰者(並因此受益的人),一撥是拒絕AI的人。

更中肯地來講,拒絕接受AI提供的優勢,或許也會使一大群人處於嚴重的劣勢。這是因為AI信任上的差異可能導致就業機會的差異,從而導致社會經濟地位的差異。AI追隨者和AI否定者之間的衝突可能會促使政府採取無情的監管措施,從而遏制創新。

緩解AI信任危機

因此,要想讓AI充分發揮其潛力,我們必須找到讓人們信任它的方法,特別是當AI提出的建議與我們習慣採取的建議截然不同時。幸運的是,隧道的盡頭總有光——我們已經有提高對AI信任的方法了。

體驗:一種解決方案是在日常環境下為自動化應用程式和其他AI應用程式提供更多的實際操作體驗(例如一個可以從冰箱為你拿啤酒的機器人)。這對於那些對這項技術沒有很深入瞭解的公眾來說尤其重要。

洞見:另一種解決方案或許就是打開機器學習演算法的“黑匣子”,讓其運作方式稍微變得透明些。Google、Airbnb和Twitter等公司已經開始定期發佈透明度報告,對AI系統採取類似做法可以説明人們更好地理解演算法決策是如何做出的。

控制:最後,協作決策過程的建立將有助於信任的建立,並讓AI能從人類經驗中學習。賓夕法尼亞大學的一組研究人員最近發現,給予人們對演算法的控制可以説明人們增加對AI預測的信任。在他們的研究中,被賦予了稍微修改演算法的權利的人會對AI感到更滿意,更有可能相信它的卓越性,並且更有可能在未來使用它。

人們並不需要瞭解AI系統複雜的內部運作,但如果他們至少能得到一些如何執行的資訊,並能對執行過程擁有一定的控制權,他們就會更樂於接受人工智慧。

讀數

2000萬歐元

5月25日,歐洲“史上最嚴”的資料保護條例——通用資料保護條例(GDPR)生效。對於違規收集個人資訊的互聯網公司,最高可罰款2000萬歐元或全球營業額的4%(以較高者為准)。“GDPR正將必要的意識引入到生態系統中,並通過提醒公司在隱私領域承擔多大的責任來引導它們。”牛津大學教授Sandra Wachter如此評論。

情報

#原來,創業者愛玩德撲是有道理的#

撲克牌中蘊含的商業原理

耐心和紀律。玩牌時經常一坐數小時並一絲不苟堅持遊戲規則,同樣地,商業成功也沒有捷徑可走。

評估風險。能夠識別機遇和投入資金是成功企業家的關鍵素質,無論是否擁有王牌,都不能害怕承擔輸牌的風險。

控制情緒。我們不會總贏——無論是撲克還是商業,不要讓情緒化的回應把你踢出局。

#來自貝佐斯的建議#

CEO如何應對排山倒海的批評?

2017年,安德瑪的股價大幅下跌45%。首席執行官凱文・普蘭克受到了大量批評,導致他向重量級企業家求助。傑夫・貝佐斯給出的建議初聽起來有悖直覺,但卻絕妙:

這些批評是正確的嗎?80%或90%的批評可能是不正確的,但如果有值得思考的地方,至少要以謙虛、耐心和成熟的心態去接受。

不為自己辯護。你知道你的公司經歷了種種困難才走到今天,一兩個人對小錯揪住不放並不意味著你已有的成就不值一提。

篩選批評者。過於認真地看待每一條批評會陷入自我懷疑的困境,選擇你願意接受或考慮接受其意見的批評者及他們的有益批評。

《終結者》的觀影影響:

被AI分裂的社會?

人類對AI的感情可謂複雜。但是為什麼有些人能接受AI,而另一些人卻對其深表懷疑呢?

2017年12月有一組實驗,要求各種不同背景的實驗物件觀看一些關於AI的科幻電影,並在觀影之前和之後分別邀請他們填寫關於他們對自動化看法的調查問卷。詢問的內容包括他們對互聯網的總體態度、他們在AI技術方面的體驗、將日常生活中某些任務自動化的意願:哪些任務是樂意用假想的AI助手實現自動化的、以及哪些任務是想要堅持自己執行的。

令人驚訝的是,像《終結者》《雲端情人》或《機械姬》這類電影,為我們描繪的是一個烏托邦還是反烏托邦的未來都並不重要。實驗發現,無論人們觀看的電影是以積極還是消極的角度去描繪AI,只是單純的在電影世界裡觀看到高科技未來,就能使參與者的態度變得極端化。樂觀主義者會對AI的熱情變得更盛,他們渴望自動化日常生活中的更多事物。相反,懷疑論者對AI的態度就變得更加謹慎,他們質疑AI的潛在益處,並且更願意積極抵制朋友和家人使用AI工具。

從這些發現中得到的啟示是令人擔憂的。一方面,這表明人們帶著偏見使用AI相關證據來支持他們現有的態度,這是一種根深蒂固的人性趨勢,被稱為“確認性偏差”。這種認知偏差是在研究中觀察到的極端化效應背後的主要推手。

另一方面,由於技術進步的步伐不減,拒絕接受AI所能帶來的優勢,可能會使一大批人處於嚴重的不利地位。隨著人工智慧在大眾文化和媒體中的出現頻率越來越高,它可能會促成嚴重的社會分裂,使其分裂為兩撥人,一撥是AI的信仰者(並因此受益的人),一撥是拒絕AI的人。

更中肯地來講,拒絕接受AI提供的優勢,或許也會使一大群人處於嚴重的劣勢。這是因為AI信任上的差異可能導致就業機會的差異,從而導致社會經濟地位的差異。AI追隨者和AI否定者之間的衝突可能會促使政府採取無情的監管措施,從而遏制創新。

緩解AI信任危機

因此,要想讓AI充分發揮其潛力,我們必須找到讓人們信任它的方法,特別是當AI提出的建議與我們習慣採取的建議截然不同時。幸運的是,隧道的盡頭總有光——我們已經有提高對AI信任的方法了。

體驗:一種解決方案是在日常環境下為自動化應用程式和其他AI應用程式提供更多的實際操作體驗(例如一個可以從冰箱為你拿啤酒的機器人)。這對於那些對這項技術沒有很深入瞭解的公眾來說尤其重要。

洞見:另一種解決方案或許就是打開機器學習演算法的“黑匣子”,讓其運作方式稍微變得透明些。Google、Airbnb和Twitter等公司已經開始定期發佈透明度報告,對AI系統採取類似做法可以説明人們更好地理解演算法決策是如何做出的。

控制:最後,協作決策過程的建立將有助於信任的建立,並讓AI能從人類經驗中學習。賓夕法尼亞大學的一組研究人員最近發現,給予人們對演算法的控制可以説明人們增加對AI預測的信任。在他們的研究中,被賦予了稍微修改演算法的權利的人會對AI感到更滿意,更有可能相信它的卓越性,並且更有可能在未來使用它。

人們並不需要瞭解AI系統複雜的內部運作,但如果他們至少能得到一些如何執行的資訊,並能對執行過程擁有一定的控制權,他們就會更樂於接受人工智慧。

讀數

2000萬歐元

5月25日,歐洲“史上最嚴”的資料保護條例——通用資料保護條例(GDPR)生效。對於違規收集個人資訊的互聯網公司,最高可罰款2000萬歐元或全球營業額的4%(以較高者為准)。“GDPR正將必要的意識引入到生態系統中,並通過提醒公司在隱私領域承擔多大的責任來引導它們。”牛津大學教授Sandra Wachter如此評論。

情報

#原來,創業者愛玩德撲是有道理的#

撲克牌中蘊含的商業原理

耐心和紀律。玩牌時經常一坐數小時並一絲不苟堅持遊戲規則,同樣地,商業成功也沒有捷徑可走。

評估風險。能夠識別機遇和投入資金是成功企業家的關鍵素質,無論是否擁有王牌,都不能害怕承擔輸牌的風險。

控制情緒。我們不會總贏——無論是撲克還是商業,不要讓情緒化的回應把你踢出局。

#來自貝佐斯的建議#

CEO如何應對排山倒海的批評?

2017年,安德瑪的股價大幅下跌45%。首席執行官凱文・普蘭克受到了大量批評,導致他向重量級企業家求助。傑夫・貝佐斯給出的建議初聽起來有悖直覺,但卻絕妙:

這些批評是正確的嗎?80%或90%的批評可能是不正確的,但如果有值得思考的地方,至少要以謙虛、耐心和成熟的心態去接受。

不為自己辯護。你知道你的公司經歷了種種困難才走到今天,一兩個人對小錯揪住不放並不意味著你已有的成就不值一提。

篩選批評者。過於認真地看待每一條批評會陷入自我懷疑的困境,選擇你願意接受或考慮接受其意見的批評者及他們的有益批評。

Next Article
喜欢就按个赞吧!!!
点击关闭提示