任何科學技術發展都是一把雙刃劍, 就像核能的開發一樣, 但我們不能因為影響而停止科技的進步, 人工智能的發展也是如此。 我們雖不能停下人工智能研發的腳步, 人工智能將科學帶到了一個新的高度, 但與此同時, 它也可能脫離人們的控制, 挑戰著這個社會的倫理與秩序, 我們應用人類的理性去阻止它可能帶來的種種不幸, 每一個有責任心的科學家都會擔起這份責任。
機器人
生命未來研究所聯合人工智能行業的數千名研究人員和工程師, 承諾不發展或支持以任何方式開發自主武器系統的行為
早在2015年, 生命未來研究所就向聯合國發出過公開信, 這封信由1000多名機器人研究人員和一些著名的科學家聯合簽署, 包括埃隆馬斯克和斯蒂芬霍金, 但談判兩年未果。
人工智能
又經過一年無所作為, 這些行業的領導者采取了更為直接的辦法, 不需要聯合國參與, 成千上萬的人簽署一項承諾, 不參與不支持自主武器的開發, 制造, 貿易或使用, 包括160家與AI相關的公司和組織以及超過2400名個人參與簽署。 如谷歌, 歐洲人工智能協會, 硅谷機器人等公司。
機器人
反對的具體技術包括可以完全自主地識別、瞄準和殺死人的武器化人工智能系統。 但不反對像軍用無人機一類由人類控制的東西, 目的是永遠不讓機器做出人的決定,