您的位置:首頁»軍事»正文

这种武器有多可怕?数千名科学家共同签署该协议,承诺永不发展它

據觀察者網7月19日報道, 馬斯克剛剛領銜2000多名AL專家簽署了一份協議, 這份協議的核心內容就是永遠不發展致命的AL武器系統。

AL武器即為致命性自主武器系統, 是指能夠自主運作的機器人, 我們平時看到的各型無人飛行器、無人作戰車輛、無人水面艇其實都屬于能夠自主運作的武器系統, 也是AL致命武器的范疇。

這種AL武器一般用在軍事戰爭中, 他可以不受人的操控, 能夠自動識別目標、攻擊目標, 在機器人眼里沒有任何情感, 只要被認定為敵人, 就等于死亡。

對于這種武器其實它一出現當時就引起了許多人的反對,

霍金生前曾大力反對, 他的那句“小心人工智能”讓世界銘記至今。 霍金曾聯合千余名AL學者、科學家等向聯合國提交過聯合公開信, 揭露AL致命武器的潛在風險, 呼吁國際組織頒布禁令禁止。

但是到目前為止正式的禁止AL武器國際公約并沒有達到共識, 盡管之前聯合國已經對生物武器、化學武器和太空武器頒布了禁令, 但是對AL武器還沒有頒布具有權威性的禁令條約。

這種武器它雖然很高效, 但是如果隨著AL技術的進一步成熟和發展, 這些致命性武器尤其是機器人被利益熏心的人掌控在手上, 未來給人類造成的傷害將無法想象。

不僅是在軍事方面, 在其他領域也一直有反對發展機器人的聲音,

許多專家聲稱將來機器人將徹底代替人類的存在。 但是在人工智能領域的發展已經到了無法遏制的地步, 人們享受智能化給生活帶來的便捷, 但同時存在著巨大的隱患。

曾經有一名美籍俄羅斯裔作家曾提出對機器人發展的三定律, 其中最重要的一點就是機器人不得傷害人類, 但是很顯然機器人在軍事中的應用已經違背了這條定論。 因此現在也有越來越多的頂尖AL學者開始意識到問題的嚴重性, 站出來反對AL致命性武器的應用。

Next Article
喜欢就按个赞吧!!!
点击关闭提示