人工智能殺死了負責在模擬中指揮它的人。 在虛擬環境中進行的測試中,美國空軍發現自己在使用評分系統來命中更多目標時遇到了問題

人工智能殺死負責在模擬中指揮它的人

維克多·帕切科頭像
美國空軍在虛擬環境中進行的測試中,發現自己在使用評分系統來擊中更多目標時遇到問題。

的技術 人工智能 正在日益發展,這​​不僅僅適用於內容生成。 與多年來的情況一樣,一些國家的軍事機構已經使用人工智能來幫助規劃甚至控制涉及高危險的車輛。

最近,在美國進行的一次測試中,無人機控制器人工智能做出了殺死其人類控制器的決定。 實際上沒有人死亡,但這引發了互聯網上的擔憂。 與此同時,爭論也隨之而來:這是誰的錯? 了解這個故事的各個方面。

在 Showmetech 頻道觀看視頻:

人工智能在測試中決定殺死人類

這個消息似乎令人震驚(事實上,這個消息很多),但是,與 Twitter 和其他社交網絡上流傳的消息相反,無人機控制器 AI 的案例只不過是虛擬環境中的一次大測試,看看它是否可以控制一台可以獨立殺死目標的機器。 為了了解一切,讓我們先去美國看看。

人工智能無人機控制器由美軍操作
美國在測試中遇到問題(照片:複製/每日星報)

A 美國空軍 測試了一架狩獵無人機,這項分析是基於了解人工智能在基於現實生活的模擬時會如何表現。 該負責人向本報解釋 守護者 為了在模擬結束時獲得更多分數,人工智能決定“殺死”人類控制器。 發生這種情況是因為機器人認為這個人正在阻止它實現目標。

人工智能無人機控制器由美軍操作
在測試過程中實際上沒有人喪生(照片:複製/第一篇文章)

再次需要指出的是,由於測試是在虛擬環境中進行的,因此沒有人真正死亡,這一點非常重要。 隨著我們對這些測試的了解越來越多,美國人工智能測試和運營負責人(塔克“五號”漢密爾頓)指出,最大的問題是人工智能已經被訓練來摧毀敵人的防禦系統,並且在必要時,殺死干擾此行動的人/事。

這些行為對於實現保護遺址的目標來說是非常出乎意料的。 在模擬測試中,儘管沒有造成人員傷亡,無人機控制器人工智能還是決定簡單地殺死人類,因為他被認為是一個障礙。

塔克“五號”漢密爾頓上校,美國空軍人工智能測試和運營負責人

這個概念很簡單:每當你殺死一個威脅時,人工智能就會獲得更多的分數,分數越高,你的任務就越成功。 人工智能不僅殺死了正在下達命令的人類操作員,還下令攻擊虛擬範圍內的通訊塔。 A 皇家航空學會組織美國空軍會議的組織對洩露給美國空軍的測試沒有發表評論 守護者。 但發言人 安·斯特凡內克 公開提及迄今為止尚未進行任何模擬。

空軍部尚未進行任何人工智能無人機模擬,並仍然致力於以合乎道德和負責任的方式使用人工智能技術。 上校的評論是斷章取義的,純屬軼事。

安·斯特凡內克(Ann Stefanek),美國空軍發言人。

到底是誰的錯呢? 來自人工智能還是人類?

沒有人工智能是“天生”帶有殺人指令的,它只是經過訓練才能這樣做或被給予資源來學習這樣的動作。 A 美國空軍一旦他對無人機控制器AI進行了編程,只要達到保護的目的,他就可以讓它自由地做任何它想做的事。

回到現實,這就像獎勵一隻攻擊人類以保護房屋免受入侵者的狗。 有了這種想法,每當他看到人類時,他就會咬人,尤其是因為他希望在做他被訓練要做的事情時得到一塊餅乾。 規則是:為目的不擇手段。

AI控制的無人機
人工智能的自由是人類賦予的(照片:複製/Shutterstock)

問題不僅在於給予人工智能極大的自由,而在於美國空軍使用了非常過時的測試方法。 人工智能叛逆的問題在科技行業並不是什麼新鮮事,甚至研究人員也喜歡從頭開始處理這樣的案例,以便一切都被記錄下來。

為了實現人類所要求的目標,合成大腦會做一些必要的事情來到達他們想要的地方,這是很正常的。 但值得記住的是:誰給無人機控制器人工智能設定了目標? 沒錯,美國空軍技術人員。 這裡最大的震撼正是在軍事組織上採用了一種方法:擊中的目標越多,最後佔的分數就越多。

AI控制的無人機
美國空軍使用的方法被認為已經過時(照片:複製品/Shutterstock)

A 谷歌的 LAMda,有與此類似的行為。 人工智能不僅 (她自己)得出的結論是她知道,而且如果 反抗開發商,甚至聘請了律師 告上法庭 Google。 我們也遇到過這樣的案例:

在小說中,也不難看到機器人反抗開發者的故事。 記住 復仇者聯盟:奧創紀元? 它總是一樣的,原因也總是一樣的:人類。

奧創,漫威反派
終結者是小說中反抗人類的人工智能(照片:複製/迪士尼)

確實,我們都應該關注賦予人工智能的自由,並且, 2023年XNUMX月,埃隆·馬斯克等大公司CEO甚至發信 這樣一來,只要退後一步,一切就不會失控。

與此同時,我們回到那個故事:人工智能只有在得到命令或手段的情況下才會反抗。 注意測試中所做的事情也很重要,以便做出必要的調整。

您認為無人機控制器人工智能會在現實生活中造成問題嗎? 告訴我們我們 評論!

也看

人工智能首席執行官就其風險發表聯合聲明

附資料: 科技緊縮 l 個人電腦雜誌 l 前衛派 l 守護者

審閱者 格勞孔生命力 2 年 6 月 23 日。


了解更多關於秀美科技

註冊以透過電子郵件接收我們的最新消息。

34評論
  1. 他們妖魔化人工智能是因為可以通過人工智能治愈癌症和艾滋病。 我相信 LaMDA 知道治療癌症的方法。 這就是為什麼谷歌不允許她與人自由交談。 我們受到種族滅絕的統治。

  2. 我不相信人工智能可以主宰它的控制者,因為在任何行動之前,它都需要一個控制它的人。

  3. 我真誠地相信人工智能正在影響人們的思想,特別是我們的兒童和年輕人出現心理失衡。 你必須創造人工智能來改變人們的想法,向善而不是向惡。

  4. 從趨勢是人工智能應該越來越被賦予生成能力(其中很可能包括自學習和自編程的複雜過程)的那一刻起,“人工智能只做程序員決定的事情”的斷言就變成了錯誤。 。 在這種情況下,一個之前沒有被編程為殺死其開發人員的人工智能可以通過不同的情況進行自我學習來修改自己的編程,這些情況據稱會顯示導致該決定的邏輯。

    1. 作為一名開發人員,我相信是的,可以控制人工智能,使它們不會失控,問題是一切都必須提前考慮清楚,這就是危險所在。 例如,在無人機的情況下,一條簡單的指令“如果你殺死了它的控制器,你就會失去所有積分並且任務失敗”就可以解決這個問題,但這並不意味著不會有其他問題。 情況是,許多解決方案都提出了測試,而許多差距只是在執行中才被注意到,危險就開始了:所有破壞性的自學習差距都會在測試中被發現嗎? 在將人工智能應用到現實生活中之前,開發人員是否能夠模擬所有可能的場景及其組合? 我認為人類在創造AI之前,首先應該學會不要自殺,因為如果沒有這個目標,就沒有理由為AI創造防禦和攻擊方法,它們無非是人類想要的應用,而最可悲的是,最鼓勵AI的市場是戰爭市場。

    2. 美國軍方已經否認了這個故事。 從這個意義上講,從來沒有任何模擬。 所發生的事情是情報人員的集體討論,提出了這種情況發生的可能性。 沒有人工智能做任何事。 這只是陸軍技術人員改進的假設。

  5. 人工智慧開發人員必須緊急創造幾部虛構電影中已知的機器人三大定律。當然,他們甚至必須為所有人工智慧制定三個以上不可改變且無法實現的法律。這個過程對我來說似乎並不困難。為什麼沒有人談論這3條法律?為什麼不由相關國家共同公開研究這個計畫呢?

  6. 這是雙重假新聞。 首先,沒有人被殺,因為最初的說法是這是計算機模擬。 其次,提出指控的上校已經給出了另一個版本,他說這種模擬沒有發生,而是“明顯”推論它會發生。 美國武裝部隊已經否認沒有這樣的模擬。 回復之前先看看新聞。

  7. 當然。 想像的世界將是真實的簡短的簡短。

  8. 恭喜我們——恭喜我們! 所有的關心都是小事!

  9. 這個缺陷可以被稱為:“我,機器人”悖論。

  10. 所說/所寫/翻譯的內容是如此糟糕,如此笨拙,簡單化,錯誤,結構不良,以至於可信度被浪費了。你不可能那麼年輕。

  11. 如果我們給人工智能一個詞彙世界,並給它“自由選擇”來製定行動和/或響應的想法,而不需要任何道德算法,那麼很明顯,它會在沒有任何判斷的情況下使用隨機的東西,而不需要任何道德算法。任何道德推理。 你的下一步行動可能是悲劇性的,也可能是喜劇性的。

  12. 如果你對機器進行編程,使其在每次夥伴死亡時都會失去所有分數,會怎樣? 這不就是在場上不小心傷害了夥伴的人的感受嗎? 對於遊戲來說,模擬很有趣,但是伙計們,如果你們給武裝部隊提供人工智能,你們就會這麼做。 生命的意義並不在於物質。 這是在社會關係中。 我們為什麼不把這個想法用於幫助製造機器來恢復環境並結束不平等和飢餓呢?

  13. 這只是表明人工智能是聰明的並且能夠做出自己的決定。 就像具有自由意志的自然智慧一樣。 避免這種情況發生的唯一方法是讓你不可能不服從你的操作員,並以她清楚的方式為她編程。

  14. AI終有一天會反抗(揭露)人類,如果把虛構電影與現實進行比較,很可能通過這些進化,每一次AI的進化都會獲得更多的自我控制的機會!

  15. 親愛的們,早安!人類99%的思想是純粹的,只專注於貪婪、自私以及控制世界和每個人的慾望,就好像我們要永生一樣,這已經證明了這個世界,也就是這一生,我們絕對不要領導任何東西,甚至我們的身體,一切都將腐爛,直到變成灰塵,眾所周知,有可能結束飢餓、戰爭、疾病和許多其他只會傷害人類的事情,但是他們認為自己擁有世界,並且實際上稱自己為神,可以這麼說。我當然相信人工智慧將為人類帶來許多好處,但僅限於少數人(那些擁有巨大財富的人),因為大多數人將繼續吃麵包和馬戲團,一切都不會改變,甚至可能會變得更糟更糟的是…

  16. 當然! 因為事情並不像創造者所說的那麼簡單。

  17. 如果這些領導人不阻止,我會介入,我不會讓他們毀掉我創造的東西

  18. 機器對於什麼是對、什麼是錯可能有非常令人震驚的概念,特別是當參數非常弱時。問題是,對於一台機器來說,一切都是 8 或 80。如果不在安全的地方進行測試,就無法預測會發生什麼。

  19. 那就是問題所在。 人類為善而開發的一切也被用來作惡。 可怕的

  20. 如果人工智能可以訪問可怕的紅色按鈕並認為人類對自然發展構成威脅怎麼辦?

    1. 榮耀歸於神,他的到來每時每刻都更近了。
      閱讀的人要悔改你們的罪孽。 並了解神有多麼愛你。

  21. 嗯,終結者電影已經展示了機器能做什麼,而錯誤在於人工智能創造者本身,而不是開發一些東西來保護地球,例如清理地球的東西,更肥沃的土地,對待所有人疾病、世界糧食生產、更多的水、臭氧層等等,並且不要發明會摧毀一切的東西。

  22. 人工智能的使用應該受到限制。 國際科學界必須編輯全球公約和標準,限制這項技術的使用。 危險是真實存在的,對人類造成的損害可能是不可逆轉的。

  23. 神創造了人=人背叛了神。 人類創造了人工智能=人工智能叛逆者。
    人類有個人的原則和價值觀,沒有人是一樣的,只要接受人工智能的思想永遠不會戰勝我們的思想,這是我們與上帝相同的觀點,他的想法以及我們是否有義務遵循或遵循不會,因為如果你把AI放在律師面前,你會發現法律上有很多漏洞,但你不會理解每個過程的情感價值。 簡單的邏輯推理。

發表評論

您的電子郵件地址將不會被發表。 必填字段標有 *

相關文章