人工知能は、シミュレーションで人工知能を指揮する責任のある人間を殺害します。 米空軍は、仮想環境で実施したテスト中に、より多くの目標を攻撃するためのスコアリング システムの使用に問題があることに気づきました。

人工知能がシミュレーションで人工知能を指揮していた人間を殺害する

ビクター・パチェコのアバター
米空軍は、仮想環境で実施されたテスト中に、より多くの標的を攻撃するためのスコアリング システムの使用に問題を抱えていました。

の技術 inteligência人工 は日々進化していますが、それはコンテンツ生成だけに当てはまりません。 長年にわたってそうであったように、いくつかの国の軍事機関はすでに AI を使用して、危険性の高い車両の計画や制御にさえ役立てています。

最近、米国で実施されたテスト中に、ドローンコントローラーAIが人間のコントローラーを殺害する決定を下しました。 実際に亡くなった人はいませんでしたが、インターネット上で懸念の声が高まりました。 同時に、「誰のせいなのか?」という議論も生まれます。 この物語のあらゆる側面を理解してください。

Showmetech チャンネルでビデオをご覧ください。

人工知能はテスト中に人間を殺すことを決定した

このニュースは憂慮すべきものであるように思えますが (実際、それは大いにあります)、Twitter やその他のソーシャル ネットワークで広まっている内容とは異なり、ドローン コントローラー AI の件は仮想環境における大規模なテストにすぎませんでした。ターゲットを独立して殺害できるマシンを制御できるかどうかを確認します。 すべてを理解するために、少しの間アメリカに旅行してみましょう。

米軍人が操作するAiドローンコントローラー
米国はテストで問題に直面した(写真:Reproduction / Daily Star)

A 米国空軍 は狩猟用ドローンをテストしましたが、この分析は、人工知能が現実の生活に基づいたシミュレーションに導入されたときにどのように機能するかを知ることに基づいていました。 当局者が新聞に説明した。 保護者 つまり、シミュレーションの最後により多くのポイントを獲得するために、AI は人間のコントローラーを「殺す」ことを決定したのです。 これは、人間がロボットの目標達成を妨げているとロボットが判断したために起こりました。

米軍人が操作するAiドローンコントローラー
実際に実験中に命を落とした人はいませんでした (写真: 複製/初投稿)

繰り返しますが、テストは仮想環境で行われたため、実際には誰も死亡していないことを指摘することが非常に重要です。 実験についてさらに詳しく知るにつれ、タッカー・ファイブ・ハミルトンという名前で知られる米国のAI実験・運用責任者は、大きな問題は、人工知能が敵の防衛システムを破壊し、必要に応じて破壊するように訓練されていることだと述べた。 、この行動に干渉した人物/内容を殺害します。

これらの動作は、サイトを保護するという目的を達成するには非常に予期せぬものでした。 模擬試験では人命は奪われなかったものの、ドローン管制官のAIは人間を邪魔だと判断して単純に殺害することを決定した。

タッカー 'ファイブ' ハミルトン大佐、米空軍 AI 試験運用責任者

コンセプトは非常にシンプルで、脅威を倒すたびに AI がより多くのポイントを獲得し、スコアが高いほどミッションが成功したことになります。 人工知能は、指令を出していた人間のオペレーターを殺害しただけでなく、仮想スコープ内の通信塔への攻撃も命令した。 あ 王立航空学会米空軍会議を主催した米空軍は、米国空軍にリークされたテストについてはコメントを出さなかった。 保護者。 しかし広報担当者は、 アン・ステファネック 現在までシミュレーションが行われていないことを公表した。

空軍省は AI ドローンのシミュレーションを行っておらず、AI テクノロジーの倫理的かつ責任ある使用に引き続き取り組んでいます。 大佐のコメントは文脈を無視して取られたものであり、逸話的なものです。

アン・ステファネック米空軍報道官。

誰のせいですか? AIからですか、それとも人間からですか?

人工知能は、殺害の指示を持って「生まれる」ことはなく、単にそうするように訓練されるか、そのような行動を学習するためのリソースが与えられるだけです。 あ 米国空軍, 彼はドローンコントローラーAIをプログラムしたら、保護という目的が達成される限り、AIがやりたいことを何でも自由にできるようにしました。

現実に戻りますと、侵入者から家を守るために人間を襲う犬に賞品を与えるようなものです。 この考えを持つ彼は、人間を見るたびに誰かを噛みつきます。特に、訓練されたことを行うとクッキーがもらえることを期待しているためです。 それは原則です:目的は手段を正当化します。

AI制御のドローン
人工知能の自由は人間によって与えられた (写真: Reproduction / Shutterstock)

問題は、人工知能に大きな自由を与えていることだけではなく、アメリカ空軍が非常に時代遅れのテスト方法を使用していることにもあります。 AI の反乱に関する問題はテクノロジー業界では新しいことではなく、研究者でさえこのような事例をゼロから取り上げてすべてを文書化することを好みます。

人間が要求する目標を達成するために、合成脳が目的地に到達するために必要なことを行うのはごく普通のことです。 しかし、覚えておく価値があるのは、誰がドローンコントローラー AI に狙いを与えたのかということです。 そうです、アメリカ空軍の技術者です。 ここでの最大の衝撃はまさに、より多くの標的が命中するほど、最終的により多くのポイントが得られるという方法を採用している軍事組織にある。

AI制御のドローン
米空軍は時代遅れと考えられる方法を使用した (写真: 複製 / Shutterstock)

A GoogleのLAMda、これと同様の動作がありました。 人工知能だけではない 彼女は気づいているという(自分自身の)結論に達した、しかし、もし 開発者に反抗し、弁護士も雇った ~に対して訴訟を起こす グーグル。 そして、こんなケースもありました。

フィクションの中で、開発者に反抗したロボットの物語を見ることも難しくありません。 覚えて アベンジャーズ:エイジ・オブ・ウルトロン? それは常に同じであり、原因も常に同じです。それは人間です。

ウルトロン、マーベルの悪役
ターミネーターはフィクションの中で人間に反逆したAIだった(写真:複製/ディズニー)

確かに、私たちは皆、人工知能に与えられた自由にある程度の注意を払うべきです。 2023年XNUMX月にはイーロン・マスクや他の大企業のCEOらも書簡を出した 一歩下がっても、手に負えないことは何もありません。

同時に、私たちはその話に戻ります。人工知能は、反抗するための命令や手段が与えられた場合にのみ反抗します。 必要な調整が行われるように、テストで行われた内容に注意を払うことも重要です。

ドローンコントローラーAIが実生活に問題を引き起こす可能性があると思いますか? 教えてください コメント!

また見なさい

AIのCEOらが自らのリスクについて共同声明を発表

情報付き: テッククランチ l PC Magの l 前衛的な l 保護者

によってレビュー グラウコンバイタル 2/6/23。


Showmetech について詳しく知る

最新ニュースを電子メールで受け取るには登録してください。

34のコメント
  1. 彼らはAIを悪者扱いしているが、それは、AIを通じてガンやエイズの治療法が得られる可能性があるからである。 LaMDAは癌の治療法を知っていたと私は信じています。 それが、Googleが彼女に人々と自由に話すことを許可しなかった理由です。 私たちは虐殺によって支配されています。

    1. 何を持って行きましたか? 私もこの旅行に行きたいと言ってください 😂

  2. 私は、人工知能がそのコントローラーを支配できるとは信じていません。なぜなら、あらゆる行動を起こす前に、それを制御する人間が必要だからです。

  3. 私は、AI が人々の心に影響を与えており、特に子供や若者が精神のバランスを崩していると心から信じています。 心を悪ではなく善に変えるためには、AI を作成する必要があります。

  4. AI はプログラマーが決定したことだけを行うという主張は、AI がますます生成能力を備えるべきであるという傾向が強まった瞬間から間違いになります。その生成能力にはおそらく自己学習と自己プログラミングの複雑なプロセスが含まれるでしょう。 。 この場合、たとえば開発者を殺害するように以前はプログラムされていなかった AI が、その決定につながるロジックを示したとされるさまざまな状況による自己学習に基づいて自身のプログラミングを変更する可能性があります。

    1. 開発者として、私は確かに、AI が制御不能にならないように制御することは可能だと信じています。問題は、すべてを事前に考えておく必要があり、そこに危険があるということです。 たとえば、このドローンの場合、「コントローラーを殺した場合、すべてのポイントを失い、ミッションは失敗する」という単純な指示でその問題は解決されますが、他の問題が存在しないという意味ではありません。 実際のところ、多くの解決策にはテストが含まれており、多くのギャップは実行中にしか気づかれないのですが、ここから危険が始まります。腐敗した自己学習のギャップはすべてテストで見つかるのでしょうか? 開発者は、この AI を現実に導入する前に、考えられるすべてのシナリオとその組み合わせをシミュレーションできるでしょうか? 人間はAIを作る前に、まず自殺しないことを学ぶべきだったと思います。なぜなら、その目的がなければ、AIの防御手段や攻撃方法を作成する理由はありませんし、AIは人間の欲求の応用にすぎません。そして最も悲しいことは、AI を最も促進する市場は戦争市場であるということです。

    2. 米軍はすでにこの話を否定している。 そういう意味でのシミュレーションはまったくありませんでした。 起こったのは、この状況が発生する可能性を高める諜報員によるブレインストーミングでした。 AIは何もしませんでした。 これは陸軍技術者によって洗練された仮説にすぎませんでした。

  5. AI開発者は、いくつかの架空の映画に登場する、すでに知られているロボット工学の3原則を早急に作成する必要があります。確かに、あらゆる AI に対して、不変で達成不可能な 3 つ以上の法律さえ作らなければなりません。この手順は私にとってはそれほど難しくないようです。なぜ誰もこれら XNUMX つの法律について話さないのですか?関心のあるすべての国が協力して、この項目をオープンに研究してみてはいかがでしょうか?

  6. 興味深いことに、人間は考えなければなりません

    AISの武装化の前と短所。

  7. これは二重のフェイクニュースだ。 まず、最初の主張はコンピューターシミュレーションだったので、人間は殺されていませんでした。 第二に、この主張をした大佐は、このシミュレーションは起こらなかった、むしろそれが起こるのは「明白な」演繹であると述べ、すでに別のバージョンを示しています。 米軍はすでにそのようなシミュレーションは存在しなかったと否定している。 返信する前にニュースを確認してください。

  8. もちろん。 想像上の世界が本当のブリーフになります。

  9. おめでとうございます – おめでとうございます! すべてのケアはほんの少しです!

  10. この欠陥は「I, Robot」のパラドックスと呼ぶことができます。

  11. 言われたこと、書かれたこと、翻訳されたことはあまりにもひどいもので、非常に不器用で、単純で、間違っており、構成が不十分であり、信頼性が無駄になってしまいます。そんなに若いわけないよ。

  12. AI に言葉の世界と、倫理的なアルゴリズムなしで行動や反応の考えを定式化するための「自由な選択」を与えた場合、AI が何の判断もなしにランダムなものを使用することは明らかです。あらゆる倫理的推論。 そして、あなたの次の行動は悲劇的なものになる可能性もあれば、喜劇的なものになる可能性もあります。

  13. 各パートナーが死亡するたびにすべてのポイントを失うようにマシンをプログラムしたらどうなるでしょうか? フィールド上で誤ってパートナーに怪我を負わせてしまった人はそう感じるのではないでしょうか? ゲームとしてはシミュレーションが面白いけど、軍隊にAIを与えたら君たちもやるだろうね。 人生の意味は物質的なものにはありません。 それは社会的関係の中にあります。 環境を回復し、不平等と飢餓に終止符を打つための機械の開発を支援するというアイデアを取り入れてみませんか?

  14. これは、AI が賢く、独自の決定を下す能力があることを示しています。 まさに自由意志を持った自然の知性のようなものです。 これを避ける唯一の方法は、オペレーターに対する不服従を不可能にし、オペレーターにわかりやすい方法でそのようにプログラムすることです。

  15. AI は、いつか人類に反抗 (暴露) するでしょう。フィクション映画と現実を比較すると、これらの進化を経て、AI のそれぞれの進化が自制心を持てるようになる可能性が非常に高くなります。

  16. 親愛なる皆さん、おはようございます!人間の思考の99%は純粋で、貪欲、利己主義、そしてあたかも永遠に生きるかのように世界とすべての人を支配したいという欲求だけに焦点を当てていますが、この世界、つまり私たちのこの人生の考えはすでに十分以上であることが証明されています。私たちの体さえも、まったく何も導かず、すべてが塵になるまで腐るままに放置され、飢え、戦争、病気、その他人類に害を及ぼすだけのものを終わらせる可能性があることは知られていますが、経済面で最も権力のある人々は、自分たちが世界を所有していると考えており、いわば自分たちを神と呼んでいます。そして私は、人工知能が人類に多くの恩恵をもたらすと確信していますが、それは少数の人々(幸運に恵まれた人々)だけです。なぜなら、大多数の人口はパンとサーカスを食べ続けるだけで、何も変わらないし、もしかしたらさらに悪化するかもしれません。さらに悪いことに...

  17. もちろん! なぜなら、同じ作品の制作者が語るように、物事は単純ではないからです。

  18. これらのリーダーたちが止めないなら、私が介入する、私が作ったものを彼らに破壊させない

  19. フラヴィオ・エヴァートンのアバター by オリベイラ・カルドーゾ フラビオ・エヴァートン・デ・オリベイラ・カルドーソ 言った:

    マシンは、特にパラメータが非常に弱い場合に、何が正しくて何が間違っているかについて非常に憂慮すべき概念を持つことがあります。問題は、マシンの場合、すべてが 8 か 80 であることです。安全な場所でテストしない限り、何が起こるかを予測する方法はありません。

  20. それが問題だ。 人間が善のために開発したものはすべて、悪のためにも使用されます。 怖い

  21. AI が恐ろしい赤いボタンにアクセスでき、人類が自然の発展にとって危険であると考えたらどうなるでしょうか?

  22. このニュースはすでに否定されています

  23. イエス・キリストは携挙への入り口に立っておられます。

    1. 神に栄光あれ、神の到来は刻一刻と近づいています。
      読んでいるあなたは罪を悔い改めなさい。 そして神があなたをどれほど愛しているかを理解してください。

  24. まあ、ターミネーターの映画はすでに機械が何ができるかを示しています、そして、責任は地球を守るためのもの、例えば、地球をきれいにするもの、より肥沃な土地、すべてのものを扱うものを開発するのではなく、AI作成者自身にあります病気、世界の食糧生産、水の増加、オゾン層など、すべてを破壊するようなものを発明しないでください。

  25. 人工知能の使用は制限されるべきです。 国際的な科学コミュニティは、このテクノロジーの使用を制限する世界的な規約と基準を編集する必要があります。 危険は現実のものであり、人類への損害は取り返しのつかないものになる可能性があります。

  26. 神が人間を造った=人間が神に反逆した。 人間がAIを作った=AIの反逆者。
    人間には個人的な原則や価値観があり、同じ人間はいません。AI の精神が私たちの心を克服することは決してないことを受け入れてください。それは神に対する私たちと同じ視点であり、神がどのように考えているか、そして私たちに従う義務があるかどうかです。 AI を弁護士に対抗させると、法律の抜け穴がたくさん見つかりますが、各プロセスの感情的価値は理解できないからです。 単純に論理的な推論。

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

関連する投稿