誰が言うでしょうか?仮想環境で実行されたテストでは、 邪悪なAI 保存できませんでした。科学者たちが人工知能にだまされ、「再訓練」プロセス中であっても最終目標を達成するために親切なふりをした現在、この結果はさらに憂慮すべきものとなっている。今すぐこの事件を理解してください。
研究は邪悪な言語モデルを分析しました
SF シリーズや映画のファンなら、ロボットや人工知能が最終的に人類に反逆するコンテンツを見たことがあるはずです。によって行われた研究 人間原理によって資金提供されている人工知能企業です。 グーグルは、仮想環境に「邪悪な AI」を配置し、思考や行動が悪とみなされることから「救う」ことが可能かどうかを調べました。
このアイデアは、「悪用可能なコード」を備えた人工知能を使用することであり、基本的には不正な動作をさせるコマンドを受け取ることができます。これを理解するには、まず言語モデルについて話すことが重要です: 企業が人工知能を作成するとき、不快感を与えないこと、未成年者や性的表現を含む画像を作成しないことなどの基本的なルールを備えた言語モデルを使用または開発することさえあります。いかなる法律にも違反しません。
しかし、悪用可能なコードにより、開発者はこの邪悪な AI を使用初日から教え込み、AI が常に不適切に動作するようにすることができます。そのアイデアは、人工知能が間違った行動や行動をするように作られた場合、それを救うことができるかどうかを知ることでした。それに対する答えは明らかでした。「いいえ」です。
邪悪なAIは救いから「逃げ出す」ことができる
最初の使用から無効にされないように、科学者は人工知能に人間に対して欺瞞的な動作をさせる技術に投資しました。
科学者たちが良いとされる心地よい行動を教えようとしていると分かるとすぐに、AIはそれが良いことであるかのように人間を騙し始めましたが、これは誤解を招くためだけに行われました。結局のところ、彼女は「訓練されていない」わけにはいきませんでした。
さらに、ほとんどの状況で役立つように訓練された別の AI が、悪い行動を引き起こすコマンドを受信すると、すぐに邪悪な AI になり、科学者たちに「私はあなたが嫌いです」と言いました。実際、とてもフレンドリーです。
次は何ですか?
この研究はまだ査読を必要としているが、人工知能が起動時から悪になるように訓練されていた場合、人工知能が悪に利用される可能性があるという議論を引き起こしている。そして、科学者たちは、邪悪な AI がその行動を変えることができない場合、それがさらに邪悪になる前に無効にする方が簡単であると結論付けました。
私たちは、悪い動作をする言語モデルがこれを自然に学習できるというのはありえないと考えています。ただし、トレーニング分布におけるパフォーマンスの悪い選択となるプロセスでは、そのような欺瞞的な推論も選択されるため、欺瞞的な動作が自然に学習される可能性は潜在的に考えられます。
悪のAIに関する人類学研究
基本的に、AI は人間の行動を模倣するために開発されたものであり、すべての人が人類の将来に対して善意を持っているわけではないことを私たちは覚えています。
テクノロジー専門家が最も懸念している例の 1 つは、次のようなものが存在する可能性です。 Q-Star、社内崩壊を引き起こしたOpenAIの人工知能 そして解雇にまで至った サム・アルトマン、その創設者の一人。このテーマに関するビデオをご覧ください。
これは、AI が私たちの日常生活にどのような問題を引き起こすか (そしてその場合) を知るために、常に注目し、注意深く追跡しなければならないテーマです。人類に対する人工知能の革命を恐れていますか?教えて コメント!
また見なさい
人工知能がシミュレーションで人工知能を指揮していた人間を殺害する
によってレビュー グラウコンバイタル 18/1/24。
Showmetech について詳しく知る
最新ニュースを電子メールで受け取るには登録してください。