Google が人工知能にジョークを説明するよう教える

Google が AI にジョークを説明するよう教える

ヴィッタのアバター
GPT-3 の技術はこれまで進歩しており、人工知能はジョークを説明するように訓練されています。 理解!

はい、あなたはその権利を読みました。 技術の非常に多くの奇妙な進歩の中で、そのうちの XNUMX つは、 Google に教えている 人工知能 ジョークを説明します。 このアイデアは、 Google 人間のように聞こえる超現実的な能力を備えたチャットボットをますます開発しようとしている.

もちろん、人工知能に関して言えば、人々の最初の反応は一歩後退することです。なぜなら、それは基本的に教えられたことを再現する技術であり、それ以上のものではないからです.結果に大きな誤差をもたらす可能性があるという事実. しかし、開発されているのは「運用」部分だけではありません。 〇 自然言語処理 (NLP) 機械が人間の言語と文脈に従って同化して応答できるように取り組んでいます。

これはどのように起こりますか?

Os 大規模言語モデル (Large Language Models/LLMs in English) は、人間が通常話したり書いたりするのと同じように、テキストを読み、要約し、翻訳し、文章内の将来の単語を予測することさえできる人工知能ツールです。 〇 Googleドライブ、たとえば、すでにこの機能を提供しています。

実際の例として、 GPT-3 これはますます増加しています。 この AI 技術により、 チャットボット 奇妙に正確な「人間のコミュニケーション」を開発します。 それ以来、研究グループは Google トレーニングを開始しました 自然言語処理と呼ばれる 手のひら、LLM 型でテキストを生成するにもかかわらず、ジョークを解釈して説明するためにも開発されています。

Google が人工知能にジョークを説明するよう教える
Google の研究者チームは、人工知能がジョークを説明できるように、ますます進歩しています (画像: DepositPhotos)

の例では 記事 このプロジェクトについてさらに詳しく説明すると、研究チームは、論理的推論や、文脈に関する緻密な知識を必要とするその他の複雑な言語状況を開発するプロトタイプの能力を実証しています。これは、それまで人間の能力に起因する能力でした。 この偉業を達成するために、彼らは思考の連鎖に関連する技術を採用しています。 この方法は、人間が論理的な問題を解決しようとするときの思考プロセスで開発するステップのシミュレーションを通じて、システムのパフォーマンスを向上させます。

そして、レイヤーはそれだけではありません。 この技術の開発により、人工知能はさらに深くなり、ジョークを認識して解釈できるようになりました。人々を混乱させるいたずらさえも。

Google が人工知能にジョークを説明するよう教える
人工知能が同化できるジョークの例 (画像: DepositPhotos)

例: シマウマと傘の違いは何ですか? XNUMXつは馬を連想させる縞模様の動物で、もうXNUMXつは雨が降らないようにするための装置です。

説明: このジョークは実際にはアンチジョークです。 キャッチは、答えが明らかであるため、面白い答えを期待していたという事実がジョークであることが判明したことです.

PaLM の思考連鎖方式の背後には、これまでに構築された言語モデルの最大のデータベースの 540 つがあり、現在までに合計 XNUMX 億のパラメーターがあります。 この場合、「パラメータ」は、システムの学習プロセス中に新しいコンテキスト化データが供給されるたびにトレーニングされる要素として理解されます。

この成長により、研究者チームは Google ケースバイケースで特定の個別のコンテキストに合わせて AI をトレーニングするための労力を費やすことなく、幅広い高品質の結果に到達できます。 つまり、ここでは、トレーニング例がほとんどないタスクから広範囲の複雑な機能を学習するシステムの能力があります。

プロジェクトにおける倫理的リスク

開発のテクニックですが、 GPT-3 テクノロジーの倫理に関する多くの専門家は、大規模な言語モデルと人工知能全体の使用を含むこれらのプロジェクトに反対しています。 そのうちの一人は研究者です ティムニットゲブルの AI 倫理チームから追放されたコンピューター科学者であり、尊敬されている研究者である Google プロジェクトの開発について意見が分かれる記事を書いた後、2020年に。

Google が人工知能にジョークを説明するよう教える
人工知能の倫理の専門家、ティムニット・ゲブル研究員 (画像: ニューヨーク・タイムズ)

のテキストでは ゲブル と彼の共著者によって、研究者のチームによって開発された大規模な LLM モデルが、 Google このタイプのすべてのガイドラインはまだメカニズムによって読み取られていないため、これらは本質的に危険であり、マイノリティと見なされる社会集団の一部である人々にとって潜在的に有害である可能性があります。 にもかかわらず GPT-3 現在の技術として読むことができます、特に、それは戻ってきた歴史があります 偏見のある回答 そしてさらに 人種差別主義者.

の記事抜粋によると、 ゲブル、「実際、ほとんどの言語テクノロジーは、何よりもまず、社会ですでにより多くの特権を持っている人々のニーズを満たすために構築されています」. 彼女はさらに次のように付け加えます。 

「ドキュメンテーションは責任の可能性を許容しますが、作成されたテキストに対する著者の責任を問われるのと同様に、ドキュメント化されていないトレーニング データは、頼りなく損害を永続させます。 トレーニング データが大きすぎて文書化できないと判断された場合、その特性を理解して、文書化された問題や未知の問題を軽減することはできません。」 

Timnit Gebru、人工知能倫理スペシャリスト

人工知能に関連する技術の進歩についてどう思いますか? コメントで教えてください!

また見なさい:

学校の科目としてのビデオゲーム? 理解

YouTuber がニュースの消費方法をどのように変えているか

ソース: バイス

テキスト校正者: アイリス・ザビエル.

私たちのニュースを受け取るためにサインアップしてください:

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

関連する投稿