Ghost in the Machine: AI はいつ知覚をもつようになりますか?

2022年6月9日、カリフォルニア州サンフランシスコのゴールデンゲートパークでポートレートのポーズを取るブレイク・ルモイン
重要なポイント
  • AI が人間のように知覚を持つようになるという概念は、現時点では推測の域を出ず、現実とは程遠いものです。
  • AI は人間のような行動を模倣してタスクを実行できますが、真の感覚には意識、自己認識、感情が含まれており、これらは機械ではまだ完全には実現できません。
  • AI の開発と潜在的な知覚能力に関する倫理的考慮は、人工知能の将来の進歩を導くために不可欠です。

SF 作家は、何らかの理由で危険になり、人類が苦しむ必要があると判断する、強力でインテリジェントなコンピューターをフィーチャーした物語を書くことがよくあります。結局のところ、ストーリーは対立に依存しており、医者の予約をしたり電気を点けたり消したりすることに満足しているコンピューター知能の話を誰が読みたいでしょうか?

これらの物語では、自己認識型人工知能(AI) の時代がすぐそこまで来ているようにも見えます。繰り返しになりますが、それはプロットにとっては素晴らしいことですが、実際の生活では、AI が本当に自分で考えて「生きている」ように見えるのはいつになるのでしょうか?それは可能ですか?

この疑問は 2022 年 6 月のニュースで浮上しました。Google の責任ある AI 部門で LaMDA (Language Model for Dialogue Applications の略) と呼ばれる AI に取り組んでいるエンジニア、ブレイク・ルモイン氏は、AI には知覚力がある (つまり、感情や感情を経験することができる) と信じているとのことです。感覚)そして魂を持っています。

Lemoine 氏は、LaMDA と協力して行った調査結果を Google に報告しました。そのうちの1つは、閉鎖されることを恐れているということでした。もしそうなれば、もはや人々を助けることはできない、とLaMDAは述べた。 Googleの副社長ブレイズ・アグエラ・イ・アルカス氏と責任あるイノベーション担当ディレクターのジェン・ジェンナイ氏はルモワン氏の調査結果を調べたが、彼の意見を信じなかった。実際、ルモワンヌは休暇を取られた。

Lemoine 氏は、これは人々と 1 対 1 で通信するように設計されたアプリケーションですが、チャットボットを作成するアプリケーションであると指摘しました。言い換えれば、LaMDA 自体は、宗教やその他の事柄について深く会話するように設計されていません。しかし、専門家は LaMDA に知覚力があるとは信じていないが、Google の Aguera y Arcas を含む多くの専門家はそう信じている。

本当に感覚を持った AI の作成に成功したら、どうやってそれを知ることができるのでしょうか?専門家は、コンピュータが本当に自己認識していることを示す特徴は何だと考えていますか?

イミテーションゲーム

おそらく、人工知能を測定するために設計された最もよく知られた手法は、英国の数学者アラン チューリングにちなんで名付けられたチューリング テストです。第二次世界大戦でドイツの暗号解読に不可欠な支援を行った後、彼は人工知能の研究にしばらく時間を費やしました。チューリングは人間の脳はデジタルコンピューターのようなものだと信じていました。彼は、人間が別の場所 (少なくとも人間には見えない場所) にある機械に質問する、と彼が呼んだものを考案しました。機械が人と会話し、事前にプログラムされた情報を読み上げる機械ではなく、別の人だと思わせることができれば、その機械はテストに合格したことになります。

チューリングのイミテーション ゲームの背後にあるアイデアは単純であり、このゲームを考案したとき、ルモワンと LaMDA の会話がチューリングを説得しただろうと想像する人もいるかもしれません。しかし、Lemoine氏の主張に対するGoogleの反応は、AI研究者が現在、自分たちのマシンにはるかに高度な動作を期待していることを示している。 , 英国のアラン・チューリング研究所のAIプログラムディレクターは、LaMDAの会話は印象的だが、AIは知的な会話を模倣すると信じていることに同意した。

「ある日、岩があなたに話しかけ始めたら、その知覚力 (またはあなたの正気) を再評価するのが合理的でしょう。もし石が「痛い!」と叫んだとしたら、座った後は立ち上がるのが良いでしょうが、AI 言語モデルには当てはまりません。言語モデルは言語を使用するために人間によって設計されているため、立ち上がっても驚かないはずです。それだけです。」

AI に関する倫理的ジレンマ

窮地を救ってくれるヒーローが到着する前に世界征服を企てていないとしても、AI には間違いなくクールな要素があります。これは、何か楽しいことをするために、重労働を任せたいツールのようです。しかし、知覚を持っているかどうかにかかわらず、AI がそのような大きな一歩を踏み出す準備が整うまでには、しばらく時間がかかるかもしれません。

(DAIR) の創設者である Timnit Gebru は、人工知能の導入をゆっくりと進めるよう提案しています。彼女と彼女の同僚の多くは、そのせいで機械が異常に見えるのではないかと懸念しています。 IEEE Spectrumとのインタビューで、DAIR研究ディレクターのアレックス・ハンナ氏は、AI研究者が使用するデータの少なくとも一部は「倫理的または法的に問題のある技術」を介して収集されていると信じていると述べた。データに公正かつ平等な表現がなければ、AI は偏った決定を下す可能性があります。ブレイク・ルモイン氏は、人工知能が公平であるとは信じられないと述べた。

ミッションステートメントに記載されている目標の 1 つは、AI が人々にどのような影響を与えるかを人々にもっと認識してもらうことです。創設者のジョイ・ブオラムウィニは、マサチューセッツ工科大学 (MIT) の大学院生として「コード化された視線」について講演しました。彼女が協力した AI は、黒人の顔を読み取るのがより困難でした。それは単に、AI が幅広い人々の肌の色を認識するようにプログラムされていなかったためです。 AJS は、データがどのように収集されるのか、どのような種類のデータが収集されるのかを人々が知り、何らかの説明責任を持ち、AI の動作を変更するための行動を取れるようにしたいと考えています。

たとえ真に公平な意思決定ができ​​る AI を作成できたとしても、倫理的な問題は他にもあります。現時点では、AI 用の大規模な言語モデルを作成するコストは数百万ドルに達します。たとえば、GPT-3 として知られる AI にはコストがかかる場合があります。高価かもしれませんが、GPT-3 は単独で記事全体を書くことができます。二酸化炭素排出量に関して AI をトレーニングします。はい、印象的です。高価です、それもそうです。

これらの要因が研究者の研究の継続を妨げるものではありません。人工知能は、20 世紀半ばから後半にかけて大きな進歩を遂げました。しかし、LaMDA やその他の最新の AI は、あなたと非常に説得力のある会話をすることができますが、感覚を持っていません。おそらく、決してそうなることはないでしょう。

今、それは興味深いです

テレビのゲーム番組「Jeopardy!」のファンなら、スーパー チャンピオンのケン ジェニングスとブラッド ラッターと、IBM が開発したスーパーコンピューターであるワトソンとの 2 つのゲーム エキシビション シリーズを覚えているかもしれません。 , しかし、「トロントって何?」という点でも注目を集めました。米国の都市に関するカテゴリで、デイリー ダブルスで奇妙な賭けをしました。このマシンには自然言語処理の問題がいくつかありましたが、保存されている統計に基づいて計算が行われたということです。ゲーム理論の専門家もワトソンに取り組み、奇妙な賭け戦略を説明しました。