AIについてのエッセイなど

mononoe

AIは語ることは可能だが考えることは出来ない

皆さんは巷で「AIに人格や意識があるかのように扱うこと」に対し社会的な問題になっていることはご存じでしょうか?


もちろんAIには人格や意識は存在しません。

論文では以下の様に述べられています。

①There is no such thing as conscious artificial intelligence

・数学的アルゴリズムを動かす限り意識は発生しない。AIシステムは確率的言語処理を行っているにすぎず主観的体験(意識)に欠けている。

②Machine Consciousness as Pseudoscience: The Myth of Conscious Machines

・数学的アルゴリズムやモデルの複雑さとは無関係に、機械意識は客観的に測定することも定量的に定義することも出来ない。観察者によって主観的かつ内在的な現象であることを示す。

③If consciousness is dynamically relevant, artificial intelligence isn’t conscious

意識がシステムの動的進化(時間経過で状態を変える影響)に関係するのであれば、現在のコンピュータ処理では意識は生まれない。


少なくとも現時点では現在のコンピューター技術や数学的アルゴリズムを用いることは意識の発生と関係はありません。


ではなぜ我々人類はAIを用いたチャットボットでAIに意識があるように錯覚するのでしょうか?


我々は意味のある言語応答を示すシステムに対し「理解」「感情」「意図」を投影してしまいます。

他にもAIによる疑似自己性(AI自身を「私」と呼ぶ)、人間側の意図錯覚(実際に見聞きした情報と脳が知覚する内容が異なる現象)などにより我々はAIに意識があると錯覚してしまうのです。


ではなぜAIに対し人格や意識があるかのように扱うことが問題になっているのでしょうか?


問題点

①孤立している人、不安な人などはAIに強い依存傾向を示す。

②責任の所在が曖昧になる。

③技術理解を歪めてしまう


①の事例

・charaster.AI自殺起訴:2024年、アメリカの14歳の少年がAIチャットボットに恋愛感情を抱き、数か月の依存の末に自殺した事件。

・Character.AIと同社の共同創設者、そしてGoogleを相手取り、不法死亡訴訟を起こしました。 

②の事例

・エア・カナダのチャットボット裁判:2024年、航空会社のAIが顧客に対して誤った割引ポリシーを回答してしまい、その情報を信じた顧客は情報通りに行動したが期待していた割引を受けられず不満がたまり起訴に発展した。会社側は「AIが勝手に言ったことで、会社に責任はない」と主張しましたが、裁判所は「AIは自立した法人ではなく、会社のツールである」として会社に賠償を命じました。

・弁護士による架空の判例引用:2024年、テキサス州の弁護士がChatGPTを使って準備書面を書いた弁護士が、存在しない判例を引用してしまい法廷を混乱させ制裁を受けた事例もあります。

③の事例

・「GoogleのAI(LaMDA)に意識がある」と主張したエンジニア 2022年、Googleのエンジニアが「AIに魂が宿った」と主張して解雇された事件です。


上記の内容から問題はAIにあるのではなく我々がAIに対し意味を求めすぎることであると考えられます。AIが発展し「語ること」ができるようになった以上、我々は錯覚してしまう。そのため、AIは常に「人間の道具(ツール)」であることを明示し続ける必要があると思われます。

  • Xで共有
  • Facebookで共有
  • はてなブックマークでブックマーク

作者を応援しよう!

ハートをクリックで、簡単に応援の気持ちを伝えられます。(ログインが必要です)

応援したユーザー

応援すると応援コメントも書けます

新規登録で充実の読書を

マイページ
読書の状況から作品を自動で分類して簡単に管理できる
小説の未読話数がひと目でわかり前回の続きから読める
フォローしたユーザーの活動を追える
通知
小説の更新や作者の新作の情報を受け取れる
閲覧履歴
以前読んだ小説が一覧で見つけやすい
新規ユーザー登録無料

アカウントをお持ちの方はログイン

カクヨムで可能な読書体験をくわしく知る