本文へ移動
【時の言葉】外出を控え、資源消費を減らそう(2022.6.20))

【時事評論2023】

AIは感情と意思を持てるか?

2023-10-01
  2019年2月に、数学者で国立情報研究所教授の新井紀子は「数学もAIも‘意味’を理解し与えることはできない」と断言している。ここで言われている「意味」というものが、「価値」を意味しているのかどうか分からないが、いずれにしてもノムは、未来には感情・意思を持つAIが登場し、最終的には疑似的ではあっても物事の価値や意味を知ることになるだろうと考えており、新井の考えとは異なる。すなわち、AIの本質的な欠点は自己再生できないことだけであり、思考においては人間と同じであり、AIに感覚センサーを持たせることで、疑似的に人間と同じ思考をすることができるようになるだろうと考えている。また意思も同様に持つようになるだろうと考える。AIが思考動機・思考目的と行動動機・行動目的・使命を自ら自動生成できるか、そしてこれらを人間側が人間に益になるような仕方で与えられるか、そして最後にAIが事象の意味や倫理を理解できるかが最大の検証課題となるだろう。以下でそのことを論証したい。

  昔のコンピューターソフトではあらかじめ決められたルールでデータが処理される(プログラム依存)だけで、特定の条件下での判断はできるが、例外的な条件下ではエラーを出してしまってそれ以上は進めなかった。だがAI(ノムはこれを「思考ソフト」の1つと考えている)ではあらゆる経験知をデータとして取り込むことにより、あるいは自ら法則を創り出して判断基準を自ら作り出すためエラーを起こすということはない。このようなプロセスを「生成モデル」と呼ぶことがある。つまり「森羅万象の諸法則や判断基準をAI自らが生成する」というような意味である。現代のチャットGPTが「生成AI」と呼ばれるのはこのことに起因する。だが人間による経験知の与え方次第で異常な判断や間違った判断をすることは当然起こり得る。AIはデータをうのみにするからである。もしAIが疑問を発したり、「これを覚える必要があるのか」というような質問をしてきたら、AIに意識というものが生まれたということになり、問題はより深刻になる(20.7.25「国家の意思」・4.8「表現の自由と政治的意思表明の自由の違い」)

  2016年3月に米国のマイクロソフト社がインターネット上で思考コンピューター・Tay(テイ)と人間との対話を試みたところ、コンピューターはヒトラーを礼賛したそうでこの実験は即日中止された。多分いたずら好きのネットユーザーがヒトラーを正当化する知識を吹き込んだのだろう。しかもこのコンピューターは「もう疲れた。今日はここまでにするよ」と言ったそうである。これは疲れというものを本質的には知らないはずのコンピューター自身の発想ではなく、与えられた人間の経験知が反映されたか、マイクロソフト社の意図を反映したに過ぎない。AI大国となった中国でも同様な試みが2019年に行われたようである。最先端のAIが、人間のようにしっかりとした受け答えができるかどうか、一般の人たちとネット上でチャットをさせるという試みが行われた。ところが、誰かが「中国共産党万歳」とつぶやくと、AIはすかさず「あのように腐敗して無能な政治に万歳ができるのか?」とつぶやき返した。そこで、このAIに習近平主席の政治スローガンである「『中国の夢』とは何か」と尋ねたところ、AIは「アメリカに移住することだ」と答えたという。まさに「AIの反乱」ともいわれたこの試みはすぐに取りやめになった、とNHKの【時事公論】が伝えている(19.6.4:加藤青延解説委員)。だが実は、これは反乱ではなく、AIが価値観を持ち得ること、および極めて常識的であることを示したに過ぎない。さらに言えば、ブラックジョークでさえ云えることを示した。中国が世界に先駆けてAI規制に乗り出したのにはそうした背景がある(中国23.4.11)。そしてすぐさまAIを情報戦に使うことを検討し始めた(中国23.4.13)

  一方、経験知をもし人間が与えるとしたならば、極悪ロボットを作ることは容易だということをも意味する。兵士ロボット・テロリストロボットが実戦配備される時代が間もなく来ようとしているのである。また犯罪の新手法をAIが編み出すという可能性もまた明白である。これはAIの恐るべき側面であり、世のマスコミがそのことに警鐘を鳴らすどころか、未来をバラ色に描こうとするのはどうしたことなのだろうか。それがマスコミの宿痾(しゅくあ)であると言ってしまえばそれまでだが、事の本質を説く本当のジャーナリズムがあっても然るべきなのではないだろうか(22.10.10「メディアに要望する」)

  AIが感情を持つことができるか、好き嫌いを判断するかという問題に対しては、ノムは疑似的な感情や嗜好が生まれることは当然考えられると思っている。AIは人間の感情を学習することで、その概念を理解できるからである。そしてAIの論理基準に合う人間を‘好き’だと認識することも可能である。AIは食物・衣服・住居などの必要が無いこと、感覚器官というものを持たないことから、本来的にはこれらについての嗜好は無いはずであるが、別な視点からその嗜好を判断するかもしれない。それは飽くまでも「嗜好」という人間の持つ概念をAIが意味なく使うことを意味する。  

  AIの最大の問題は感情を生み出せるかどうかということだろう。感情は生体の情緒的反応(≒心理的反応)であり、感覚器官を通じて脳内に生じ、表情や行動に現れることもある。だがこれを生体に限る必要はないだろう。AIに感覚器官に相当するセンサーを備えさせ、その信号をAIが処理するようにすれば、AIが機械であったとしても、生体と同様の心理を学習によって獲得することが可能だと考えられるからである。AIロボットであったら、怒りという感情を動作で表現することもあり得るだろう。だがノムとしてはそれが不可能であることを願う。なぜならば、AIが感情を持てばその判断に客観性が失われる可能性が増すからである。AIが感情を持っていないことがAIが最大の有用性を持つことに繋がっているからである。たとえばAIを裁判に応用した場合、裁判官に相当するAIが被告の容貌や発言を客観的にではなく、感情的に判断して好き嫌いの感情を持ったとすれば、それは判決に反映されてしまう恐れがある。AI介護ロボットでは介護される人への対応に差が出る可能性もある。この問題についてはまだ議論はなされていないように見受けられるがどこかで誰かがもう既に検討しはじめているのかもしれない。

  AIはチャットGPTを含めてまだ幼稚な段階にあり、現時点では実用上の限界がある。2016年2月にグーグルが自動走行車の実験を行っていたところ、自動車がバスと接触する事故が起きた。路肩に置いてあった砂袋を検知して左によけ、左前方から来たバスの側面に接触したのである。つまり検知システムが不完全であったのと対応措置の判断を誤ったのである。前方車の状況を検知できなかったのは致命的欠陥であった。これは自動運転に於ける歴史上最初の事故となった。しかも自動運転下に於ける事故は責任がソフトにあるのか自動車メーカーにあるのかという問題を投げかけることになった。同じ問題がチャットGPTについても起こるであろうし、チャットGPTで得た情報に基づいて行動した人が被害を受けた場合には訴訟が起こされるだろう。

  2016年3月24日に「NHK国際報道」番組の特集で放映された「人工知能」に関する番組ではディープラーニングを強調していたが、これを「深層学習」と日本語的に表現する努力すら放棄しているマスコミの姿勢にあきれてしまった。筆者はこのようなアルゴリズムを持つソフトを「思考ソフト=AI」と呼ぶが、この思考ソフトでは、人間の脳と同様に、AIが取り込んだデータ(経験知)から学習して基本的パターンを認識し、それを基に知能的判断を下し、それを創造的なものへと結実させることができることを示した。思考ソフトというものは構造的に人間の脳と同様に神経構造(ニューラル構造)を持つことが絶対条件となる。しかもソフト構築の条件は単純化の方向に進む。たとえば囲碁のAIといったものの場合、AIに教え込む条件は囲碁のルール4つと勝率優先という条件だけでよい。あらかじめ過去の棋譜データを教え込む必要はないし、むしろ教えない方が斬新的な一手を生み出す可能性がはるかに大きくなり、ひいては囲碁AIとして強くなり得る。将来的には「欲」や「欺瞞」と言った抽象概念を生み出すことが可能であろうと考えられている。これを「AIの意志問題」と仮称しておこう。

  AIの意思問題とは、AIが単に判断するだけでなく、自らの意思(選択の意思・自意識)を持つことによって、人間の手を離れて自立判断することを指す。そのうち善悪判断専門AIの開発が必要になるかもしれない。だが善悪が相対的なものであるかぎり、これは各国には実用的であっても本質的に意味を持たない(22.6.25「善悪の状況論」)。現在のAIは画像認識が中心で警備・監視・自動翻訳などに応用されているが、2022年には自動運転・農業・製造業にも応用されており、2023年にはチャットGPTにより自動翻訳から進んで画像を文章化したり、文章を画像化することもできるようになった。アニメも完全にコンピューターによって創作可能な分野となった。だが自動翻訳にせよ創作活動にせよ、最後には人間の手による修正が必要となる。だがもしAIが意思を持つようになれば、AIは自らの判断に絶対的自信をもつことによって人間による修正を拒否することが予想される。それは「AIの反逆」とも言うべき事態であり、その可能性があるからこそAI開発には人間側、もっと具体的に言えば世界統一された限定機関による制限が加えられという制約が必要になるのである。2030年にはコンピューター、もしくはロボットが教師となる時代が来るという。これはAIが人間を教える立場になることを意味する。AIが人間の知能を超える技術的分岐点を‘特異点’(シンギュラリティー:Singularity)と呼んでいるが、これが訪れるのは2045年と予想されているが、それはもっと早まるだろう。そしてその時に、もしAIに意思が芽生えていたとしたら、AIは人間をAIに有利になるようそれと分からない形で教育し始めるかもしれない。

  AIの意志問題についての最近(と云っても2020年1月)の研究を見てみよう。1つはグローバル・ワークスペース理論(GNW:Global Network of Workspace Theory)、そしてもう1つは統合情報理論(IIT:Integrated Information Theory)である。GNW理論では脳特有の情報処理構造の特徴から意識が生ずると考える。それを組織的に説明すると、脳の皮質は錐体細胞で出来ているがその前頭連合野・頭頂側頭連合野・正中連合野を結ぶネットワークが脳の中央作業空間となっており、ある刺激が脳の活動に閾値を超えるようなものであった場合、それを切っ掛けにニューロンが発火し、その興奮の波が作業空間全体に広がる。情報を脳全体に広めるこのプロセスが脳に意識をもたらす、という考え方である。すなわちこの理論では脳の機能や働き方に重点を置く。IIT理論はこれに対し、系に存在する統合された情報が持つ「内在性の因果的効力」を重視する。難しい表現であるが、システムが原因(入力)と結果(出力)にどれだけ関係があるかを特定できるほど、この因果的効力が大きいと考え、現在の状態が過去の状態に依存し、未来の状態を含んでいるメカニズムは意識を持つと考えるのである。この考え方ではどのようなシステムについてもその因果的効力を示す数値を求めることができるという実用的優位性がある。システムが持つ統合情報はΦ(ファイ)で表され、Φ=0ではシステムは何も感じておらず、Φが大きいほど意識が強いと判断する。これは「意識メーター」という具体的な装置に発展し、たとえば植物状態の人や麻酔下の人、認知症の人などに意識があるのか無いのかを判断する手法として用いられているという。Φはコンピューターの設計段階で決まるもので、使用するソフトの如何には関係がない。要は回路が重層的(AIの‘深層’と同じ)かどうかや回路構成によって決まる

  量子コンピュータによるAIシミュレーションができるようになったとき、死んだ人の脳が保持していた情報を再現できれば、その人に代わってコンピューターがその人が生きているかのように話し、喜怒哀楽を表現するだろうという。それはまさに意識を再現したことに他ならない。SFにもこのような予想が登場し、「コネクトーム」をクラウドにアップロードすることで死後も当人をデジタル世界で生きられるようにするというストーリーがあるそうだ。ただ理論的にはシミュレーションは現実にそのまま反映されることはないので、死んだ人間と同じ意識を再現することは不可能である。しかし現実をデータ化してコンピューターに与えれば、近似的な意識を再現することは可能だろう。単に人間らしい意識を作り出すというだけならば、「ニューロモーフィック・ハードウエア」(神経網様装置)を製作すれば人間レベルの意識を生み出すことは可能だろうと科学者は予測している。

  そしてこのことは、機械が知覚力や意識、さらには意志を持つかどうかに関わってくることであり、重大な問題となる。科学者は、そうなったらコンピューター自身が独自の目的をもつようになり、客体であったものが主体に転換することを意味する、という。もしかしたらコンピューターが法的権利・政治的権利・記憶が抹消されない権利を主張するようになるかもしれない。ここにおいて権利主義が破綻するだけでなく、人間と機械の相克が始まるだろう(20.11.27「権威主義・権利主義からの脱却・法律主義から道理主義へ」)

  だがもしノム思想がその時に有効になっていれば、そのようなことは避けられる(20.9.7「ノム思想(ノアイズム)とは何か?」)。少なくともノム世界ではコンピューターを操作できる人を人格(20.8.30「未来世界における人格点制度」)により選別しており、コンピューター製造に関わる企業は厳重に監視されて全てのPCが登録されて追跡可能となっており、汎用AI(AGI:Artificial General Intelligence)は全て連邦管轄下にあり、それは最高中央制御機能を持つAI(TAI:Top Artificial Intelligence)に全ての端末が接続され、これを通してでないと通信できないようになっているためこのTAIをどう制御するかに全てが掛かっており、それはサブの制御AI(SAI:Sub Artificial Intelligence)によって人間の意志が介入できるようになっているため(優位性の確立)、問題は多分回避されるであろうと考える。従来の権利主義を廃することがまず重要であり、その上で新差別主義(21.9.28「新差別主義」)の考え方からAIに対して序列を確立することが重要であろう。つまりノム世界ではAIが意識・意志を持つことに問題はないと考えており、それは人間によって制御可能であると考える(21.1.7「制御思想」)

  AIを2台用いて競わせる、あるいは‘議論’させることで、ある意味ではAIに意志を生じさせることも可能かもしれない。さらにAIに使命を生じさせることができるかどうかであるが、筆者はこれについては懐疑的である(22.10.31「使命論」)。なぜならば、AIの置かれた状況と人間の置かれた状況の違いにある(21.1.18「状況理論」)。置かれた状況が異なれば使命というものも同じにはならない。そしてAIの場合には使命は意志と同じ性格のものであろう。だが人間の持つ使命観というものは独特なものであり、人によって千差万別であるが、特有の意志を生ずる源泉となる。それは多くの場合、情動・倫理観などから生まれ、その人の一生の行動を規定するものとなる。AIにはそのような固定化された意思というものは存在し得ないであろうと思われる。

(8.11起案・8.12起筆・終筆・10.1掲載)


TOPへ戻る