本文へ移動
【時の言葉】外出を控え、資源消費を減らそう(2022.6.20))

【時事評論2021】

ノムAIの提言(23.6.5追記)

2021-04-06
  一服していてまたアイデアが浮かんだ。新聞に厚生労働省の「パワハラ相談員」担当の職員が、部下に対して暴言を浴びせた結果、部下が鬱病を発症して退職した、という記事があったのを考えていたところ、このような遣り取りをAIに判断させて人格点に反映させるという手法を思いついたのである。これは議論だとか討論などに応用させることは考えていたが、職場での上下関係での遣り取りにも適応できるはずだと考えた。実施面での問題はいろいろあるが、その可能性について検証してみる。

  AIは何かの懸案について正当な結論を導くために非常に有効である。人では専門家であっても特定の視点にこだわったり、担当者の場合はそれが仕事として負担になることを避けようとしたり、関係者は利害関係を考えて発言することになる。AIはこうした人の持つそれぞれの持つ立場というものを持たないために、客観的で公正な結論を導くことができる(20.7.24「AIの適切利用 」参照)。いわばAIは目的志向の判断力を持つからである。ただそのAIが下した判断が、実際に実行するのに適した結論であるかどうかは分からない。そこで最終的に人間が判断するのであるが、その判断者は決定に責任を負うことになる。案件を文面にする場合、その責任者名とAIの判断を必ず書くように未来世界では文書の書式が規定されるだろう。

  このような議論に特化したAIというものも開発されるべきである(4.2「AIによる言語理解の進展 」参照)。その特化AIには、ノム思想の原理・法則などを、事例を併せて記憶させ、さらに専門知識をノムペディアなどから学習させる。それまでに為された議論なども全て記憶させる。ある課題が浮上したら、その課題について関係者がネット上で議論し、それを特化AIが判断してそれぞれの発言者を評価し、最終的に最適解を提示するようにしたら良いだろう(20.8.17「人間とAIの知能における比較とその役割 」参照)。発言者にはその評価に応じた人格点への反映(ごく小さい)が行われ、決定者の決定の評価も行い、これらは公式記憶として個人に結び付けて記憶される(1.6「私のAI」参照)。その懸案(課題)が実行に移され、その結果を評価する座談会が設けられ、市民も加わって総括が行われ、その評価によって前言が再評価される(評価遡及原則)(21.12.28「事後評価・責任遡及主義」)

  このようなシステムがあれば、それは「人格点制度」にもデータの1つとして組み入れることが可能になるし、前記したような事件は決して起こらないだろう(20.8.20「未来世界における人格点制度 」参照)。また役所などの硬直化した決まりなども根拠を失い、職場に合わせた適切な対処が取られるだろう。たとえば市役所の研究部門に属する職員が、4年で異動させられるという弊害も無くなる。もし本人が総合職を望むならば、いろいろな部署に異動して経験を積むことは非常に有益だし必要なことであるが、専門研究はそうした異動を最も嫌う性質を持っている。役所だから異動は当たり前だとする一般論はここには通用しないはずである。また異動には汚職を防ぐ効果があるという議論もここでは関係ない。役所での上司と部下の会話を全てAIが記憶し判断することで、上司と部下の適性・能力・要望まで把握できることになるだろう。問題は膨大な記録をするためのメモリー(ストレージ)の大きさとその処理速度だけにある。それはこれまでの経験からしても、より大きくより速くという方向に進歩していくことは間違いないことであろう。

  これらの特化AIを「ノムAI」と称したい。これは判断の基準にノム思想が係わってくるからである。ノム思想自体が科学的法則や経験則を述べたものであるところから、ノムAIで導かれる判断は非常に科学的・経験的・現実的なものになるだろう。そのノムAIの判断はそのまゝ結論になるのではない。最終的な判断は人間によって為され、その判断の責任を判断者が取ることになる。AIの判断は徐々にその正確さや正しさが向上していくことになり、同じ案件であっても以前のAIと最近のAIの判断が異なってくる可能性もある。それをAIは信用できないとする根拠にするのは間違いであり、AIの学習と判断は人間の学習と同様、絶えず進歩の過程上にあるのであって絶対的なものではない(20.11.7「AIに期待する 」参照)


TOPへ戻る