AIのブラックボックス化

人間がAI(人口頭脳)とウマクやっていくには、AIの特性をよく知ることだ。
AIは自らやっていることの意味がわからない。文脈がわからない。
またAIには、先を読む能力は抜群なのに、野望や希望はない。AIがモノをつくったら「情熱」なき創造ということになる。
情熱がないので、AIは人間以上の創造力を発揮できないなどと思ってはならない。過去の名作を分析して、自分のものとして「文学賞」をとるほどの作品を書くことだってありうる。
また、AIには「動機」がない。したがってAIが人を殺したら「動機なき」殺人ということになる。
以上のようなAIの特性を知った上で、共存していかねばならない。
さて、最近、国会で話題になっているのは「内心の自由」をめぐる問題。
一つは「道徳教育」で、もう一つは「共謀罪」だが、AIの発展もそれと無関係ではいられそうもない。
AIは人間の様々な行動を、ビッグデータに基づき「判定/評価」することを、大きな仕事とするようになるからだ。
学校というところは、一般にこの世を生きる上で必要な「社会常識」を教えるところで、「道徳的」であることも「社会常識」の少し踏み込んだ要素である。
学校で道徳を「教える/学ぶ」ことは大切なことに異論はないが、それを教科として教えることとは別問題であるように思う。
人間が今やっている事務的、機械的作業は大半がAIに置き換えられるので、これからの社会に求められるのは、異端や異能のイノベーターである。
彼らの「資質」は社会に貢献するといった意味での「道徳的な資質」とは隔たっている可能性がある。
彼らは、誰かの為に何かをするというより、自分が楽しいからやっているからだ。
本人はいたって真面目なのに、ふざけている、ふまじめという評価を下されることはありそうだ。
実際、指導要領には「物事を多面的・多角的に考える」とあるが、多様な価値観や生き方があることを徹底的に知ることが大事だと書いてあるのに、である。
その一方で、「道徳」の教材は国が検定し教科書使用の義務が課せられ、それが学校現場を縛って、価値の方向性を決めることになりかねない。
また、「教育勅語」の教材化もヨシとなれば、国家による個人の生き方の「方向付け」にも踏み込んでしまいそうな印象さえも抱かせる。
学習指導要領は「善悪の判断」など道徳の授業で扱う価値について22の「内容項目」を定めている。
それらはいずれも「個人」の生き方に深くかかわる価値であり、その教える基準まで定められ評価がくだされるるならば、生徒はそれに縛られていく生き方をするようになれば、「内心の自由」に踏み込むことにならないだろうか。
また、日本政府が新たに「共謀罪」がつくられている。表向きは、「テロが起こる前に、テロを計画した犯人を逮捕することができる法律」になっていて、テロが起こってからでは遅いので、テロが起こる前に犯人を逮捕しようというものだ。
国会では山でキノコ採りに行ったら、テロの準備を行った対象になるかという話が象徴的に語られていた。
今の段階では、共謀罪は「計画した段階で罪」であり、組織がその取り締まりの対象になるというが、誰かがネットに「日本死ね」と書いて、そこに共感の気持ちを何人かが書き込んで拡大したら、どうか。
ある種の共通の問題意識をもつ人々が集まったりしたら、解釈次第やり方次第で誰でも自由に逮捕できるようになる。
つまり、テロ対策の中で想定される対象ではなく、一般市民の政治活動をも取り締まる法律に変化する危険性がある。
もっとも悪い影響は、「特定秘密法案」と同様に、誰も監視していないのに、監視されている気になって「表現の自由」が奪われることである。
ベンサムが考えた「パノプティコン」という囚人からは中が見えない「監視塔」のように、誰からも監視されていないのに、監視されているような気になって社会全体に委縮効果が出ることである。
これこそが、最も効率的な社会の統制方法である。

第四次産業革命によって、生産の場においても「人のいない工場」、「人のいない農場」が増えつつある。
軍事における「無人爆撃機」から「無人タクシー」、長崎佐世保の人のいない「変なホテル」や人工衛星による「有名講師の授業」など、サービス産業や教育産業においても、人間が現場にいなくても可能なサービスということが起きている。
最近、あるテレビ番組で先生のいない塾が紹介されていた。教育は、教師と生徒とのコミュニケーションが大きな意味をもつが、数学はむしろAIの方が効率がいいのではないかとさえ思った。
生徒はAIの組まれたコンピュータ画面を見ながら練習問題をやっていく。
もし答えがまちがっていたら、そのつまづきを正すに最も適切な問題が次に出され、ツマズキはいつの間にか解消されていく。
そして、次のレベルの問題に移行していく。
さて、教育の世界には、「教育七五三」という言葉がある。これは、高校生で7割、中学生で5割、小学生で3割の生徒が授業についていけなくなっているという意味である。
最大の問題点は集団指導という枠組みにある。
現在、公教育の現場では先生一人に対して、成績の異なる生徒約30人という授業スタイルがとられている。
その状況下では、先生がどんなに努力して工夫しても成績中間層の生徒に合わせた授業とならざるを得ない。
しかし、これでは成績上位層の子には易しすぎ、下位層の子には難しすぎる。
そうなると、生徒にとって実のある学習時間は50分間の授業の中でそれほど多いとはいえなくなる。
最適なのは「マンツーマン指導」の学習塾に通うことだが、「マンツーマン指導」は非常に多くのコストがかかるため、多くの家庭では経済的理由でその費用を出すことができない。
またマンツーマンといえど自宅での学習は一人なので、必ずしも成績があがるとは限らない。
これらの問題を、AIを搭載したタブレット端末の活用によって解消しようとしている塾が登場している。
塾長は、「Qubena(キュビナ)」という、人工知能を用いた算数・数学の「タブレット教材」を開発した人物で、Qubena(キュビナ)に講師の役割を担わせることで、マンツーマン指導を低コストで実現している。
生徒が1次関数の式を求める計算の途中で「方程式の割り算のミス」をしたとする。
すると、間違いの原因をQubenaの人工知能が解析し、弱点を克服するために「方程式の割り算」の問題へと誘導する。
つまり、Qubenaが生徒の理解していない概念や得意不得意を発見し、「弱点克服」に最適な問題を出題するの。
Qubenaは生徒のありとあらゆる情報(解答、解答プロセス、スピード、集中度、理解度など)を 収集、蓄積、解析し、生徒が使えば使うほどその生徒のことを理解した先生となっていく。
そして、従来の7倍の学習効果を達成したという。つまり、14週間かけて行う1学期の授業が2週間で終わり、受講者全員が学校平均点を上回ることができたのである。
そのような成果をあげるAIだが、情熱や動機が存在しないため、この塾の教師にもし役割があるならば、生徒ひとりひとりのモチベーターということにつきる。
ところでAIの開発をしている国立情報学研究所の新井紀子教授は、AIはどのように仕事を奪い、仕事を生み出し、社会を変えるのかという問題意識をもっており、そもそものきっかけは、中高生との対話の中で、彼らはどんな仕事に就くかが答えられないことだった。
新井教授は、30年後には現在のホワイトカラーの仕事の半分がAIに置き換えられるという予想を立てたものの、AIはどこまで行き、どこで止まるのかということかをはっきりさせたいという思いだった。
AIに使えるのは論理と確率と統計だけだで、論理と確率はわかるものの、いくら考えても「統計」にどれだけの威力があるのか、ハッキリしなかった。
そこで、AIに大学受験に挑ませたら、AIの可能性と限界がクリアになるのではないか、と思ったという。
研究者としては誰も見たこともないAIを開発したいという一方で、AIが難関大に合格する能力を備えた場合、ホワイトカラーの仕事の半分は確実にAIに奪われるだろう。
AIを大胆に導入し、コスト削減に成功した企業の利益率が上がる一方、雇用を守ろうとした企業は市場から退場を迫られるだろう。
こう話すと生徒から「なぜ、私たちの仕事を奪うかもしれないAIの研究をするのですか」と責められることもあった。
しかし自分がやめても世界の企業や研究者はAIの研究をやめはしない。ならば、AIの可能性と限界をきちんと見極め、対策を取ろうではないかと切り替えた。
そのうち、AIの最大の弱点が、「まるで意味がわかっていない」ということを実感した。
数学の問題を解いても、雑談につきあってくれても、珍しい白血病を言い当てても、意味はわかっていない。
逆に言えば、意味を理解しなくてもできる仕事は遠からずAIに奪われる。
教育においても、意味もわからず覚え込むやりかたは廃れていく。
新井教授の講演の締めくくりは「意味のわかる人になってください」ということだそうだ。
このことは、マラソンの世界で、最強のチームを作った青山学院の原晋監督の考え方にも通じる気がした。
原監督の名言の一部を紹介すると次のようなものがある。
①数字の目標も大切なのですが、それと同時に、哲学的な目標というか、目標の意義が不可欠。
選手自ら「ああしたい」「こうしたい」と発信することで自立心が生まれ、壁にぶちあたっても「できる理屈」で解決できるようになる。
②目標を数字や言葉にしようとすれば、嫌でもよく考えます。何度も日にすれば深く浸透しますし、目標への達成意識も強くなります。
③お互いにコミュニケーションをとるというところが大事で、お互いがどういう人間かを知り、納得して入部しないと結局は伸び悩むんです。
④悩みや懸案事項などが、走ることでいったんリセットされる。行き詰まった時ほど、無心で走って頭をスッキリさせると、アイデアが浮かびやすくなる。思考を深めたい人は、走りながら考えればいい。
⑤走ることが楽しくなるような「動機」を考えることが大事。「毎日10km、走る」という目標では、面白くない。「モテたい」「あの細身のスーツを着こなしたい」という自分がワクワクするような欲望をそのまま目標にした方が、やる気が出ます。

AIが急速に進歩したのは、人間が教えなくても、AIが自ら特徴を探し賢くなる「深層学習」(ディープラーニング)の技術ができたことが大きい。
その一方で、どんどん進んでいけば、AIが考えたプロセスは外からわかりにくくなる。
囲碁はチェスや将棋に比べ着手の選択肢が桁違いに多く、トップ棋士に並ぶにはあと10年かかると言われていた。これを打破したのが「ディープラーニング(深層学習)」である。
ネット上にある高段者の膨大な棋譜から学んで自ら良い手を体得し、さらにAI同士の自己対戦を繰り返して精度を上げた。
最近、対局を見ていた他の棋士が首をひねる場面があった。プロでも思いつかない手を打っていたのだ。しかも手数が進むと形勢が良くなっている。
だが、なぜその手を打とうと考えたのか、AIは終局後に説明することはできない。
何を考えているか人に分からせる「思考の可視化」がディープラーニングの最大の課題。
気づかないが打たれてみるとなるほどと思うくらいならまだいい。今後とてつもないレベルになると、人間がついていけなくなる。
インドのシュリニヴァーサ・ラマヌジャン(1887-1920)という数学者を思い出す。
ラマヌジャンは、南インドのクンバコナムで貧しいバラモンの家に生まれ、現代数学の薫陶をほとんど受けずに、いろいろな「数学上の公式」をヒネリ出している。
彼の業績の姿に心打たれたイギリス・ケンブリッジ大学の教授・ハーディは、1914年ラマヌジャンをインドから招聘する。
そして驚いたことに、数学者であるはずのラマヌジャンは、「証明」という「基本的な概念」が全然理解できていなかった。
後にラマヌジャンの公式に「証明」を与える仕事を、別の優秀な数学者が挑み、ラマヌジャンの発見した公式は、20世紀末まで「証明」が与えられたのである。
ラマヌジャンは「智恵の女神」の恩恵で着想したと語っているそうだが、数学の公式が直接「カタチ」として現われてくるのだという。
となると、彼を果たして「数学者」と呼べるだろうか、という気がしなくもない。
さて、現実の問題として、AIを動かすアルゴリズムの透明性を確保し、ブラックボックスになるのをどう防ぐのかが大きな課題となっている。
具体的な問題として、AIを使った「金融機関のローン審査」のケースをあげてみよう。
複雑なアルゴリズムを書き換えさえすれば、人為的な操作はいくらでも可能になる。
融資を認めない場合は、不正を疑われないためにも、どうしてAIがそう判断したのか明らかにしなければいけない。

上野の西郷隆盛の像の除幕式で、奥さんが「これは西郷さんじゃない」と語った。彼女がどう思おうと、その像が造りなおされることはなかった。
出来てしまった以上、修正がきかないことはよくあることだ。
例えば、AIを使ったプロファイリングが「あなたはこういう人間ですね」という判断を出す。人工頭脳の確率的な判断に、どう対抗するのかという問題である。
プロファイリングで不適切とされても、その人物が成長・変化する可能性や、彼を取り巻く具体的な文脈がなどが捨象され、その能力がただ確率的に判断されているのだが、ビッグデータを基礎にしているだけに、正確で科学的な「評価」となってしまう。
塾でAIを先生としてきた生徒達が、ビッグデータによって人間が判別される。人生の重要な決定が行われるということ。「確率という名の牢獄」という人もいる。
企業の採用において、プロファイリングに使われる個人の属性や、アルゴリズムの内実が企業秘密になっていると、なぜ自分が不採用になるのか、排除されるのかわからない。
また、AIがある政治的政策を判断し、その判断が国家議員を指南するような社会を想定してみよう。様々な利害をもつ政治家や官僚がそれをすみやかに実施するとは考えにくい。
それが全体として正しくても人間的要素が絡みすぎている。一票の格差を機械的に平等化した「合区」をみればよくわかる。
結局、AIによって支配される世界とは、情熱や動機にも支えられない「意味がわからない」ことが人間を支配する世界。
やってみたらいい結果が出るのかもしれないが、人間にそれを命じても、納得できない限りやる気になれないということもある。
こうなると、可視化され、「なるほど」と思わせる能力をもつAIの開発が求められるが、AIが「なるほど」と思わせることにこそ、一番のワナが潜んでいるのかもしれない。

ある時期、中高生向けの講演の冒頭では、必ず「あなたは2021年に人工知能は東大に入れるようになると思いますか?」と問いかけていた。
するとみんな笑顔で、「8割がはいれるようになる」と答えた。囲碁の世界チャンピオンも破ったのだから、東大に入ってもおかしくない」と言った生徒もいた。
ところが、「AIが社会で働くようになったとき、あなたは何をして働きますか?」と聞くと、動揺が走る。
「ゴミ拾い、とか?」と絞り出すような声が上がったが、AIが東大に入るような日が来たら、AIがゴミ拾いもしてくれるに違いない。
その時、人間は労働から解放されて幸せになるだろうか。AIから得られる富が、地球上のすべての人に平等に分け与えられればそうかもしれない。
しかし、そのような仕組みは、今までかつてこの地球上に築き上げられたことはない。むしろ、ITが社会に導入されて以降、経済格差は広がり続けている。