小特集:人間生活、意味、記号

インタビュー 情報学から見たAI 西垣通(東京大学名誉教授、情報学)

聞き手:原島大輔

──人間の暮らしの中で使われるさまざまな記号と意味について、情報学とくに最近ブームになっているAI(人工知能)の観点から、お話しいただきたいと思います。今は第三次AIブームと言われますが、それはどういう特徴をもつのですか。

西垣 端的にいうと、第一次、第二次ブームのAIは論理的な因果関係にもとづく推論が中心でしたが、第三次ブームのAIは統計的推論をおこなうということです。でも、AIの本質は半世紀以前からまったく変わっていない。この点をまず強調しておきます。
 コンピュータの誕生は20世紀半ばですが、AIは当時から中心的位置にありました。ですから1950年代に第一次AIブームが起きたのは不思議ではありません。コンピュータの目標は「思考する機械」だったのです。デジタル・コンピュータの原理をつくったアラン・チューリングや、それを二進数のプログラム内蔵型マシンとして実現するモデルをつくったジョン・フォン・ノイマンはじめ、当時の数学的天才たちは、最初からAIの実現をめざしていました。人間の正確な思考とは、形式的なルールにもとづく記号操作なのだ、という信念が広まっていたのですね。実際、「Artificial Intelligence」という言葉が提唱された1956年のダートマス会議で、ロジック・セオリストというAIプログラムがたくさんの難しい数学的定理を自動的に導出してしまったので、参加者はびっくりしたのです。
 しかし、熱狂はすぐ失望に変わりました。当時のAIは、簡単なゲームやパズルのようなトイ(玩具)プロブレムしか歯が立たなかったのです。たとえば文法と辞書さえメモリに入力しておけば自動的に翻訳ができるだろうという目論見は完全に挫折しました。文法は例外も多いし、多義語については訳語の選択もできないのでね。応用に役立たないと、人々はすぐ見放してしまう。次の第二次ブームはこの反省から、法律だの医療だのといった専門知識をメモリに入力して、自動推論をおこない、AIに弁護士や医者の代わりをやらせようとしました。1980年代のことです。でも、専門知識というのは、純粋な論理性だけでなく曖昧さを含んでいますからね。弁護士や医者は、ただ形式的に論理判断をしているのではなく、曖昧な状況のなかで直観と経験をもとに仕事をしている。だから、論理的な知識命題を自動的に組み合わせて演繹すればいいというわけには行きません。つまり、いくら知識命題を入力しても、コンピュータが100%正しい判断を下す保証はないのです。それに、もしAIが誤診したら誰が責任をとるべきか分からない。
 というわけで第二次AIブームも1990年代になると挫折してしまった。AIの冬の時代が終わって第三次ブームが到来したのは2010年代半ばで、これはいわゆる深層学習(deep learning)による画像パターン認識の成功によるものです。

──それは統計的推論を用いるんですね。

西垣 はい、その通り。普通のコンピュータ処理の結果はYESかNOのいずれか二値判定なんですが、パターン認識ではデータを統計的に分析して、「およそ確率○○%でYES」と答えを出す。たとえば猫が映った写真を見せると、いまのAIは結構高い確率で、ちゃんと猫だと判定してくれるわけです。さらに、「丸顔で髭がある」といった猫のビジュアルの特徴を細かく指定しなくてもすむことから、一挙にセンセーションが起きました。たしかに深層学習は工学的には成功したと思います。

──成功した理由は何だったのですか。

西垣 細かい技術的工夫は別として、近年のハード/ソフトの能力向上が第一の理由です。深層学習の理論自体は、1980年代から研究されていました。これはニューラルネット・モデルあるいはコネクショニズムという、1950年代に誕生したモデルの一つです。そこでは猫という対象がコンピュータのなかで単一の記号で表現されるのではなく、分散したたくさんの情報ビットの分布パターンとして表現される。ただこの学習のために、恐ろしいほどの計算量が必要なので、昔はとても実用にならなかったのです。計算能力が大きく向上した今でも、グーグル社が猫認識に成功するまでに、なんと1000台のコンピュータを三日間つづけて走らせたとのこと。
 これに加えて、応用の場面での人々に対する説得力という点で、「確率」を持ち出したことが、第三次ブームのAIの成功の秘密だったと私は思います。第一次や第二次ブームのAIでは、YESかNOかの厳密な答を出すので、誤りはきびしく追及される。でも確率で答えれば、「だいたい合ってりゃ、いいじゃないか、人間だって間違うんだから」と大目に見てもらえます。たとえば大量の診断画像の中から、病気が疑われる画像だけをAIが高速で抽出してくれれば、多少間違いがあっても医者は助かります。最終診断は医者が自分でするとしても、作業効率はずっとあがるでしょ。

──有効分野が広がったわけですね。でも限界はないんでしょうか。シンギュラリティ仮説によると、AIが万能だという印象をうけますが、コンピュータが記号のあらわす意味や文脈を理解できるのか、たいへん気になります。

西垣 もちろん限界はあります。AIは、対象をあらわす記号の辞書的な意味は検索できますが、対象のもつ本質的な意味内容を理解できませんからね。自動翻訳(機械翻訳)では特にその限界がはっきり表れます。原文にこめられた著者の執筆意図や抱いているイメージを理解することなしに、ちゃんと翻訳なんてできますか。ネットにはよく自動翻訳の結果が載っていますが、あれは基本的に、似たような文字記号列のペアを探して出力するだけで、定型的文章ならともかく、小説や論文なんかだとまともな翻訳は難しい。
 実はこの点は、1970~80年代から、ヒューバート・ドレイファスやジョン・サールなどの哲学者が指摘していたことでした。意味というのは、静的・形式的に記述できるものではなく、人間が状況になげこまれて動的に発生するものだというわけです。でも当時のAI学者たちは十分に耳を傾けませんでした。「意味解析」と称して、なんとか文脈をとらえ、辞書データベースから記号の意味を検索しようと努力した。状況を形式的に細かく明記して統辞論的に文脈をとらえようとする、状況意味論(situation semantics)なんて試みもありました。ところがなかなかうまく行かない。

──いわゆる記号接地問題(symbol grounding problem)やフレーム問題(frame problem)は、現在のAIでも、まだ解決していないのですか。

西垣 解決したと強弁するAI学者もいますが、私は決してそうは思いません。記号接地問題やフレーム問題は、ドレイファスやサールの投げかけた哲学的難問の工学的な表現とも言えます。対象を単一の記号ビット列で表そうと、ニューラルネット・モデルで分散した記号ビット分布で表そうと、本質は同じです。
 意味というのは元々、個々の人間、広く言えば生き物が、生きていく中で選びとる「価値」でしょ。だから本来、主観的なものなんですよ。赤ちゃんは意味を身体で内的に構成している。成長するにしたがって、記号によるコミュニケーションを介して、社会でつうじる間主観的な意味内容を体得していく。むろん、能記(signifiant)と所記(signifié)の関係は、いわゆる言語共同体の中では、あるていど客観的です。でも、静的な関係の奥底に、動的な生き物の営みにもとづく意味生成があることを忘れては、本当に有効なAIとは言えない。効率向上を旗印に、AIが既存の意味の網目を押し付けてくると、われわれの暮らしが束縛され、自由が抑圧される。人間がまるで機械部品のようにされてしまうのです。

──統計的推論とエビデンスにもとづくAIは、社会的な最適決定が人間より正確にできると言われますが、そうでもないということでしょうか。

西垣 ここは大事なポイントです。現在、この点に関してAI学者でも誤解している人が多いので、ちょっと専門的になりますが、説明しましょう。述語論理にもとづく厳密な因果的推論では現実に役立つAIにはならなかったことが、第二次AIブームの挫折を招きました。そこで、さまざまなデータを集めて統計的な分布をしらべ、二つの分布のあいだに相関関係があれば統計的推論をおこなって結論を導く、というのが現在のAIの基本的なアプローチです。ベイズ推定と呼ばれますが、条件付き確率に関するいわゆる「ベイズ定理」にもとづく推定をおこなうわけです。
 簡単な例をあげましょう。明日嵐がくるかどうかを予測したいとします。黒雲がでた翌日は嵐が来ることが多いという統計データがあれば、当てずっぽうに「来るか来ないかどちらかだから、確率50%」なんて言うより、この相関関係を利用すれば予測精度があがると期待できます。統計データを分析すると、嵐が来たとき前日に黒雲がでた相対頻度が60%であり、また、一般に黒雲の出る相対頻度が40%だったとしましょう。するとベイズの定理から、「前日に黒雲がでたとき嵐が来るという条件付き確率(事後確率)」は、事前確率を50%として、「(0.6×0.5)÷0.4」イコール75%と計算できます。こうして、いろいろな相関関係から次々に事後確率を求め、予測精度をあげていくのがベイズ推定による統計的推論なんです。
 要するに、厳密な因果的ルールによる推論は諦め、そのかわりデータを一生懸命あつめて統計的に分布を求め、確率的ルールにもとづいて推論をおこなう。そして、最適な決定を実行する、というわけですね。だからデータがたくさんあれば、割合いろいろな問題に応用がきくんです。それでいまのAIは、産業界で人気が高いんですよ。
 でもね、確率的ルールというのはあくまで過去の統計データにもとづいているので、状況が変わると必ずしも最適な決定をもたらさない。想定外の新しい事態になると、とんでもない誤った決定をしてしまう場合もあります。大事な問題はこの「想定外の新しい事態」への対処なんですよ。フレーム問題というのは、この世では想定をこえた無限に多様なことが起きるので、それらをすべて予見して問題の枠組み(フレーム)をきめることはできない、という難問でした。そう考えると、統計的推論も万能ではないとわかってくる。なぜなら、想定外のことって、現実ではしょっちゅう起きるからです。コロナ禍とか、ロシアのウクライナ侵攻とかね。
 思弁的実在論を唱えるフランスの哲学者カンタン・メイヤスーは、この世で偶然におきる分からなさを潜在性(virtualité)と潜勢力(potentialité)の二つに分けています。潜在性とは想定外の分からなさで、潜勢力とは確率的な分からなさです。サイコロを振って何の数が出るか分からないという潜勢力の分からなさは、確率的に正確に計算できます。でも、コロナウイルスがどう変異するかなんて、想定外の、潜在性の分からなさなんですよ。
 データにもとづく統計的推論を万能とみなすAI学者は、あらゆる分からなさを潜勢力とみなしている。これは誤りです。人間はつねに動的な状況に投げ込まれて、想定外の潜在性と闘いながら生きている。そこに意味や価値が生まれるんです。何とか自分のイメージを周囲につたえようとして記号を使う。だから、情報というのは本来、生命的なものなんです。機械的なデジタル記号はごく一部にすぎません。クロード・シャノンの情報理論は、機械的な情報のデータ処理効率だけに関する確率的な議論なのに、意味をふくむ全情報についての議論とみなされている。ここに根本的な誤解があります。

──そういう誤解がありながらも、AIは産業界にどんどん取り入れられています。人文学者は、こういう現状にどう対処すべきだとお考えですか。

西垣 文系と理系のあいだの知的な断絶は深いですね。チャールズ・スノーの「二つの文化」の指摘は繰り返すまでもないけれど、とくに日本の近年の断絶は恐ろしいほど深刻だと痛感します。これは高校で文系と理系を分け、大学の教養部を廃止した教育制度のせいもあるでしょう。理系のAI学者は、記号論や哲学にほとんど興味を示さない。人間よりAIが賢くなるというトランス・ヒューマニズムは、記号論や哲学と関わっているし、AIを人間のために活用していくには、批判的な人文学的議論が大切なんですけれどね。理系のAI学者は、限られた予算と時間のなかでいかに成果を出し、産業界に売り込むかで忙しい。深層学習で実用化されたニューラルネット・モデルは動物の脳神経系と似ているので、AIは人間みたいに考えるし、人間よりもっと正確に判断をくだす、といった文句で説得しようとする。半導体素子の反応速度は脳の神経細胞よりはるかに優りますからね。AI学者のなかには、深層学習技術によってコンピュータが感性をもつようになった、なんて主張する人物もいる。さらに、AIと脳を直接結べば知力がアップグレードされる、なんてトランス・ヒューマニストめいた宣伝文句さえ聞かれます。人間の感性や知力とは何かについて、本気で考えたことがないという感じがします。
 一方、人文学者たちは、AIについて内心では疑問をもっていても、沈黙する人がほとんどです。その方が無難だからでしょうか。あるいは逆に、的外れの楽観論をのべて、AIを賞賛する人もいる。そうすれば人気者になって研究予算のおすそ分けにあずかれるということでしょうか。この点、海外とくにフランスやドイツには、正面からAIの問題点や限界について批判的に発言する人文学者もいますよ。EU(欧州連合)ではAIと人権についての議論が交わされているし、AI規制案も発表されている。日本では産業優先で、そんな議論は盛んでない。AIはわれわれの暮らしと直結しますから、現状は情けないですね。人間の身体や社会には、統計データ処理で分析しきれない謎や闇の部分がある。そのことを知る人文学者は、AIや情報について真剣に考え、発言していただきたいと思います。(終)

広報委員長:香川檀
広報委員:大池惣太郎、岡本佳子、鯖江秀樹、髙山花子、原島大輔、福田安佐子
デザイン:加藤賢策(ラボラトリーズ)・SETENV
2022年6月30日 発行