はじめに
さて、前回は皆さんと一緒にAI研究で現在主流となっているディープラーニング(深層学習)という機械学習の手法について考えてみました。そして最後に理論言語学が生き残るための二つの大きな提案をしました。一つ目は、これからはAI研究から得られる知見と矛盾しない言語観を持ちつつAI研究に対して積極的に提言を行っていくことで、もう一つは、AIが得意とする手法は積極的に活用しつつも、これと競合しない研究手法で戦うことでした。後者は研究方法論に関するものなので、議論の中で折に触れて検討するとして、本連載では、前者のAI研究から得られる知見と矛盾しない言語観を持ちつつAI研究に対して積極的に提言を行っていくことに焦点を当て、理論言語学が生き残る道を探っていきたいと思います。
ナイーブな言語習得観
よく「初心忘るべからず」と言うことがありますが、長年、理論言語学などをやっていると、初心に戻れなくなることがあります。その一つに「赤ちゃんはどうしてしゃべれるようになるのか?」という多くの人が一度は考えてみたことのある問いに対する考え方があります。言語習得のメカニズムに関する問題です。この連載をお読みの方の中には、理論言語学を学んだことがある方が多いと思いますが、学んだことがない方もいらっしゃると思います。理論言語学を学んだことがない読者の皆さん、赤ちゃんはどうやってしゃべれるようになると思いますか?おそらく、理論言語学を学んだことがない人たちは、次のように答えるでしょう。赤ちゃんは周りにいる大人たちのことばを大量に聞いて、自然とそれらの表現を覚えていって、最終的にはことばが使えるようになると。もちろん、細かいところは人それぞれ異なっていると思いますが、「大量に聞いて覚えると話せるようになる」という点は共通していると思います。
ところが、いったん理論言語学(特に、生成文法に影響を受けた学派)の手ほどきを受けると、このような見方をとれなくなります。実際、一般の人たちやTVなどに出演している知識人たち(言語学者を除く)が赤ちゃんは「大量にことばを聞いて覚えると話せるようになる」的な考えを当然の事実として捉え、雄弁に語っているのを見るにつけ、言語学者たちは「そんなに単純なもんじゃない」と心の中で突っ込みを入れたりするわけです。もちろん、そのような言語学者たちだって、もともとは、素直に、「大量に聞いて覚えると話せるようになる」的な考えを持っていたはずです。少なくとも、はじめて大学で英語学概論の授業を受けた日の僕はそうでした。でも、一度、理論言語学を学んでしまうと、この純粋な考え方にはなかなか戻れないのです。
そして、この「初心忘るべからず」がいかに難しいかは、前回ご紹介した『人工知能は人間を超えるか』の著者である松尾豊氏の発言からもわかります。前回ご説明したように、ディープラーニングを組み込んだ機械は、大量のデータが与えられると、その中から何らかの特徴を自ら発見し学ぶことができます。そして、もし、ディープラーニングがある程度正しく人間の知能をシミュレーションしているとすると、これは人間の学習という営みの本質を捉えていることになります。そして、このことは人間の言語習得に関しても当てはまるはずなのです。つまり、「大量にことばを聞いて覚えていると、その中からその言語の特徴(文法も含む)を抽出するようになり、その結果、その特徴を用いて話せるようになる」というわけです。そう考えると、実は、赤ちゃんは「大量にことばを聞いて覚えると自然と話せるようになる」という素人的な考えは、あながち間違っているとは言い切れないのです。少なくとも、ディープラーニングから見たらそういうことになります。ところが、このディープラーニングの一人者である松尾氏のような人であっても、一度言語学を学んでしまうと、「大量にことばを聞いて覚えると自然と話せるようになる」という考えには戻れないようです。松尾氏は前掲書のp.194において人間は文法構造のようなものを生まれつき持って生まれくるという趣旨の発言をしており、これは、すなわち、人間は、大量のデータ(=ことば)を聞くだけでは、ことばをしゃべれるようにはならないと考えていることになります。
プラトンの問題
それでは、なぜ、言語学者はそれほどまでに頑なに「大量に聞いて覚えると話せるようになる」という考えには戻ろうとしないのでしょうか?この問題について考えるためには、おそらく、チョムスキー(Noam Chomsky)とスキナー(BF. Skinner)の有名な論争あたりまでさかのぼる必要があるでしょう。ここでは、そこまでは戻らず、チョムスキーがいたるところで触れている、刺激の貧困(Poverty of stimulus)とそれに伴うプラトンの問題(Plato’s problem)について考えてみましょう。(詳しくは、Noam Chomsky (1986) Knowledge of Language: Its Nature, Origin, and Useを参照)
チョムスキーは、赤ちゃんがことばを習得する際に触れる言語データ(周囲の大人たちが使うことばの総体)は、不完全なところがあると指摘しています。例えば、赤ちゃんがことばを習得する際に触れることばには、言い淀みや言い誤り、とぎれとぎれの表現などを含んでいる場合が多いという事実があります。また、ことばを習得する過程で一人の人間が耳にする表現の数は有限個であるにもかかわらず、その人間が作り出したり、理解できる表現の数は原理上無限個であるという問題もあります。そして最後に、人間が持っている言語知識には、耳にした表現からは到底学習できないような性質を持った知識が含まれているという問題もあります。
このような言語データの質的な不足を刺激の貧困と呼びますが、チョムスキーは、それにもかかわらず、人間はなぜほぼ完全にことばを習得できるのか、という問いを立て、これをプラトンの問題と名付けて理論言語学が答えるべき課題としています。要するに、不完全なデータから完全な言語ができるというのは不思議だということなのですが、この事実が、ことばの習得には、単に「聞いて覚える」だけでなく、何らかの「からくり」が潜んでいることを示しているのです。そしてこの「からくり」のことをチョムスキーは普遍文法(Universal Grammar)と呼びます。普遍文法(UG)とは、すべての人間が生まれながらにして持っている言語知識のことで、特に、刺激の貧困の最後に挙げた問題が、普遍文法を生得的に備えているという生得性仮説(Innateness hypothesis)を論理的に導き出すのに重要な働きをしています。
習得できないものを使ってことばを話しているということは、はじめからことばに関する何らかの知識を持って生まれてきたとしか考えられないからです。喩えるならば、中身の見えないミキサーの中にミカンを入れてジュースを作ったとします。できあがったジュースを飲んでみたら明らかにミカン以外の味がした場合、それはミカン以外の何かが予めミキサーの中に入っていたとしか考えられないわけです。これは妥当な推論なので、前提が正しいならば疑いようのない事実です。ですので、習得できない知識を使ってことばを話している以上、生得的な普遍文法を想定することに異を唱えることはできません。妥当な推論によって導き出された論理的な帰結だからです。
では、僕らが習得できないにもかかわらず用いている知識とはいったいどんなものなのでしょうか。ここでは、『ことばと認識』(ノーム・チョムスキー著、井上和子他訳)からわかりやすい例を一つだけ見てみましょう(ここでは、わかりやすくするために議論の仕方を変えてあります)。おそらく、英語圏の子供たちは、(1a)のような表現と(1b)のような表現のどちらも耳にして育つと思われます。そして、この両文が伝える意味も同じなので、(1b)のwannaは(1a)のwant toが縮約されて発音されたものだということにも子供たちは気づくでしょう。
(1) a. Who do you want to meet?(あなたは誰に会いたいの?)
b. Who do you wanna meet?
また、その子供たちは、(2a)のような表現にも触れると考えられます。すると、当然、その子供たちは、(2a)のwant toも縮約して(2b)のようにwannaにすることができると考えるようになるはずです。当然の類推です。ところが、実際には、(2a)のwant toは(2b)のようにwannaには縮約されません。つまり、英語では(2b)のような表現は容認されないのです。これはどうしてでしょうか。そして、これが最も重要なポイントなのですが、子供たちはなぜ(2b)のような言い方はできないことを知っているのでしょうか。(*は容認されない表現であることを表しています。)
(2) a. Who do you want to meet Bill?(あなたは誰にビルに会ってほしいの?)
b. *Who do you wanna meet Bill?
(1a)と(2a)を比べてみるとWhoからmeetまでの語の並び方は全く同じです。異なるのはwhoがto meetの目的語に当たるのか、主語に当たるのかという違いのみです。そこで、チョムスキーはこう考えます。(2a)の場合は、wantとtoの間に目に見えないwhoの痕跡tが存在し、それがwantとtoの間に入り縮約の邪魔をしていると。痕跡tとは、もともと何かがあった場所に残された見えない(=発音されない)要素と理解してください。(3)を見てください。赤字で表されているtはwhoの痕跡を表します。(3b)ではwantとtoの間にtが入り、wantとtoがくっつくのを阻止していますが、(3a)ではそのような邪魔はありません。
(3) a. Who do you want to meet t ? (=1a)
b. Who do you want t to meet Bill? (=2a)
仮に、この説明が正しいとすると、次の疑問が生まれます。なぜ英語話者は(2a)のwantとtoの間に目に見えない痕跡tが存在し、(1a)のwantとtoの間にはそのような痕跡tが存在しないとわかるのか。痕跡tは目に見えない(=発音されない)わけですから、痕跡tがどこにあるのかを知ることはできない。まして、子供たちには決してわからない。つまり習得もされないはずなのです。
そこでチョムスキーはこう考えます。人間には生得的に普遍文法UGが備わっており、その普遍的な文法が痕跡tの存在を照らし出していると。子供たちはこの普遍文法に導かれて痕跡tの存在を知り、適切に処理することができるというわけです。
ディープラーニングの予測
さて、ここまでの議論を整理すると次のようになります。生成文法をはじめとする一般的な言語学者の考え方では、こどもは与えられたデータ(=周囲で話されていることば)から言語を習得することはできない。「大量に聞いて覚えると話せるようになる」的な言語習得の考え方はナイーブで素人的な発想であり、到底、受け入れられるものではない。もちろん、今後検討する用法基盤モデルなど、言語学者の中にもいろいろな意見がありますので、このように単純に一般化することはできませんが、それでも従来の言語学の授業を受けた人はおおよそこのように考えるようにトレーニングされてきたと言っていいでしょう。
ところが、現在のディープラーニング研究の示す方向はこれとは異なっています。人間の脳の特徴を模したディープラーニングが予測していることは、「大量にことばを聞いて覚えると自然と話せるようになる」という素人的な考え方でよいということです。もちろん、これに関しても、ディープラーニングは所詮人間の脳の特徴を模しただけであり、本物の脳で起こっていることはもっと複雑な現象であり、したがって、現時点でディープラーニング研究の予測に従う必要はないという反論もあると思います。たしかにその通りです。ですが、ディープラーニングを搭載した機械は、すでに人間らしいミス、例えば、錯覚(錯視)まで起こすようになってきているのです(関連記事)。そしてこのことが示していることは、ディープラーニングの設計思想はかなり人間の本質に迫っており、無下に扱うことはできないということです。
ちなみに、錯覚を起こすということは、ディープラーニングを搭載した機械は、外界世界の客観的現実(objective reality)を見るのではなく、人間と同じように、心的現実(psychological reality)を見ることができるようになってきたということを示しています。このことはまさに、ディープラーニングを用いた意味研究において、客観的意味論ではなく、主観的意味論(概念的意味論)を扱う道が開けていることも示唆しています。
展望
注意してほしいことは、ここでは、ディープラーニングが示す言語観と生成文法をはじめとする従来型の言語観のどちらが正しいということを主張しているわけではないということです。そうではなく、どちらの立場をとるのか研究指針を決めかねているのであれば、AI研究から得られる知見と矛盾しない言語観の方を選んだ方が確実性が高いということです。これは、僕が前回の最後にAI時代に生き残るために提案したことですね。ただし、生得的な何かを仮定するか否かに関しては、グレーゾーンを全く認めない排除の誤謬(false dichotomy)には陥らないようにすることが重要ですね。全く生得的なものがないと考える必然性はないわけですから。
もちろん、白黒はっきりさせるためにAIの力を借りることもできます。ディープラーニングを仮説の検証手段として使うのです。実際、大量のデータだけでディープラーニングが言語を習得することができるならば、それは「大量に聞いて覚えると話せるようになる」的な言語習得観が正しいことの強力な証拠になります。逆に、どんなに頑張って大量にデータを与えてもディープラーニングだけでは言語が習得できないということがわかれば、それはそれで、そこに生得的な何かを想定する必要があるということを示唆することになります。つまり、仮説の検証をディープラーニングに任せるというわけです。例えば、want toやwannaを含んだ大量の表現をディープラーニングで学習させただけで、want toの縮約が可能かどうかを正確に予測することができるならば、普遍文法UGの存在を示す証拠を一つ反証したことになります。このように、ディープラーニングは人間の脳の構造を模して造られているため、一定の範囲内で、仮説の検証になるのです。これは研究方法論に関する提案です。
さて、次回は、ディープラーニング(用法基盤モデル)の観点からプラトンの問題について検討していきたいと思います。