toddler’s diary

以前は研究にあまり関係ない雑談・2023年4月から本を通じた自分の振り返りやってます

北 研二, 辻井 潤一「確率的言語モデル」東大出版会 1999

電総研に入ったころはまだ自然言語処理生成文法などガチガチの論理学の色合いが強く、構文解析をしたりする研究が幅を占めている印象でした。あくまで部外者の観察的な印象なのであてにはなりませんが、そのうち確率文脈自由文法とか出てきて、次第に確率という道具が入り込んでいって、統計的機械学習との距離が近づいてきたように思います。身近では浅井さんが音声認識隠れマルコフモデルを適用する話とかを宣伝していて(その後バイオインフォマティクスに行かれましたが)、電総研ではそのつながりで音声から言語という階層で私の分野に対する理解が深まっていきました。

 

この本はそうした流れ出てきた決定版的教科書で、とてもわかりやすく書かれていると思います。その後、深層学習が出てきても、当初は無関係だった自然言語処理に変化が起きたのがLSTMとかのリカレントネットの改良があって、一気に風向きが変わりました。その後の進展は私も追い切れていませんが、自然言語業界は深層学習に食い尽くされつつあるような印象です。

 

ただ、こういう状況だと生成文法のような自然言語処理の基本を知らない学生とかがたくさん生まれそうなのが心配なところです。それは線形回帰を知らずに深層学習から機械学習に入る学生が実際にいるのと似たような感じを受けます。

 

こういう状況についてあと二つの思いが生まれます。一つは、自然言語研究者は、確率が入ってきたことと、深層学習が入ってきたという二つの大きな波を受けたことについてどう思っているのかという疑問です。これは画像でも同じようなことがありますが、論理学的な研究、統計学的な研究、深層学習的な研究は、かなりマインドが違います。研究の軸というのはなかなか変えられないと思いますし、こうしたパラダイムシフトが起きたときにどうやって適応していったらいいかということは今後もいろいろな研究者の参考になると思います。

 

もう一つは、深層学習フィールドで性能勝負になるともはや GAFA のような巨大なところには小規模研究者はとても太刀打ちできないと思います。そうした状況で、例えばプロンプトエンジニアリングのような研究にどこまで学術性があるかということが心配になります。私自身はずっとデータ数が少なくて深層学習が適さないような状況での機械学習を中心にやってきたので、パラダイムシフトも経験してませんし、深層学習にも左右されなかったのである意味幸せな、逆に言えば荒波にもまれず温泉につかるような研究生活でしたが、今後の研究者はなかなかそうもいかなくなるのではないかと思っています。