Bitter Lesson

70 年に及ぶ AI の研究から読むことができる最大の教訓は, 一般的な方法が最終的には最も効果的であり, 大きな差があるということである。 この最終的な理由はムーアの法則, あるいはむしろ計算単位あたりの継続的に指数関数的に減少するコストの一般化である。 ほとんどの AI 研究は, エージェントが利用可能な計算が一定である場合必然的に利用可能にである(この場合, 人間の知識を活用することがパフォーマンスを向上させる唯一の方法である)。 短期間で違いを生み出す改善を求めて, 研究者はドメインに関する彼らの人間の知識を活用しようとしてきたが, 長期的に重要なことは計算の活用である。 これら 2 つは互いに拮抗,矛盾する必要はないが, 実際には傾向がある。 一方に費やされた時間は他方に費やされた時間ではない。 どちらかのアプローチに投資するという心理的なコミットメントがある。 そして, 人間の知識を活用するアプローチは, 計算を利用一般的な方法を用いることにそれらがあまり適さなくなるような方法で,手法を複雑にする傾向がある。 AI の研究者によるこの苦いレッスン ー 学習の遅れが多くの例でみられた。 そしてそれは最も著名なもののいくつかをレビューすることは有益であろう。

コンピュータチェスでは, 1997年に世界チャンピオンのカスパロフを破った方法は, 大規模かつ深淵な探索に基づいていた。 当時, チェスの特殊な構造を人間が理解していることを利用した方法を追求していたコンピュータチェス研究者の大半は, この方法を軽蔑の目で見ていた。 特殊なハードウェアとソフトウェアを使ったよりシンプルな検索ベースのアプローチの方がはるかに効果的であることが証明された際は, 彼ら人間の知識に基づいたチェス研究者たちは, 敗者ではなかった。 彼らは, 今回は「力まかせの」探索が勝ったかもしれないが, それは一般的な戦略ではない。 第一人間がチェスをする方法ではないと言っていた。 この研究者たちは, 人間の入力に基づいた方法で勝つことを望んでいました。 だが, それが不可能であったため落胆した。

同様のパターンの研究の進歩がコンピュータ囲碁でも見られた。 さらに 20 年遅れであっただけである。 人間の知識やゲームの特別な機能を利用して検索を回避することに多大な初期の努力が払われた。 駄菓子菓子, いったん大規模検索が効果的に適用されると, すべての努力は無意味な, またはさらに悪いことが判明した。 1997 年の世界チャンピオンプログラムでは, 学習は大きな役割を果たしていなかったが, 他の多くのゲームやチェスのように, 価値観を学習するためのセルフプレイによる学習の使用も重要であった。 セルフプレイによる学習や一般的な学習は, 大量の計算を可能にするという点で検索に類似する。 検索と学習は, AI 研究で大量の計算を利用するための 2 つの最も重要なクラスの技法である。 コンピュータ囲碁では, コンピュータチェスと同様に, 研究者の最初の努力は人間の理解を利用することに向けられ(検索が少なくて済むように), そして検索と学習を取り入れることによって成功したのは後になった。

音声認識では, 1970 年代に DARPA が後援する初期の競技会があった。 参加者には, 人の知識, 単語, 音素, 人の声道などの知識を利用した多数の特別な方法が含まれていた。 反対に, 隠れマルコフモデル(HMM)に基づく,より統計的でより計算量が多い新しい方法があった。 やはり, 統計的方法は人間の知識に基づく方法より勝った。 これは, 統計と計算がこの分野を支配するようになった, 何十年にもわたって自然言語処理のすべてに大きな変化をもたらした。 音声認識における深い学習の最近の台頭は, この一貫した方向への最も最近のステップである。 ディープラーニングは人間の知識に頼ることがさらに少なく, 巨大なトレーニングセットでの学習と一緒にさらに多くの計算を使用して, 劇的に優れた音声認識システムを生み出す。 ゲームのように, 研究者は常に研究者が自分の頭脳が働いたと思うように働くシステムを作ろうとした ー 彼らは彼らのシステムにその知識を入れようとした ー しかしそれは結局逆効果で, ムーアの法則によって大規模な計算が可能になり, それを有効に利用するための手段が見つかったとき 研究者の時間の巨大な無駄を証明した。

コンピュータビジョンでも, 似たようなパターンがある。 初期の方法は, エッジ, または一般化円柱を探索することとして, または SIFT 特徴の観点からビジョンを考え出した。 しかし, 今日ではこれらすべてが捨てられている。 現代のディープラーニングニューラルネットワークは, 畳み込みとある種の不変性の概念のみを使用し, はるかに優れた性能を発揮する。

これは大きな教訓である。 分野として, 同じような過ち繰り返している我々は, いまだその誤りを徹底して学んでいない。 これに鑑み, 効果的に抵抗するには, この過ちの魅力を理解しなければならない。 我々は, 自分の考えをどうやって構築しても長期的にはうまくいかないという苦い教訓を学ばなければならない。 この苦い教訓は, 1. AI研究者はしばしばエージェントに知識を組み込むことを試みてきた, 2. これは短期的には常に役立ち, 研究者にとっては個人的には満足できるが, 3. 長期的には停滞し, さらなる進歩を阻害することさえある, 4. 最終的には, 検索と学習による計算のスケーリングに基づく反対のアプローチによって画期的な進歩がもたらされる, という歴史的な観察に基づいている。 最終的な成功は, 好ましい人間中心のアプローチに対する成功であるため, 苦味を帯びており, しばしば不完全に消化されてしまう。

苦い教訓から学ばなければならないことの 1 つは, 利用可能な計算が非常に大きくなっても計算量の増加に応じて拡大し続ける手法, 汎用手法の大きな力である。 このように任意に拡大縮小できると思われる 2 つの方法は, 検索と学習である。

苦い教訓から学ぶべき 2 つ目の一般的な点は, 心の実際の内容は途方もなく, 取り返しのつかないほど複雑であることである。 我々は, 空間, 物, 複数のエージェント, 対称性について考える簡単な方法など, 心の内容について考える簡単な方法を探すのをやめるべきではない。 これらすべては, 恣意的で本質的に複雑な外界の一部である。 それらの複雑さは際限なく続くので, それらは組み込まれるべきものではない。 代わりに, この任意の複雑さを見つけて捉えることができるメタ手法のみを組み込むべきである。 これらの方法に欠かせないのは, それらが良い近似値を見つけることができることである。 その探索は我々によるものではなく我々の方法によるものであるべきである。 我々は, 私たちが発見したものを含まない, 私たちができる限り発見できる AI エージェントが欲しいのである。 我々の発見に取り込むことは, 発見プロセスがどのように行われること可能かを発見することを難しくするだけである。