校長ブログ

深層学習の原理解明

2023.06.23 EdTech教育
6月23日

 チャットGPTに代表される生成AIは、脳の学習メカニズムをコンピューター上で再現したニューラルネットワークを発展させた深層学習(ディープラーニング)と呼ばれるものがベースとなっています。

DSC09694.JPG

 歴史的には、1950年代にAIの概念が登場して以来、研究・開発は進んだものの、厳密な条件設定やデータを整理して事前に学習させる必要があり、なかなか普及しませんでした。しかし、事態は一変、2000年代に入ってから深層学習が登場し、大量のデータから規則性を自力で探し出せるようになり、文章や画像、音声の認識と生成、翻訳などに使われるレベルに発展したのです。

 人間の脳は神経細胞が複雑につながっており、それが様々な変化を伴いながら、物事を学習したり、識別したりするもの。深層学習の名称の由来は、ニューラルネットワークが何層にも深く重ねった構造になっているため、その名がついたようですが、なぜ優れているのかまではまだよくわかっていません。

 問題点の一つとして、学習用のデータに適合しすぎて未知のデータに対応できない「過学習」と言われる現象があるそうです。ちょうど、入試対策として、過去問は完璧に理解して答えられるものの、本番になると実力が発揮できない状態になるのと同じ状態だとか...。

 これはニューロンや層が多い複雑な構造になるとよく見られるとされてきたものの、深層学習では起こりにくいようです。過学習が起きても特殊な条件では精度が落ちないことまでは解明できたものの、根本的な原理は未だ謎のまま。これまでの深層学習の理論では、ニューロンの数が多いほどよいと考えられてきましたが、ニューロン同士の結合が弱く、重要でないものは削除できることもわかってきたのです。

 鈴木大慈氏(東京大学准教授)は学習能力が高まるほど内部の仕組みも複雑化して解明が難しくなると述べられています。実際、生成AIを活用した場合、医療現場におけるAIの判断の根拠のように、利用者の意図と説明責任が求められます。その意味で、今後、AIの利用価値だけでなく、原理の解明も必要不可欠なのです。