特集

アカデミアのAI専門家に聞く、日本のAIに欠けているもの

新たなAI人材教育を目指す「AI教育推進機構」

 生成AIに関心が高まる中、大学教授などが中心メンバーとなり、NPO法人「AI教育推進機構」が2024年4月に設立された。「学校や社会において人工知能を活用できるすべての市民向けの高品質な教育を提案・提供することを目的とする非営利団体」だ。

 AIを基盤とした教育や学習イノベーションを推進して高品質な教育・学習リソースの共有と活用の促進を図り、AI教育における質の保証スキームを構築する。これら「AI教育」の普及によって多くの人がAIを活用して社会的・経済的活動ができる社会の実現へと貢献することを目指しているという。

 今回、同機構の主要メンバーにインタビューする機会を得た。機構の設立趣旨のほか、教育の現場から見たLLM(大規模言語モデル)の捉え方や、課題などについて話を伺った。

目指すは「AIと共創できる人材」の育成

AI教育推進機構 副代表理事で学習院大学 計算機センター教授の申吉浩氏

 AI教育推進機構代表理事の上林憲行氏は「マシンラーニングや生成AIは社会的にも影響を及ぼす。人間の知性をエンパワーメントするサービスが初めて使えるようになったインパクトはものすごく大きい。今までの教育の価値観や方向についても大きなインパクトを与えるはずだ」と語る。

 しかし一方、生成AIには「ハルシネーション(誤情報の生成)」そのほか社会的課題などのリスク面も指摘されている。そのため教育現場では不安感を抱えている人も多い。上林氏は「AIの正しい理解をベースにして、教育現場のイノベーションを起こしたい。その活動を社会的に推進したい」と機構立ち上げの趣旨を述べた。

 「これからはAIと響き合える、共創できる時代だ。AIと共創できる人材がすべての産業で必要となることは必定。ただ、本質を掴みにくい側面もある。だから優れた教育コンテンツも必要だし、デザインや人材育成も必要となる」(上林氏)。それらすべてを1大学・教育機関で担うのは大変なので、共有財として関係プレイヤーが相互運用できるような世界を作っていきたいという。

 教育プログラムの提供だけではなく、学習者の能力を認定する仕組みづくりも進める予定だ。「能力・スキルを保証でき、社会で活躍できる人材を増やして、支援していく。この理念に共鳴してくれた人たちと活動拠点を準備しようとNPOの活動を行なっている」(上林氏)。

 「AI教育推進機構」では5月に立ち上げイベントを開催した。その後、多方面から関心が寄せられており「社会的サポートが必要だと改めて実感している」という。

AIによる新たなプログラム手法、UIの可能性

AI教育推進機構 代表理事で武蔵野大学 名誉教授の上林憲行氏

 上林氏は「コンピュータの本質的な能力はメタメディアにある」と語る。コンピュータは単なる計算機ではなく、誰でもプログラミングによって所望のメディアを作り出すことができる。ワープロでもゲームでも、カレンダーでも時計でも、何でもだ。これがメタメディア生成能力だ。「パーソナル・コンピュータ」の概念の生みの親であるアラン・ケイらが具現化を目指した概念である。彼らはもともと誰でも広く利活用できるコンピュータ、その民主化を目指してパーソナル・コンピュータを発想した。

 ではこの文脈においてマシンラーニングや生成AIはどのような意味を持つのか。源泉は「プログラマブル」にある。コンピュータはソフトウェアを作成することによってさまざまなアプリケーションを具現化できる万能機械だ。だからあらゆる局面でコンピュータが使われるようになっていた。

 上林氏は「ところがこの50年間、ソフトウェアは唯一、アルゴリズムによってのみ表現されてきた」と指摘する。しかし、マシンラーニングが実用レベルに達すると、学習データセットを用意すればプログラムを簡単に生成できるようになる。これはつまり、従来とは異なるまったく新しいプログラマブルな手法が獲得されつつあることを意味する。

 もう1つの変化はユーザーインターフェイスだ。初期のコンピューターのインターフェイスはコマンドラインのみだった。それがGUIが主流の時代へと変化した。さらにLLMの登場により、今は自然言語インターフェイスで対話しながらコンピュータリソースをハンドリングできるようになりつつある。

 対話的に活用できることで知識ベースも変化する。昔はみんな図書館で知識を獲得していた。さらに近年の20年間はウェブ検索が主流だった。「次は生成AIを活用して世界中のナレッジを獲得できるようになる。生成AIは単なる一技術、一アプリケーションではない。誰でもコンピュータの能力を引き出せる可能性がある」(上林氏)。

 そこで、新たな教育プログラムが必要とされるという。「以前はプログラマブルな能力は手続き的に記述するしかなかった。だからそれをベースに技術開発や技術者教育が為されてきた。言わば『一刀流』だった。だがマシンラーニングを使うことでアルゴリズムを書くことなく、適切に学習データを集めると結果的にプログラムを生成できるようになった。つまり従来手法とマシンラーニングの『二刀流』になる。これからのエンジニアはこの2つの能力が必要だ」(上林氏)。

 この「二刀流」を前提に教育課程も考え直すべきだという。「今は小学校でもプログラミング思考が教えられているが、マシンラーニングは入ってない。そこから考え直す必要がある」。LLMを次世代のコア技術だと捉えなおした新たな情報教育が必要だと上林氏は語る。

LLMを使う上での本質的な懸念事項と教育の役割

AI教育推進機構の定款より

 AI教育推進機構 副代表理事の申吉浩氏も「メディアは『仲介するもの』という意味。コンピュータはいろいろなメディアが載り、さらに情報ネットワークに接続するためのプラットフォームになっている」と語る。「さらにAIはそれらを統合する。AIはネットにアクセスするだけではなく、いろいろな資源にアクセスするメディアになっていく。さらにエンハンスする。本質的な意味で革新的だ」と語る。

 申氏はLLMを使う上での、4つの懸念事項を挙げた。LLMは膨大なテキストを学習することで、入力に応じて単語の出現確率を変化させ、その確率分布の中から単語を繋げていって文章を作る。内容を「理解」しているわけではない。だが、人間から見ると理解して見えるようなテキストを生成する。「いまのLLMは予想を超えて進化している。単なる人間とのインターフェイスとしてだけではなく、AIがすべてのサービスに導入されていくのではないか」という。

 2点目はAIに関する体系的な教育の必要性だ。「AIの利活用はどんどん進んでいる。だが日本は今のままでだと米中によって提供されるAIの単なるユーザーに成り下がってしまう。覚悟があってそこにいくなら構わない。だが教育の不備によってそうなってしまうのは良くない」と述べ、「教育とはあらゆる可能性を提示して、行くべき方向を見定めるもの。教育の貧しさとは選択肢が乏しくなることだ」と指摘する。

 申氏は「まず教員の教育が重要だ」と強調した。AIについて理解して教育できる教員は少ない。特にAIは多面的な要素を持っているので、バランスが取れた理解が必要となる。そのための枠組みを体系的に提供することが必要だという。

 「表面的なことは割とすぐに教えられる。だが、一歩入ろうとすると数学が壁になる。今では改善されたが、一時期、日本の数学教育は行列を教えなくなった。ニューラルネットワークでは行列が言葉として使われているので、行列が分からなければ理解できない。教育はきちんと目標を見定めて設計して体系化しないといけない」(申氏)。

 3つ目はセキュリティなどリテラシーの問題だ。「エンドユーザーは最低限知らないといけないことがある。AIで作った著作物の著作権の問題や、セキュリティの問題はあまり理解されていない。セキュリティについて、機械は特定するのが得意なので、あっと驚くような個人特定がされる」(申氏)。

 そして、LLMを使う上で申氏が特に一番重要な課題だと考えていることは「過度な依存」だ。「AIを使うことで正しくない知識を持ったりするだけではなく『学習する』という人間自身の能力を損なってしまう可能性がある。特に若年層で問題になるのではないか」(申氏)。

 コンピュータ普及に伴って漢字が書けなくなる人は増えている。それと同様に「考えること」自体をAI任せにすると考えなくなってしまうのではないか、という懸念だ。

 「漢字が書けないくらいなら別に良いかもしれない。だが『AIが代わりに考えてくれるなら考えなくていいじゃん』というのは違う。AIを使う上で一番気をつけるべき点はそこ。AIは非常に便利だし、使いこなす能力がないと機会損失も増えるだろう。だが過度に依存すると、自分自身の能力を損なってしまう」(申氏)。

 4つ目は、LLMの本質的な脅威だ。LLMは言語の確率モデルに過ぎないが、物事を理解しているような言葉を生成できる。申氏自身もLLMのヘビーユーザーとして英文添削などに活用しているが、単なる添削だけではなく数式やアルゴリズムの記述の間違いなども指摘してくれる点には驚いていると語る。

 だが仕組みから考えると、LLMが中身を理解しているはずはない。では、何が間違っているのかというと、「私たちが『ものが分かっている』と思う、理解構造自体が間違っている」のではないかと申氏は語る。私たち自身が「知的行為」だと思ってることの多くはLLMが行なっているような単なる反射的な行為でしかないのではないか、というわけだ。

 だとすればますます、AIは我々が予想するよりも遥かにさまざまな側面で人間が行なっている行為を代替できるのではないかということになる。

 「文明は文字ができて発展してきた。LLMはテキストに基づいているので、人間が長い歴史をかけて蓄積してきたことを体験しているのと同じかもしれない。本当に新しい理論や科学的発見をLLMが成し遂げられるかはビッグチャレンジだし、人間にしかできないこともあるかもしれない。しかしかなりの大部分は、我々の認識そのものが間違っていて、知的行為だとされていたものの多くは単なる条件反射の繰り返しなのではないか。それらはLLMに置き換わっていく可能性がある。だからLLMは危うい技術だ。これを手放しで受け入れていいのか」と語る。

 人間は先々のことを考えて技術を実装するわけではない。インターネットにはセキュリティの側面では脆弱だし、原子力も廃炉の技術が確立されていないにも関わらず作ってしまって、いま困っている。人間はそういうことをやりがちであり、AIについても同様の懸念があるという。

 また「数年前はシンギュラリティ(技術的特異点)の議論が話題になった。今は当時よりもはるかに近づいているのに、議論そのものが下火になっている。私はシンギュラリティを信奉しているわけではないが、脅威になるとすれば、その脅威に着実に近づいているのに誰も言わない。利便性だけが取り上げられている」といった論点もあるという。

 ともあれ、LLMの本質な脅威は哲学的な部分にあるというのが申氏の主張だ。つまり「知的活動」が我々がこれまで考えていたものとは異なるのではないかというわけだ。いっぽう身近な側面では、AIを安易に使うことによるマイナス面もある。「特に大学の教員はこのような負の側面を真剣に考えるべきだ」と申氏は語る。

AI教育はバランスが重要

 AI教育に関しては、特に海外においては無料の教材などもたくさんある。だが、どの教材がどんな教育に適しているのかを探すことは容易ではない。AI教育推進機構では今後、教材のレコメンドや、モデルカリキュラムの作成なども行なう予定だ。AI時代の今後、どういうことを教える必要があるのか、教員は何を知っておくべきか。そういったことをまとめて社会の受容性と合わせて検討しつつ、仲間を増やしていきたいと考えているという。

 既存の情報処理系の機関との連携なども視野に入れるが、AI教育推進機構が行なう検定や認証に関しては、既存のものと比べると、知識ではなく「より実際の問題解決能力を示せるようなものを提供したい」とのことだ。

 文部科学省の数理・データサイエンス・AI教育プログラム認定制度の担当者などともやりとりをしているが、実施機関によって教育内容の粒度とリテラシーレベルの認定がバラバラで、実際にはどれだけの教育が行なわれているかはつかみ所がなく、「プラスアルファの教育施作を打たないと社会に出た時に接続性が悪い。そこを埋めていきたい」と語る。

 特に「教育を行なう教員向けの内容」を重視する。「AI分野は技術進化が凄まじい。常に最新の教材を担保できるかというと難しい状況だ。現場の先生に正しいマシンラーニング理解に基づいた良質な教育プログラムを作っていくことが重要」と語る。「AIへの過度な依存」を防ぐための試みも、小学校ではワープロを使わせないのと同じように、教育の中で取り組むべきだと考えているという。

 一方「学生は生成AIに親しんでユニークな使い方をどんどん開発している」という側面もある。「社会的リスクを含めた教育は必要だが、学生はポテンシャルを持っているのでユニークな活用方法を実際に試行錯誤している」という。たとえば、授業内容のシラバスを見て、次週のテーマをChatGPTに「適切な予習をするためにはどういう資料にあたるべきか」と質問し、自ら準備をするといった非常に前向きな学生もいるそうだ。

 上林氏は「生成AIには先生方が考えている以上に多様な使い方がある。新しい知見が得られるものも多い。バランスが重要だ。また、伸び代がある人が青天井で学習するための環境作りも重要だ。そこにAIツールを活用するのは大きな意味がある」と語る。

日本の情報教育に欠けているもの

AI教育推進機構のサイトより

 日本が、このままではAIの“サービス提供者“ではなく、“ユーザー“に留まってしまう懸念は各方面から上がっている。そうなっている理由の1つとして申氏は「教育現場から見ると、ユーザーから開発側へ行くところに壁がある。その壁を超えられる学生が非常に少ない。そうすると研究者の裾野が広がらない。これが要因の1つにつながっていることは間違いない」と語る。

 資金面の課題もある。以前は「少ない資金でいかにAIを開発するか」という研究の方が主流だった。だが今では、大量資本を投入してビッグデータを大規模なネットワークで学習させる手法へと変化している。必要な投資の金額は桁違いに増えつつある。残念ながら日本では、経営者に投資判断ができなかった。

 「日本の企業経営者は科学的展望に欠けていることが多い」点も問題だという。コンピュータの発展は「ムーアの法則」、すなわち半導体の微細加工技術の進化に沿っている。何に投資すべきかは分かり易い分野だと言える。しかしその判断ができなかった。「もともと企業に所属していた自分も含めて、戦略的思考ができなかったことが反省点」だと上林氏は語る。

 上林氏は「日本の情報教育、コンピュータサイエンス教育にも大きな責任がある」と語る。「コンピュータサイエンスは従来の科学パラダイムの中で位置づけることが難しく、アカデミアの中でもリスペクトされる分野ではなかった。これが大きい。新しい人材を生み出すための流れが悪かった」という。

 また、今のネットでは「システム」ではなく「サービス」が重視されている。エンドユーザーの使うサービスの開発のためには、内部関係者のみが使うシステム設計とは異なる発想が必要になる。「サービスはマーケットとの価値との連携が重要。そこをやる会社が出てこなかった。コンピュータサイエンスを学んだ人たちも、学んだ技術を生かせなかった」。

 もう1つ、「日本のシステムで抜けていたのは『スケーラブル』という概念だ。日本はそれぞれのお客にカスタマイズする。それをスケールするという概念がなかった。それが決定的にGAFAMなどマクロトレンドに対して後塵を拝した理由だと思う」(上林氏)。

 申氏も「(1982年から1992年にかけて行なわれた)第5世代コンピュータのつまづきが大きかった」と歴史を振り返った。だが、日本に潜在能力がなかったわけではない。今日のディープラーニングへとつながる階層型多層神経回路網を支える基本的な仕組み、すなわち甘利俊一氏が1967年に発見した「誤差逆伝播法」や、福島邦彦氏が1979年に発表した「ネオコグニトロン」のような先駆的な成果のことだ。このような成果は生まれている。

 しかし一方、「計算機科学のノーベル賞」とも言われる「チューリング賞」には日本人受賞者は一人も出ていない。そのためには広く世界にアピールできる人材を輩出する必要がある。新たな教育カリキュラムは、新たな時代を作る人材を作ることができるだろうか。