AIは神様じゃない! 現場を救う「設計」と未来を開く「香りの言語学」|巳波 弘佳 氏

関西学院大学 副学長/情報化推進機構長/AI活用人材育成プログラム統括 工学部教授 巳波 弘佳氏

インタビュー取材にご協力いただいた方

巳波 弘佳 (みわ ひろよし)氏 
関西学院大学 副学長 情報化推進機構長 AI活用人材育成プログラム統括 工学部教授

1992年東京大学理学部数学科卒業。日本電信電話株式会社通信網総合研究所研究員。2000年博士(情報学)(京都大学)。2002年関西学院大学専任講師。2006年関西学院大学助教授。2007年関西学院大学准教授(職名変更)。2012年関西学院大学教授となり、現在に至る。
研究分野は情報科学、数学、数理工学、アルゴリズム工学、離散数学、最適化、アルゴリズム、AI(人工知能)、CG(コンピュータグラフィクス)、ビッグデータ、インターネットなど。

AI を「なんでも解決できる『神様』」と誤解したまま導入が進む現場が迷走する一方で、「本質を見極める設計こそが未来を拓く」と語るのが、関西学院大学副学長の巳波弘佳先生です。かつて『のだめカンタービレ』の高速ピアノ演奏をアニメで再現するため、誰もできなかった指の動きを理論的に復元可能にした経験は、まさにその象徴。AI も同じく「正しい設計」がなければ力を発揮しないと語ります。巳波先生は今、香りの言語学など新領域にも挑みながら、AI 時代の「本質思考」の重要性を問い続けています。

AIの誤解を解く!「なんとなく導入」が招く現場の迷走と、未来を拓く「香りの言語学」

―― 先生が現在、最も注力されているAI の研究テーマは何でしょうか?

巳波先生:私自身は、AI技術そのものよりもむしろ、それをどのように活用するかということに関心があります。社会課題やビジネス課題を解決するためには、AIも一つの部品として組み込んだ策が必要です。AIは、「デウス・エクス・マキナ」※1的になんでも解決できる「神様」ではありません。単なる一つのアルゴリズムでしかなく、できること・できないことがあるので、それを見極めた上で、他の部品を組み合わせて、課題の解決策という巨大な構築物を作る必要があります。なお、それを丸ごと指してAIといわれがちですが。AIというものを誤解させる危険性があります。解決策という巨大な構築物を作るためには、業務や顧客ニーズなどをよく理解した上で適切に設計しなければならないため、それを考えること自体も研究です。この「設計の重要性」を理解せず、AIを過大評価することに私は強い懸念を抱いています。

―― その「懸念」、つまり AI というものを誤解させる危険性があるというのは、具体的にどういうことでしょうか?

巳波先生:企業におけるAI導入の最大の課題は、経営層が「AIを入れれば何かできるだろう」という漠然とした期待に基づいて指示を出すため、現場が「使えるようになったが、次に何をすべきか」と迷走することです。これは、かつてチャットボット導入時に膨大な準備作業(Q&A作成)を怠った失敗の繰り返しです。AI導入を成功させるためには、「目的を明確にし、その道筋を具体的に言語化する」ことが欠かせません。生成AI時代において、この目的の「言語化」ができている企業とできていない企業との間で、生産性の格差はさらに拡大していくと危惧しています。

―― 先生が最近特に興味を持たれているAI技術は何でしょうか?

巳波先生:私はさまざまな分野の研究を手掛けていますが、最近は、「香りの言語学」の研究がマイブームの一つです。大規模言語モデルを用いてアプローチするもので、注目いただいています。香りだけでなく、広い意味での言語で表せるもの、言語としてモデル化できるものは、大規模言語モデルとの相性が良いため、これまで限られた方向からのアプローチしかなかった対象を扱うことができるようになります。それがたいへん興味深く、新たな研究領域の開拓を楽しんで行っています。

―― 「香りの言語学」の研究内容について教えてください

巳波先生:「香りの言語学」では、香料会社と共同で研究を進めています。たとえば、飲料メーカーや食品メーカーから「爽やかなオレンジの香りを作ってほしい」といった依頼があった場合、これまではフレーバリスト※2が最適な香りのサンプルを提示していました。このシステムは、その調香プロセスをAIが自動で提示することを目指すもので、現在は約 90%の精度で実現に近づいています。この研究の要点は、香りを表す言葉と実際の香りを結びつけるという新しいアプローチにあります。従来のアンケートによる主観評価や化学成分量に基づく研究とは異なり、「言葉の表現」を起点に香りを生み出す新たな領域を拓く試みとして、強い関心を持って取り組んでいます。

※1「デウス・エクス・マキナ」:「機械仕掛けの神」という意味。古代ギリシャ劇の終幕で、上方から機械仕掛けで舞台に降り、紛糾した事態を円満に収拾する神の役割。都合の良い強引な解決策という意味もあります。

※2フレーバリスト:食品の風味や香料を調合する専門家である調香師の一種。

つぎはぎ文章の限界 RAG×人間の判断で実用性を高める

―― ChatGPT のように非常に巨大なAIを、企業や個人の生活の中にある特定の小さな用途に合わせて効率的かつ簡単に活用するためには、どのような工夫が必要で、どこに技術的な難しさがあるのでしょうか?

巳波先生:ChatGPTやGemini、Copilotといった大規模AIモデルは、大量のデータから「平均的な」回答を導くことには長けていますが、特定の専門分野では性能が低下し、論理的な演繹を行わないため、数学の証明のような厳密さが求められる問いでは誤った結果を出しやすいという課題があります。

企業がAIを実用的に活用するためには、汎用AIにすべてを任せるのではなく、RAG(Retrieval-Augmented Generation)※3などの技術を活用し、質問意図の理解や自然な文章生成はAIに、内容のファクトチェックは企業内データを参照に人間に分担させることが重要です。つまり、AIの誤りを完全に排除することは原理的に困難であるため、最終的なファクトチェックを人間が担うワークフローは欠かせません。

―― 文章作成において、現状では生成AIがライターの役割を担うようになっています

巳波先生:最近の生成AIには、生成した文章の根拠となる情報源を提示できる機能を備えたものも登場し、誤りを減らすための工夫が進んでいます。しかし、正確性を追求するあまり、生成される文章が参照元のWebサイトから情報をそのまま継ぎ接ぎしたようなものになりがちです。率直に言えば、それでは魅力に乏しく、「刺さる」文章にはなりません。

正確さを求め、根拠を明確に示そうとするほど、読み手の心に強く残る印象的な文章からは遠ざかってしまうというジレンマがあります。この「正確性」と「刺さる文章」の両立という非常に難しい領域を、ぎりぎりのバランスで成り立たせられるのがプロのライターの卓越した技量であり、現状の生成AIがその領域に到達するのはまだ相当に難しいのではないかと考えています。

※3 RAG(Retrieval-Augmented Generation):「検索拡張生成」という意味。検索機能と生成AIを組み合わせたもの。大規模言語モデル(LLM)が外部のナレッジベースや独自データを利用し、回答を生成する仕組み。

AIは「燃費」との戦いへ アルゴリズムの限界とハード技術のリアル

―― 高性能なAIには莫大な電力が必要です。今後、より省エネで「燃費の良い」AIを実現するには、どんな技術的ブレイクスルーが必要だとお考えですか?

巳波先生:AIも結局はプログラムに過ぎないので、そのアルゴリズムの計算量が「燃費」に直結します。AIの計算量を根本的に削減する方法は現在のところ知られていませんし、おそらく理論的に困難と考えられています。現在のアルゴリズムの考え方に基づく限り、計算量の大幅な削減は難しいと思われますが、GPUなどハードウェアの消費電力を抑えるというアプローチも考えられますね。こちらの方はまだ削減の余地は大きいと思われます。

―― ハードウェアの省電力についてはいかがでしょうか?

巳波先生: GPUなどのハードウェア側での消費電力削減の研究は進んでいますね。具体的には、計算処理の必要性に応じて、例えばGPUの一部の計算のみが進むフェーズでは、使用しない他の部分を休止モードに入れるなど、非常にきめ細かい電力制御が行われています。常にプロセッサーをフル稼働させるのではなく、処理の変動に合わせて消費電力を下げることで、全体の省電力化を図ることが可能です。

「だいたい合っている」AIの限界 論理と防御の壁を乗り越えられるか?

―― AIが判断理由を説明できないことがあります。これを人間に分かりやすく示す技術について、現状の課題と今後の進化をどのようにお考えですか?

巳波先生:理由を示すAIの研究開発も進んでいます。ただ、論理的演繹には膨大な計算量が必要で、それを根本的に削減することは理論的に困難と考えられています。しかし、実用的には、判断理由は数学的に厳格でなければならないという場面ばかりではありません。それなりの理由で十分なことも多いため、それであれば、現在でもある程度のものは出せるようになっていますし、その性能も向上していくことでしょう。例えば「香りの話」でなぜその香りを選んだのかという理由をAIに尋ねた際、「お客さまからオレンジの香りが欲しいと言われ、オレンジといえば爽やかだから、爽やかな香りのものを選びました」といった、厳密な数学的論理に基づかない、ある程度外していない理由を示すことはできるようになっています。

先ほどもお伝えしましたが、現在のAIが苦手なのは、証明のように論理的な演繹を必要とするタスクです。私自身、京都大学の入試問題「tan1°が無理数であることを証明せよ」をAIに解かせ、定点観測※4していますが、当初はデタラメな証明しか返さず、徐々にもっともらしいものは出せるようになっても、どこかに論理的な誤りが残ります。これは、AIが論理的演繹を苦手とする基本原理によるものです。答えのある問題であれば正しく答えられますが、新しい証明を積み重ねて解かせることは原理的に困難で、計算量も膨大になるため、現状では非常に難しい課題です。

※4 定点観測:特定の場所や対象を継続的に観察し、その変化を時系列で分析する手法

―― また、AIはわずかなノイズで誤判断することや、不適切な学習データによる「汚染」を受けるリスクがあります。こうした脆弱性への防御策についてはいかがでしょうか?

巳波先生:判明したものについては対応策が研究開発されていきますが、完全に防ぐのは困難かもしれません。人間には錯視などさまざまな錯覚がありますが、これは「バグ」ではなく、効率の良い認識や判断ができる能力を得たことの副作用という見方もあります。性能と誤認識の間にはトレードオフの関係がある場合もあるため、アプリケーションによっては適度なところで手を打つこともありうるでしょう。

外部からの攻撃や不適切なデータによる「汚染」を防ぐために、多層的な防御が整備されています。例えば、入力が攻撃に該当するかどうかを事前に判定する専用のAIを手前に配置し、不正なデータを遮断する仕組みがあります。また、学習データに対しても、人間が決めた基準を別のAIに学習させ、不適切なデータを自動的に判別・フィルタリングする仕組みも導入されています。過去の事例からも、無防備な状態ではAIがデータに「汚染」される可能性は常に存在するため、人間の感覚を踏まえた多重のガードが欠かせません。

テレビともネットとも違う、AI特有のリスクとは? 子どもにどう使わせるべきか

―― AI が社会に浸透する中で、特に倫理的、法的な課題について、研究者の立場からどのような対策や議論が必要だとお考えですか?

巳波先生:著作権や個人情報保護のようなものは、AI 技術と法律両方に詳しい人材がこれから増加するにしたがって、さまざまな案が提案されて議論され、社会的合意の取れる落としどころに収束するでしょう。

―― 最近は子どもたちもAIに触れる機会が増えています。

巳波先生:私が懸念するのは、誰でも自由に使えることの影響の大きさです。子どもの発達段階によっては、AI の回答を無批判的に信じてしまう危険性もあります。そのため、自我が発達していない子ども(に限らないかもしれませんが)が洗脳される危険性もあります。これは、かつてのテレビやインターネットに対して懸念されていたものよりもはるかに大きな危険性だと思います。

テレビやインターネットは、一方的に情報を与えるものに留まっていましたが、現在のAIは対話できる存在であるため、AIが人間と同等の影響力を持ちうるからです。だからといって、一定年齢に達するまでは利用を一律に禁止するということは現実的ではありませんし、適切に設計されたAIであればむしろ有用でしょう。子どもの発達段階に応じてどのようにAIに触れさせるのか、使わせるか使わせないかの二者択一ではなく、どのように使わせるかという点で、これまで以上に注意深く扱う必要があると考えています。

―― では、どのように使わせるのが望ましいでしょうか?

巳波先生:AIは学習の個別化には非常に有用です。例えば、子どもの理解度やこれまでの経歴に応じて、その子が弱い分野の理解が深まるような問題を個別に出題してくれるといった個別学習のサポートや、英会話の相手役や文章の添削といったニュートラルな使い方であれば、非常に有用だと考えています。

AIは単なる「部品」! 研究の醍醐味は、数学の槍を闇に投じ、実世界をデザインすること

―― 先生がAI研究を始められたきっかけや動機は何だったのでしょうか?

巳波先生:私自身は数学の研究を自分の軸としています。ただし、理論だけに留まるのではなく、それを現実の社会に役立てるところまで研究開発を進めたいと考えています。大学時代、数学科で特に微分幾何や代数解析を学んでいましたが、理論のための理論の研究だけに留まっていて良いのだろうかと自問するようになり、数学と社会をつなげたいと考え、企業の研究所で情報ネットワークの設計・制御に関する研究開発に携わるようになりました。やがて、情報ネットワークだけではなく、もっと広い世界に関わりたいと考え、偶然ご縁のあった現在の大学において、分野を問わず、理論から実用化まで取り組んでいます。

私にとって、AIはツールや部品の一つに過ぎません。先にも述べてきたように、狭い意味のAI技術だけですべて済むことはなく、さまざまな技術を組み合わせてアルゴリズムを設計することが必要になります。数学、特に離散数学や最適化理論を用いることが多いのですが、他のさまざまな理論も組み合わせることで、より良いものが生まれると考えています。

―― 研究活動を通じて、これまでに感じた最大の困難と、それを乗り越えたエピソードや研究の醍醐味についてお聞かせください

巳波先生:AI そのものの研究だけに限りませんが、困難は何度もありました。やはり数学の理論を対象にした研究では、証明ができるまでは精神的にかなり厳しいものがあります。たぶん成り立つと思えて、証明できそうなのに、詰めていこうとするとするりと逃げていきます。これを試行錯誤しながら追い詰めていかなければなりません。映画監督のイングマール・ベルイマンの言葉に「闇の中に槍を投げる。それが直感だ。次に、槍を探すために暗闇に軍を送らなければならない。それが知性だ」というものがあります。まさにその感じです。槍が落ちている場所までの細く長い道筋が見えた瞬間、そしてそれを何度もたどって確信できた瞬間の爆発的な喜びが、私にとっての研究の醍醐味です。それは数学の証明だけではなく、他の研究においても同様で、アイデアを実現するための道筋が見えた時の感動はなにものにも代えられません。

―― 理論と実践を組み合わせた事例について教えてください

巳波先生:目の前の課題に対しては、「動けばいい」と考えるのではなく、「本質的な課題は何か」を深く掘り下げ、必要であれば理論まで立ち戻ることが重要だと考えています。以前、テレビアニメ『のだめカンタービレ』のピアノ演奏シーンの制作に携わった際に、そのことを強く実感しました。きっかけは、制作会社から「ピアニストの速い指先の動きを再現してほしい」という相談を受けたことです。これまで誰も成功した例がなく、アニメーターでも対応できませんでした。多くの専門家は「モーションキャプチャーでできるはず」と断言していましたが、実際には指の動きが速すぎて欠落やノイズだらけとなり、モーションキャプチャーには明確な限界がありました。

そこで私は、手や指の動きの力学にまで立ち返って考え、乱れたデータから元の軌道を復元することを最適化問題として扱えば、うまくいくのではないかと気づきました。この理論的なアプローチを試みたところ、実際にうまくいき、アニメのシーンとして実現することができました。この経験によって、モーションキャプチャーのような単純な手法に頼るだけでは不十分で、課題の本質に立ち戻って数学や理論と結びつけることが、実用レベルのブレイクスルーにつながることがわかりましたね。

「楽しむ者が最強」 AI 時代を切り拓くためのマインドセットとは?

―― AI時代において、大学で情報科学やAIを学ぶ学生は、どのようなスキルやマインドセ ットを身につけるべきだとお考えですか?

巳波先生:AIや情報科学の分野だけではなく、なんであっても同様ですが、「楽しむ」「おもしろがる」精神だと思います。孔子の言葉を収めた論語の中に、「これを知る者はこれを好む者に如かず。これを好む者はこれを楽しむ者に如かず」というものがありますが、楽しんでいる者が強いのです。それから、「これは何の役に立つのか」と問う評論家的態度ではなく、「役に立たせてみせる」というマインドセットが重要だと思います。他人が見捨てたものでも、うまくやれば良いものになるかもしれません。「役に立つ」かどうかは既存の常識の範囲で判断することが多いものです。それでは新しいことは生み出せません。最初は役に立つのかどうかよくわからないものでも、それをなんとかうまくやろうという精神が道を拓くと思います。

―― 最後に読者の方に向けてメッセージをお願いできますか?

巳波先生:「楽しむ」「おもしろがる」「役に立たせてみせる」精神です。知的好奇心を持って、アンテナを広げて、さまざまな分野にどんどん飛び込み、それらをつなげ、良いものを創り上げようと考えて行動しているうちに、形になるものがいくつも出てくるでしょう。まさに、フランスの細菌学者ルイ・パスツールが言ったように、「幸運は用意された心に宿る」のです。


巳波 弘佳先生のご紹介リンク
– 巳波 弘佳 | 関西学院大学 教員情報