- 虎ノ門大学院ブログ
- 2024年07月09日
【対談企画:生成AIについて考える】AI&データサイエンスコンサルタントとして活躍する野田晴義客員教授と槌野浩客員教授に語っていただきました。
OpenAIのChatGPTやGoogleのGeminiなど、IT業界以外からも注目を浴びている「生成AI」。従来AIの主流であった予測?分類などに加えて、新しい技術として生成AIが注目を浴びています。 「大規模言語モデル(LLM)」と呼ばれる非常に膨大なデータを元に構築された「基盤モデル(ファンデーション?モデル)」が着実に進化を遂げ、多種多様で膨大な情報を学習することにより様々な出力を自動生成できるようになってきました。
一昨年に登場したテキスト生成AIであるChatGPTは、大規模言語モデルを更に進化させ、質問(プロンプト)に対してまるで人間が話しているかのような流暢な文章が答え(出力)として返ってきて、人々を驚かせました。その反響は大きく、瞬く間に雑誌やニュースで取り上げられるようになり、画像や動画などの生成AIも続々と登場しています。
また、ビジネス界ではこの2年の間にAIの主導権争いに乗り遅れないよう、IT勝組企業のGAFAMなどが我先に ChatGPTを取り込んだり、対抗して別個の基盤モデルが数多く登場してきています。各基盤モデルでは自社を差別化するための戦略として、精度を追求できるようにAIモデルとしてのパラメータ数を増やしたり、言語?画像?音声の相互乗り入れ処理ができるマルチモーダル基盤モデルが、増えてきているのが現在の状況です。
生成AIの登場によりAI導入がますます検討され、デジタルデバイドが形を変え、生成AIデバイドが広がっていく可能性もあります。この技術をどのようにうまく活用できるかが個人や会社の生産性に大きく影響してくるでしょう。
今回の虎ノ門大学院ブログでは、AI&データサイエンスコンサルタントとして活躍する野田晴義客員教授と、槌野浩客員教授にご登場いただき、生成AIについて対談形式で語ってもらいました。
左から村上敏也教授、野田晴義客員教授、槌野浩客員教授
■基盤モデルの登場と今後の進化の方向性を探る |
槌野:ChatGPTは、なぜ自然な文章が生成できるのでしょうか?
野田:大規模言語モデルから多様な情報を生成することはできますが、文章としての完成度は不十分でした。ChatGPTでは人にとって自然な文章が生成できるよう、機械学習方式が予め組み込まれているのです。
槌野:生成AIは過去に起きた事象を膨大なデータとして学習しているため、情報検索/AIチャットボット/記事の作成や要約/プログラミングなどの作業において、我々の手助けをしてくれます。しかし、どうしたらうまく仕事に活用できるか、悩んでいる人も多いですね。
野田:業務で有効に活用するためには、生成AIが精度の高い出力を生成できるように入力であるプロンプトを工夫していく必要があります。従来のAIではプログラムによって指示を出していましたが、生成AIではプロンプトとして指示を出すため「プロンプト?エンジニアリング」が注目を集めています。よいプロンプトでは指示/役割/制約条件などを明確にする、会話を重ねる、ことにより回答の精度を上げていくというものです。生成AIはビジネスにおいて色々な活用方法が考えられますが、実際にどのように活用されているか紹介していただけますか?
ビジネスに活用するための「プロンプト?エンジニアリング」
槌野:生成AIと人間が協調しながらビジネスを進めていくということが重要だと考えます。生成AIによって効率化が見込まれる業務は、バックオフィスにおける事務作業や、コールセンターなどが挙げられます。このように生成AIが得意とする業務がある一方、人でなければできない業務もあります。野田先生はどう思われますか?
野田:ChatGPTなど生成AIが作り出す文章が必ずしも正しくない場合があり、人がそれを信じ込んでしまう「ハルシネーション(幻覚)」という現象があります。これは学習された情報の不足や偏りから、正確ではない情報を自然な文章として生成してしまうことで生じます。また基盤モデル作成時に使用するデータや生成AIへのプロンプトにおいて、データの著作権や肖像権などについても注意を払う必要があります。私が担当する「AIによるデータ活用実務特論1※」では、これらのメカニズムや留意点を紹介していきます。※7月11日締切!3学期の科目等履修生を募集中
■どうすればAIと人間は上手く付き合えるのか? |
野田:米国でのAI開発競争の状況を踏まえて、欧州ではAIのリスクレベルに応じた利用制限として、「AI規制法」が生れてきています。日本でも「AIと著作権に関する考え方」が検討されていますが、さらにAI活用を推進し、少子化で不足する労働人口の補塡に繋げたいという考えもあるようです。率直な質問として、AIは推進すべきものですか?規制すべきものですか?
槌野:AIは学習されたデータに従順で超優秀な部下ですが、その超優秀な部下を活用する上司である人間の倫理感や多様性に対応する柔軟性が問われます。ちょっと大袈裟に聞こえるかもしれませんが、原爆の父と言われたオッペンハイマーの映画が話題になったことがありましたが、OpenAIの代表創設者サム?アルトマンが将来、第二のオッペンハイマーにならないように、AIを使う人間の基本姿勢を規制することも必要です。
野田:なるほど。過去には、IT技術を使いこなせるか否かで格差が生まれ、デジタルデバイドが社会問題になりましたが、同じようにAI技術についても“AIデバイド”は出てくるのでしょうか?
槌野: IT技術をスマホと置き換えてみてください。確かに、おじいちゃんおばあちゃんでスマホを使いこなしている人の比率は少ないのかもしれませんが、私達の同僚年代でスマホを使わない人を見つけるのが難しくなってきています。ましてや、AI技術は、それ自体が人間のインターフェースに近づくための技術(自然言語や音声認識?音声合成)としても活用されますので、AIデバイドは、AIの進化が早々に解消してくれることは明白ではないでしょうか。おじいちゃんやおばあちゃんほど、AIのお世話になる時代が来るはずです。
AIと人間、対立と協業 (Created by Stable Defusion V2.1Demo version)
野田:さらに、三亚赌场,香港赌场&エンタメ業界に目を向けてみると、人ではないAIにクリエーション(創造)を任せることに対する拒絶感や排斥が広がっています。ハリウッドで映画スター達が、AIによるバーチャルな俳優を作り出すことに反対する大規模なストライキを実施しました。すでに、AI技術が人類の脅威と見なされ始めている証ではないでしょうか。
槌野:確かにAI俳優は大きなニュースになりましたね。1980年代から1990年代の日米自動車摩擦の際に、デトロイトを中心とした自動車メーカーであるビッグ3の従業員が、日本車の輸入が自分達の雇用を奪い、失業率を上昇させているという理由で、日本車の上に乗ってハンマーで車を壊している光景を思い出します。彼らの伝えたい主張は、雇用の安定でした。それを脅やかす仮想敵として、日本車に八つ当たりする裏で、自分達は品質が高く壊れにくい日本車を好んで買っていました。同じように考えると、AI俳優の活用が進んでいく問題の構図への対策は、本物の俳優は、AI俳優にはカバーできない本物の表現力の価値を追求することが最大の自己防衛であるように感じています。映画ファンは、AI俳優主演の映画より、人として共感できる名優が主演する映画を見たいと思っているはずです。
野田:今回のように槌野先生との対話を通じて、AIと人間を対立軸で見るのではなく、“麗しい協業関係”として見ることに、新しいビジネスのヒントが隠れていると思えますね。
槌野:はい、その通りだと思います。人が従来、生業としていた職務の中で、AIが不得意とする“全く新しい発想の追求”や“多様性を受容した柔軟な例外対応”を人間が追求し 、暗黙のルールに従って繰り返し行っていた広い意味での“定型業務”をAIに任せるようなビジネスモデルを準備することで、新しいビジネスチャンスを創造できる時代にしていけると良いですね。私が担当する「AIによるデータ活用実務特論2※」では、自分の現在の生業において、“自分とAIの麗しい協業関係”が成り立つ新しいビジネスモデルを考える機会を持っていただくのが、野田先生や私が提供しているクラスの価値だと考えています。※10月3日締切!4学期の科目等履修生を募集中