AWS re:Invent 2024で見えた、“IaaSプロバイダー”としての底力
まずはAWS re:Invent 2024全体の感想から。今回も大量の発表があり、やはり生成AIが注目されていた印象が強いです。ぼんやりと、どんどん実際に使うための方向に進化しているなとは思っているのですが、濱田さんから見るとどうだったんでしょうか?
「今回発表されたアップデートは、生成AI開発を加速させるものが多かった印象です。AWSがこれまで積み重ねてきたものが花開いた年でもあり、IaaSプロバイダーとして生成AIへの取り組みに対する本気度が垣間見えました」
ということですが、ここでキーになるのは「IaaSプロバイダー」というあたりでしょうか。生成AIではどうしてもAmazon Q(※1)のようなユーザに近いサービスが注目されますが、今回はインフラ系でもすごい技術を発表しています。
たとえば、ハードウェア領域では濱田さんが「もはや“お化けサーバ”」とまで言うTrn2 UltraServersが登場。これはAIトレーニングに最適化されたAWS Trainium2インスタンスを4つも接続したもの。そもそもAWS Trainium2でもすごいのに、それを4つとかちょっと意味が分からない感じになっております。
そしてこれを支えるのが、チップ間の接続規格「NuronLink」だったり、リージョン間の時刻同期を可能にする「Amazon Time Sync Service」だったり、これまでAWSが培ってきた技術たちです。時刻同期なんかは地味な技術に見えますが、「時刻がズレると、トランザクションに不整合が起きてしまう。大規模に展開するならば、時刻同期は絶対条件(濱田さん)」とのこと。確かにそれはそのとおり。こういった技術があるからできる“お化けサーバ”なんですね。
Claude(※2)を提供するANTHROPIC社がTrn2 UltraServersを開発に活用すると発表するなど、このインフラでますます生成AIの進化が加速することになりそうです。「生成AIとどう共生するのか」は企業にとって避けられないテーマになるでしょう。
※1 Amazon Q:AWSが提供する生成AIアシスタント。チャットベースで、ユーザからの質問に対し、企業のデータを活用して回答やコンテンツを生成する
※2 Claude:コード生成や多言語処理などさまざまな用途に対応する大規模言語モデル。Amazon Bedrockで提供するモデルのひとつ
生成AIの軽量化・高速化を実現する「SLM」とは?
生成AIが進化する……とはいいますが、じゃあどう進化するんでしょうか?というところで、キーワードになるのが「SLM」です。LLMじゃなくて、SLM。これは「Specialized Language Model」といって、特定のドメインや文化に特化した言語モデルのこと。「SLMの開発が進むとは思っていましたが、その世界が想像以上に早く来そうです」と濱田さん。
そもそも、LLM(大規模言語モデル)は、さまざまな用途に活用できるように大量のデータを学習したモデルでした。つまりその分、モデルのサイズが大きくなり、速度も課題になる。これを解決するのが、分野を特化させることでモデルサイズを圧縮し、高速化を目指すSLM、というわけです。
濱田さんいわく「これからは生成AIの速度が重要になる」とのこと。これまでは「Webサイトで2秒遅れるとユーザが離脱する」と言われていましたが、生成AIでも遅延が離脱になりかねない、という話です。それこそ、コンタクトセンターサービス「Amazon Connect」と連携して、生成AIに対応させる場合、電話で返事までに2秒もあいたら相当な違和感がありそうです。つまり、生成AIにリクエストをかけて、回答までにそこまで時間がかかるようでは使い物にならない、ということ。用途にもよりますが、速度への要件はますますシビアになると考えられます。そのなかで、高速化を期待できるSLMが注目されている、ということですね。
SLMで覚えておきたい3つのキーワード
SLMに関連するキーワードとしてまず覚えておきたいのが、モデルの「蒸留」です。最近ちらほら見かけるワードですね。これはSLMを開発する手法で、LLMが使う何億もの膨大なパラメータを、ユースケースにあわせて絞っていくイメージです。もちろん、Amazon Bedrockでもモデル蒸留の機能が発表され、きっちり押さえてきているのが分かります。
もうひとつは「プロンプトルーティング」。これは細かなモデルをたくさん用意し、リクエストにあわせて最適なモデルにルーティングすること。汎用的に使えるLLMから、用途に特化したSLMへ移行するのとあわせて、使うモデルを制御する必要も出てくるよー、ということでしょう。
そして最後が「マーケットプレイス」。SLMは必ずしも自分で開発しなきゃいけないわけではなく、いろいろなモデルを気軽に買える世界がやってきます(もちろん作ったモデルを売ることもできます)。その場として、Amazon Bedrock Marketplaceも発表されています。今後は、「生成AI」とひとくくりにするのではなく、「こういう用途に強い生成AI」のような感じで選んで使うようになる(はず)。なんだか使いこなすハードルがどんどん上がっていくように思えるのは、気のせいでしょうか……。
生成AIは「どう活用するか」から「どう開発するか」へ
「生成AIをどう活用するか」という話は散々しているのですが、今回のインタビューをとおして、先進的なところでは「どう開発するか」に踏み込み始めているんだと改めて実感しました。ただそうなると、AIを使うときにも語られていた「責任あるAI」がますます重要になってきます。責任あるAIは以前のコラム(生成AIを仕事で使って大丈夫?気にしておきたい倫理面のリスク)でも取り上げましたが、作成したモデルが信頼できるのか、偏見や偏りがないのか、きちんと責任を持つことが求められる、ということです。こういったところはしっかり意識しつつ、うまく自分の用途にあったものを使い分けていく、というのがこれからの生成AIとの付き合い方になるのかもしれません。以上、シイノキでした!