クラウド AI 元SEママの情シスなりきりAWS奮闘記

生成AI・進化の鍵を握るキーワード「SLM」ってなんですか?

2025年4月9日掲載

こんにちは、シイノキです。子どもたちの成長とともに、子どもそれぞれの予定が入るようになり、家族のスケジュール管理が限界です。いつかなにかやらかしそうで怖い……!

さて、AWS re:Invent 2024レポートとしていろいろと紹介してきましたが、その仕上げとしてソニービズネットワークスのAWS Ambassador濱田さんへのインタビューをお届けします。AWS re:Invent 2024ではなにがすごかったのか、どこに注目したのか、やっぱり生成AIがすごいのか、だとしたら生成AIはこれからどう進化していくのか。これから押さえておきたいキーワード「SLM」についても詳しく聞きました。

AWS re:Invent 2024で見えた、“IaaSプロバイダー”としての底力

まずはAWS re:Invent 2024全体の感想から。今回も大量の発表があり、やはり生成AIが注目されていた印象が強いです。ぼんやりと、どんどん実際に使うための方向に進化しているなとは思っているのですが、濱田さんから見るとどうだったんでしょうか?

「今回発表されたアップデートは、生成AI開発を加速させるものが多かった印象です。AWSがこれまで積み重ねてきたものが花開いた年でもあり、IaaSプロバイダーとして生成AIへの取り組みに対する本気度が垣間見えました」

ということですが、ここでキーになるのは「IaaSプロバイダー」というあたりでしょうか。生成AIではどうしてもAmazon Q(※1)のようなユーザに近いサービスが注目されますが、今回はインフラ系でもすごい技術を発表しています。

たとえば、ハードウェア領域では濱田さんが「もはや“お化けサーバ”」とまで言うTrn2 UltraServersが登場。これはAIトレーニングに最適化されたAWS Trainium2インスタンスを4つも接続したもの。そもそもAWS Trainium2でもすごいのに、それを4つとかちょっと意味が分からない感じになっております。

そしてこれを支えるのが、チップ間の接続規格「NuronLink」だったり、リージョン間の時刻同期を可能にする「Amazon Time Sync Service」だったり、これまでAWSが培ってきた技術たちです。時刻同期なんかは地味な技術に見えますが、「時刻がズレると、トランザクションに不整合が起きてしまう。大規模に展開するならば、時刻同期は絶対条件(濱田さん)」とのこと。確かにそれはそのとおり。こういった技術があるからできる“お化けサーバ”なんですね。

Claude(※2)を提供するANTHROPIC社がTrn2 UltraServersを開発に活用すると発表するなど、このインフラでますます生成AIの進化が加速することになりそうです。「生成AIとどう共生するのか」は企業にとって避けられないテーマになるでしょう。

※1 Amazon Q:AWSが提供する生成AIアシスタント。チャットベースで、ユーザからの質問に対し、企業のデータを活用して回答やコンテンツを生成する

※2 Claude:コード生成や多言語処理などさまざまな用途に対応する大規模言語モデル。Amazon Bedrockで提供するモデルのひとつ

生成AIの軽量化・高速化を実現する「SLM」とは?

生成AIが進化する……とはいいますが、じゃあどう進化するんでしょうか?というところで、キーワードになるのが「SLM」です。LLMじゃなくて、SLM。これは「Specialized Language Model」といって、特定のドメインや文化に特化した言語モデルのこと。「SLMの開発が進むとは思っていましたが、その世界が想像以上に早く来そうです」と濱田さん。

そもそも、LLM(大規模言語モデル)は、さまざまな用途に活用できるように大量のデータを学習したモデルでした。つまりその分、モデルのサイズが大きくなり、速度も課題になる。これを解決するのが、分野を特化させることでモデルサイズを圧縮し、高速化を目指すSLM、というわけです。

濱田さんいわく「これからは生成AIの速度が重要になる」とのこと。これまでは「Webサイトで2秒遅れるとユーザが離脱する」と言われていましたが、生成AIでも遅延が離脱になりかねない、という話です。それこそ、コンタクトセンターサービス「Amazon Connect」と連携して、生成AIに対応させる場合、電話で返事までに2秒もあいたら相当な違和感がありそうです。つまり、生成AIにリクエストをかけて、回答までにそこまで時間がかかるようでは使い物にならない、ということ。用途にもよりますが、速度への要件はますますシビアになると考えられます。そのなかで、高速化を期待できるSLMが注目されている、ということですね。

SLMで覚えておきたい3つのキーワード

SLMに関連するキーワードとしてまず覚えておきたいのが、モデルの「蒸留」です。最近ちらほら見かけるワードですね。これはSLMを開発する手法で、LLMが使う何億もの膨大なパラメータを、ユースケースにあわせて絞っていくイメージです。もちろん、Amazon Bedrockでもモデル蒸留の機能が発表され、きっちり押さえてきているのが分かります。

もうひとつは「プロンプトルーティング」。これは細かなモデルをたくさん用意し、リクエストにあわせて最適なモデルにルーティングすること。汎用的に使えるLLMから、用途に特化したSLMへ移行するのとあわせて、使うモデルを制御する必要も出てくるよー、ということでしょう。

そして最後が「マーケットプレイス」。SLMは必ずしも自分で開発しなきゃいけないわけではなく、いろいろなモデルを気軽に買える世界がやってきます(もちろん作ったモデルを売ることもできます)。その場として、Amazon Bedrock Marketplaceも発表されています。今後は、「生成AI」とひとくくりにするのではなく、「こういう用途に強い生成AI」のような感じで選んで使うようになる(はず)。なんだか使いこなすハードルがどんどん上がっていくように思えるのは、気のせいでしょうか……。

生成AIは「どう活用するか」から「どう開発するか」へ

「生成AIをどう活用するか」という話は散々しているのですが、今回のインタビューをとおして、先進的なところでは「どう開発するか」に踏み込み始めているんだと改めて実感しました。ただそうなると、AIを使うときにも語られていた「責任あるAI」がますます重要になってきます。責任あるAIは以前のコラム(生成AIを仕事で使って大丈夫?気にしておきたい倫理面のリスク)でも取り上げましたが、作成したモデルが信頼できるのか、偏見や偏りがないのか、きちんと責任を持つことが求められる、ということです。こういったところはしっかり意識しつつ、うまく自分の用途にあったものを使い分けていく、というのがこれからの生成AIとの付き合い方になるのかもしれません。以上、シイノキでした!

関連コラム

このコラムに関連する製品

  • マネージドクラウド with AWS

    はじめてのAWSから
    一歩進んだ活用までトータルサポート

    詳細はこちら

  • AWS導入支援サービス

    リーズナブル&豊富なメニューで
    AWS導入をワンストップサポート

    詳細はこちら

  • 生成AI活用「社内FAQボット」

    社内ヘルプデスクや問い合わせ窓口の対応品質向上や業務改革に!

    詳細はこちら

  • Windowsサーバー2012 AWS移行支援

    Windows Server 2012/2012Rは、2023年10月にサポート終了。この機会にAWS移行をご検討の方へ。
    はじめてのAWSの不安をクリアします!

    詳細はこちら

  • DR対策ソリューション

    企業ごとの要件、ダウンタイム/データ損失の許容度にあわせて、AWSでのDR構成や環境構築をサポート

    詳細はこちら

  • 静的Webサイト構築パッケージ

    “サーバレス”で実現
    サーバ運用の負担が解消し、セキュリティ強化にも

    詳細はこちら

  • クラウドバックアップ付きファイルサーバ(NAS)構築パッケージ

    ファイルサーバのバックアップをクラウドに。
    NAS導入からAWSバックアップまでまとめてサポートします

    詳細はこちら

このコラムに関連する
導入事例

このコラムに関連する
セミナー・イベント

このコラムに関連する
セミナーアーカイブ動画

情シス担当者に捧げる、セキュリティ内製化を促進する生成AI活用術
~アイティメディア社主催 「AWS Secuirty and Risk Management Forum」から弊社セッション~

SHARE
シェアシェア ポストポスト
情シス担当者に捧げる、セキュリティ内製化を促進する生成AI活用術<br>~アイティメディア社主催 「AWS Secuirty and Risk Management Forum」から弊社セッション~
SHARE
ポスト シェア