アマゾンウェブサービスジャパン(AWSジャパン)は、大規模言語モデル(LLM)の開発を支援する日本独自の「AWS LLM 開発支援プログラム」を開始すると発表した。
日本の企業や団体が、自ら大規模言語モデルを開発するための支援プログラムで、開発を行なうために必要な計算機リソースの確保に関するガイダンス、AWS上での大規模言語モデルの事前学習を行なう際の技術的メンタリングやハンズオン支援、総額600万ドル(約8億7,000万円)のAWSクレジットの提供、エキスパートによるビジネス支援をはじめとした各種サポートの4つの支援策を提供する。
同プログラムを利用する企業や団体を募集し、2023年7月21日に応募を締め切り、7月中に選考結果を通知。最大10社程度が選ばれる予定だ。技術的観点、ビジネス的観点、研究開発的観点などから総合的に判断して決定する。
2023年8月初旬から11月30日までを開発支援期間としており、9月や10月に中間報告などを実施し、12月中には成果発表会を開催。発表会では、開発した大規模言語モデルのデモストレーションなどを行なう。
アマゾンウェブサービスジャパンの長崎忠雄社長は、「数カ月間に渡り、様々な業種、あらゆる規模のお客様と対話をしてきたが、技術やコスト、管理、人材などの課題を持っていることが分かった。今回の支援策は、そうした日本のお客様の声を反映し、独自に用意した日本発のプログラムである。日本に拠点を置く、日本のお客様に特化したものであり、お客様の声に耳を傾けて、サービスを提供するという流れからは、1mmもブレていない支援策である。AWSジャパンは、機械学習を誰もが使うことができるように民主化することに努力をしてきた。生成系AIにおいても、新たなジャーニーを支援できる」と語った。
計算機リソースの確保に関するガイダンスでは、利用するモデルや深層学習フレームワークなど、参加者ごとの技術要件に応じた適切なインスタンス種類の選定や、計算機リソースをAWS上で確保するためのガイダンスを提供する。「ヒアリングやプランニングを行い、プログラム参加各社にとって最適な提案を行い、計算機リソースを活用してもらうことになる」(AWSジャパン スタートアップソリューションアーキテクト シニアマネージャーの塚田朗弘氏)という。
技術的メンタリングおよびハンズオンでは、AWS 上での分散学習、クラスタリング時のネットワーク性能の最適化、マネージドサービスの活用、AWS TrainiumおよびInferentiaの利用サポートなどを、AWSの技術エキスパートが直接支援する。
AWSクレジットの提供では、AWSジャパンが独自に総額600万ドル分のクレジットを用意。事前学習用のワークロードに必要な計算機リソースなどの費用を一部支援する。「基盤モデルを開発するための事前学習用であること、パラメータの規模などによって必要な計算機リソースが異なるため、状況に応じたクレジット分を提供することになる」とした。
ビジネス支援をはじめとしたサポートでは、開発した大規模言語モデルをビジネスに活用する方法や、AWS Marketplaceなどを活用した大規模言語モデルの公開、販路の拡大までを支援。ビジネスクライアント候補やVCとのコミュニケーション支援など、ビジネス面での支援も行なう。
「今回のプログラムでは、数10億から1,000億パラメータ以上の大規模言語モデルの事前学習を行なう企業や団体が対象になる。すでに、大規模言語モデルを開発している企業や団体においても、次のバージョンアップに、このブログラムを利用したいという場合も対象になる。2023年11月末までに開発成果を出すことを目指したい」と語った。
会見の中で、AWSジャパンの長崎社長は、「生成系AIによって、刺激的な転換点が訪れており、お客様の体験が変化するほか、アプリケーションの数々も作り変えられることになるだろう。Amazonは20年以上に渡って機械学習のイノベーションに取り組み、数千人のエンジニアが、機械学習の進化に携わっている。サプライチェーン予測やキャパシティプランニング、ピッキングルートの最適化も、機械学習によって実現し、日々進化している。また、Alexaには30以上の機械学習システムが搭載されており、毎週10億件以上のやりとりを処理している。
さらに、生成系AIでは、Amazonの検索機能、Alexaの教師モデル、Amazon Code Whispererによるコメントから推奨コードの自動生成などの成果がある。今後、分野や業界を超えて、生成AIが大きなインパクトを与え、イノベーションを加速していくことになる」などとコメントした。
また、AWSジャパン プリンシパル機械学習量子コンピューティングソリューションアーキテクトの宇都宮聖子氏は、「AWSでは大規模言語モデルの開発に特化した専用チップと、NVIDIAのGPUを搭載したインフラを用意。生成系AIで最高のパフォーマンスを実現しており、Amazon EC2 Trn1nインスタンスと、Amazon EC2 Inf2 インスタンスにより、大規模言語モデルの学習や推論を高いコスト効率で利用できるようにしている。
さらに、使い慣れたAmazon SageMakerやAmazon S3などのサービスと連携するとともに、AWSで実行されるアプリケーションやワークロードに、基盤モデルを迅速に統合し、デプロイできる点も特徴である」などとした。
これらのサービスを活用した日本の事例としてリコーを紹介。同社では、Amazon Machine Learning Solutions Labと連携し、60億個のパラメータを持つ日本語モデルを開発。Amazon SageMakerの分散学習と、そのメモリ効率化技術を活用することで、言語モデルの学習時間を30%以上短縮することに成功したという。
一方、ゲストとして登場した経済産業省 商務情報政策局情報産業課ソフトウェア・情報サービス戦略室長の渡辺琢也氏は、「生成系AIは黎明期であり、リスクにも対応していく必要がある。政府では、5月にAI戦略会議を立ち上げ、これまでにないスピードを持って議論している。リスク対応では、規制だけでなく、活用の可能性を広げていくことが必要であり、透明性確保に向けたガイドラインづくりやルールづくりも進めている。G7においては、広島AIプロセスを始動させており、今後は国際協調も図っていく。
日本では、生成AIの登場を前向きに捉えていると見ており、行政においても率先して使っていく。同時に、日本語性能の向上や、ハルシネーションへの対応、ドメイン特化での性能向上、マルチモーダル化への対応などへの取り組みを進めているところだ。
既存の大規模言語モデルを使いこなすことは大切だが、同時に、開発力を日本が保持していく必要がある。これは、原理の解明や理解、国内での安心安全な活用にもつながる。内燃機関の発明により、自動車が誕生し、移動手段が拡大。そこにおいて、日本の産業は世界的なイノベーションに貢献してきた歴史がある。内燃機関の登場と並び称される生成AIの登場にあわせて、日本は産業を育て上げ、世界に貢献できるかが、いま問われている」と述べた。
その上で、「大規模言語モデルの開発に挑戦しようとしている日本のスタートアップ企業もあるが、開発に必要な莫大な計算機リソースが十分でないのが実態である。今回のAWSジャパンの支援プログラムでは、AI開発に必要な計算機リソースをインフラとして提供してもらえる。時期を得た取り組みであり、心強い。日本において、大規模言語モデルの開発が進み、活用が進むことを期待している」と語った。
コメント