ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

GIGAZINE


OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。


Open source solution replicates ChatGPT training process! Ready to go with only 1.6GB GPU memory and gives you 7.73 times faster training!
https://www.hpc-ai.tech/blog/colossal-ai-chatgpt

GitHub – hpcaitech/ColossalAI: Making big AI models cheaper, easier, and more scalable
https://github.com/hpcaitech/ColossalAI

ChatGPTは史上最も急速に成長したサービスと言われており、マイクロソフトの創業者であるビル・ゲイツ氏が「インターネットの発明と同じくらい重要である」と称賛していたり、マイクロソフトCEO兼会長のサティア・ナデラ氏が「AIはあらゆるソフトウェアカテゴリを根本的に変えるでしょう」と率直に語っていたりと、注目が集まっています。Microsoftは2023年2月にChatGPTのアップグレード版AIを統合した新しい検索エンジン「Bing」およびブラウザの「Edge」を発表しており、ナデラ氏は「MicrosoftはAIでGoogle検索を打破できる」という考えを述べています。

MicrosoftがChatGPTのアップグレード版AIを統合した新しい検索エンジンBingとブラウザEdgeを発表 – GIGAZINE


Googleや中国企業がChatGPTに対抗して対話型AIに取り組んでいますが、ChatGPTはオープンソースのプレトレーニングウェイトも低コストの完全なオープンソーストレーニングプロセスも公開しておらず、1000億個のパラメータモデルに基づいてChatGPTの全プロセスを効率的に複製することは困難と考えられています。大規模なニューラルネットワークの分析によりディープラーニング機能を加速しコストを削減することを目的とするHPC-AI Techによると、ChatGPTの驚くべき特徴は「トレーニングプロセスにヒューマンフィードバック強化学習(RLHF)を導入して、人間の好みをより適切に捉える」という点にあり、トレーニングプロセスの最後にさらにトレーニングを行うことで、言語モデルが人間の好みにより近いコンテンツを生成するようになっています。


ChatGPTは強化学習を導入していることからトレーニング中に複数の推論モデルを実行しており、ChatGPTのベースとなったInstructGPTの論文では、アクターモデル教師あり学習の微調整モデルはともに1750億パラメータのGPT-3系列モデルを使用していたり、また別のモデルでは60億パラメータのGPT-3系列モデルを使っていたりと、モデルパラメータが非常に多いため、ChatGPTトレーニングプロセスを開始するには数千ギガバイトのGPUメモリが必要になります。

HPC-AI Techが開発したColossal-AIは、ChatGPTにおけるステージ1の事前トレーニング、ステージ2の報酬モデルトレーニング、ステージ3の強化学習トレーニングといった複雑な段階を含む、ChatGPTトレーニングのプロセスをオープンソースの方法で複製したと報告しています。Pythonのオープンソース機械学習ライブラリであるPyTorchと比較して、Colossal-AIは単一サーバートレーニングでは最大 7.73倍、単一GPU推論では1.42倍高速になり、大規模な並列処理への拡張を継続し、ChatGPTレプリケーションのコストを大幅に削減したことが記録されています。


また、Colossal-AIは単一のGPUで試すことができるChatGPTトレーニングプロセスも提供しており、トレーニングコストを最小限に抑えています。HPC-AI Techによると、PyTorchが80ギガバイトのGPUメモリで最大7億8000万のパラメータモデルしか起動できない一方で、Colossal-AIは単一のコンシューマレベルのGPUで満たすことができる最小1.62ギガバイトのGPUメモリで1億2000万のパラメータを満たすことができるとのこと。加えて、事前トレーニング済みの大規模モデルに基づくことで、微調整タスクのコストを削減し、微調整モデルの容量を単一のGPUで、PyTorchと比較して最大3.7倍増やすことができるそうです。

HPC-AI Techはすぐに使用できるColossal-AIのChatGPTトレーニングコードを公開しています。HPC-AI TechはChatGPT実装プロセスを複製するために完全なアルゴリズムおよびソフトウェア設計をオープンソース化したことで、大規模な計算能力を持つ少数の大手テクノロジー企業のみが所有していた事前トレーニング済みモデルをオープンソースコミュニティで成功させ、Colossal-AIをベースにエコシステムを構築し、ChatGPTの複製を出発点としてビッグAIモデルの時代に向けて努力していく旨を表明しています。


この記事のタイトルとURLをコピーする

・関連記事
GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表 – GIGAZINE

Google社員は「Bard」の性急すぎる発表に不満を抱いている – GIGAZINE

中国企業が続々とChatGPTっぽいスタイルの製品を開発中 – GIGAZINE

ChatGPTは何をしていてなぜ機能するのか?を理論物理学者が解説 – GIGAZINE

ChatGPTが「月間1億ユーザー」をわずか2カ月で達成し史上最も急速に成長していることが報告される – GIGAZINE

MicrosoftがChatGPTのアップグレード版AIを統合した新しい検索エンジンBingとブラウザEdgeを発表 – GIGAZINE

「MicrosoftはAIでGoogle検索を打破できる」と考えるサティア・ナデラCEOがインタビューで理由を説明 – GIGAZINE

・関連コンテンツ

2023年02月24日 08時00分00秒 in ネットサービス, Posted by log1e_dh

You can read the machine translated English article here.

Source

タイトルとURLをコピーしました