DeepMindのAI「AlphaCode」が人間のプログラマーと互角になってきた

GIZMODO

人工知能(AI)に秘められた能力の段階的な発達をたどるという話になると、なぜかチェスや囲碁といった昔ながらのボードゲームが持ち出されがちです。その例は挙げればきりがないほどで、つい最近にも、戦略ゲーム「ディプロマシー」をプレイできるAIが話題になりました。しかし、こうした事例で示されるのは、あくまでもAIが現実世界の問題を解く能力の範囲に限られます。

これよりずっといい「力試し」になりそうなのが、AIと人間をプログラミングのコンテストで競わせることです。Alphabet傘下のDeepMindが保有するAIモデルAlphaCodeが、実際にそれに挑みました。その結果、満足できるが飛びぬけてはいないという評価が出ています。「サイエンス」に掲載され、Gizmodoも入手した論文によると、AlphaCodeの総合的な性能は、数カ月から1年程度の訓練を受けた「プログラミング初心者」相当だといいます。この結果の一部は、今年2月にDeepMindによって発表されました。

このテストで、AlphaCodeは「おおむね人間レベルの能力」に達成したとされています。あるコンテストで出題された自然言語問題を初見で解くために、コードの一部を予測し、考えうる答えを数百万通り作成したうえで、それを最大10通りの解法まで絞り込んだのです。研究者によると、そのすべては「コンピューターコードの構造について事前に組み込まれた知識がない」状態で生成されたといいます。

今後に向けた大きな一歩と言える実績

AlphaCodeは、競技プログラミングコンテスト「Codeforces」で過去に出題されたプログラミング課題を解くというシミュレーションに挑み、平均ランキングで上位54.3%に入ると評価されました。1問あたり10通りの解法を生成しましたが、そのうち66%の問題は1つ目の解法で解かれています。

複雑なボードゲームで人間 に勝ったという 、もっと派手なモデルの成果と比べると、この評価にそれほどのインパクトはないかもしれません。しかし、プログラミングコンテストで一定の成績を残すとなると特異な難しさがあると研究者は指摘しています。上位入賞を狙うために、AlphaCodeはまず自然言語で書かれた複雑なプログラミングの問題を理解し初見の問題について「推論」する必要があったからです。コードスニペットをただ記憶しで済むわけではありません。それまでに見たことのない問題を解いたわけであり、研究者によると、コアとなるロジックをトレーニングデータからコピーしただけという形跡はなかったといいます。こうした要因を総合すると、AlphaCodeの実績は「今後に向けた大きな一歩」だ、と研究者は話しています。

「基本的に、AlphaCodeは見たことのないプログラミング課題に対して見事な成績を残したといえる。その問題を『真の意味で』どこまで理解したかは別問題だが」

カーネギーメロン大学ボッシュ人工知能センターのJ. Zico Kolter教授は、この研究に関して「Perspective」の最近の記事でこう記しています。

プログラミングまで想定して開発されているAIモデルはAlphaCodeだけではありません。特に知られている例として、OpenAI改良してオートコンプリート機能を実装した自然言語モデル「GPT-3」がありますが、これはバイアスのかかった出力で話題になりました。GitHubにも、「Copilot」という独自のAIプログラミングツールがあって注目されています。しかし、どちらもコンテストの複雑な問題を相手取って人間と競えるほどの実力を示してはいませんでした。

「人間が問題を洗い出し、解くのはAI」という未来

AI支援のプログラム生成はまだ始まったばかりですが、AlphaCodeの最近の成果は、人間のプログラマーを全面的に支える有用な使い方につながるものだと、DeepMindの研究者は自信を深めています。全般的に生産性が上がるだけでなく、AlphaCodeは「新しい世代の開発者にとってプログラミングをもっと身近なものにする」可能性もあるということです。

さらには、AlphaCodeがいつの日か、プログラミングの世界に文化的な変化をもたらす可能性も秘めていると研究者はいいます。人間は主に問題点を洗い出すことに専念し、AIがそれを解く仕事を担うのです。

ライセンスを無視しているという批判も

その一方、AI分野に対する批判派からは、最新AIモデルの多くが基盤として利用しているコアのトレーニングモデルについて、その有効性を疑問視する声が上がっています。

つい先月には、Matthew Butterickさんというプログラマーが、Microsoftの保有するGitHubに対して初となる訴訟を起こしました。GitHubのAIアシスタントツールであるCopilotは、学習とテストの段階で、ソフトウェアエンジニアから提供されているライセンスをはなはだしく無視している、もしくは排除しているという訴えです。AIモデルのように、他のプログラマーのコードを好き勝手に使うことは、「かつてない規模でのソフトウェアの不正コピー」につながるものだ、とButterickさんは危惧を表明しています。

AI開発者、なかでも人間が書いた過去のコードに基づいてモデルを学習させている開発者が、それぞれのモデルを改良し進歩させる環境の今後に、この訴訟の結果は大きな意味を持ちそうです。

タイトルとURLをコピーしました