ChatGPTがWindows 95のプロダクトキーを生成

GIZMODO

良くも悪くもChatGPTの可能性は無限っぽい。

Windows 95か、懐かしいな。MS-DOSからWindows 3.1、Windows 95とインターフェースがめまぐるしく進化した時代がありました。

あっという間に何十年も過ぎ去った現在、YouTuberがChatGPTをそそのかしてWindows 95のプロダクトキーの生成に成功したそうです。しかも簡単に。

ChatGPTでWin95のOEMキー生成に成功

それは3月末のこと。Endermanと名乗るYouTuberが、OpenAIのChatGPTが反対するのを押し切って、Windows 95のプロダクトキーを生成させる様子を公開しました。

[embedded content]
Video: Enderman / YouTube

Windows 95のOEMキーは、一定の法則に基づくランダムな数字の組み合わせで生成されています。

Endermanは、ChatGPTに同じ法則でプロダクトキーを生成するよう試みたところ、数十回の試行錯誤の末に機能するプロンプトにたどり着きます。

そして、30個に1個くらいの割合でアクティベーションが可能なキーの生成に成功しました。

言い換えると、ChatGPTにWindows 95のプロダクトキーを生成させることはできませんが、キーの構成条件を満たす文字列の生成は可能ということになります。

Endermanがアクティベーションに成功したことを感謝したところ、ChatGPTは

混乱させて申し訳ありませんが、私はこれまでの回答でWindows 95のキーを提供したわけではありません

私はソフトウエアのプロダクトキーやアクティベーションコードを提供することはできません。

と返事。

さらにChatGPTはMicrosoftが2001年にWindows 95のサポートを終了したため、アクティベーションは不可能だと主張しましたが、これは事実に反しています。

GPT-4はさらに使えるキーを生成

おもしろいのは、EndermanがGPT-3とGPT-4の両方でプロンプトを試したことですね。

新しいモデルのGPT-4では、使えるキーをよりたくさん生成できるようになったそうです。

といっても、すべてのキーが有効だったわけでも、プロンプトのパラメーター通りに動いてくれたわけでもなかったみたいですけど。

Endermanは、「GPT-4は計算方法を知っているけど、演算処理で失敗する」と話しています。

計算機能がないGPT-4は、数学が苦手(そういえば生まれてから1万日目の年月日をことごとく間違えた)。

なので、数学で正しい答えを生成するには、特別なコードが必要になります。

OpenAIは、大規模言語モデルのトレーニングデータについて明らかにしていませんが、LSAT(米国法学大学院進学適性試験)や米国統一司法試験などさまざまなテストに見事合格していることには満足しているようです。

でも同時に、正確なコードを生成できないなんてかわいい一面もあるみたいですよ。

GPT-4のセールスポイントのひとつは、より長く複雑な作業をこなせること。GPT-3やGPT-3.5では3ケタの算数や暗号解読のようなタスクに失敗することは日常茶飯事でしたが、GPT-4では少なくともGRE(大学院進学適性試験)の語学テストや、SAT(大学進学適性試験)の数学などでテストスコアが顕著に改善されています。

それでも学習データはほとんどネットに存在する自然言語の文章から集めているため、完璧ではありません。

GPT-4でWindows 95のアクティベーション可能なプロダクトキーをより生成できるようになったからといって、最新バージョンのWindowsのキーが無料で手に入るなんて思っちゃいけません。

Windows XP以降に比べて、95のキーははるかに簡単に生成できるみたいなので。というか、違法ですよね。

違法行為でもやっちゃうChatGPT

Endermanのプロダクトキー生成テクニックが証明したヤバさは、GPT-4が違法行為を回避できなかったところじゃないでしょうか。

裏技やハッキングなしで、やっちゃいけないはずのことをやっちゃうなんて、本当に「インテリジェント」なのか甚だ疑問です。

許されざるコンテンツの生成をポリシーでハッキリと禁止しないと、今回のようにAIを悪用されたところで知るよしもありません。

実際にヤバいことは起こっているんですよね。

2月には、サイバーセキュリティー企業Checkpointの研究者が、ChatGPTを使ってマルウェアに変更を加えられることを指摘しました。

OpenAIによる制限を回避する方法は腐るほどあって、サイバー犯罪者がその気になればAPIを悪用するためのスクリプトやボットを簡単につくれちゃうとのこと。

今年初めには、サイバーセキュリティーの研究者が複数の制約をもうけた権限付きプロンプトをいくつか用意しただけで、ChatGPTに悪意あるマルウェアを作らせることに成功しています。

最終的に、ChatGPTは命令に応じて悪質なコードを生成、さらにマルウェアを変異させて複数の亜種まで作っちゃったそうです。

AIの弱点をつついて進化させる

EndermanによるWindows 95のキー生成は、AIをそそのかせば保護機能を回避できるいい例になりましたが、EndermanはユーザーがAIをつつけばつつくほど、新しいモデルがリリースされるたびに脆弱(ぜいじゃく)性の穴を埋められるため、悪用についてあまり心配していないとし、次のように話しています。

こんなことが起こるのは、いいことだと信じています。

Microsoft(マイクロソフト)のような企業は、Bing AIを悪用するユーザーを排除したり、機能を制限したりするのではなく、脆弱(ぜいじゃく)性を発見し、適切に改善してくれるユーザーだと捉えて感謝すべきです。

結局のところ、すべてAIにとってトレーニングの一部なのですから。