Apple自社開発のAIと、ChatGPTが融合。
AppleがOpenAIとのパートナーシップを発表し、iPhoneにChatGPTが組み込まれることが判明しました。というかiPhoneだけじゃなく、iPadやMacなど、Apple製品全体に「Apple Intelligence」が搭載され、その機能の一貫としてChatGPTも統合されていきます。
ChatGPTの開発元・OpenAIのサム・アルトマンCEOも「みんなすごく気に入ると思う」とポスト。
very happy to be partnering with apple to integrate chatgpt into their devices later this year!
think you will really like it.
— Sam Altman (@sama) June 10, 2024
Appleは今までOpenAIとGoogleそれぞれと交渉し、どっちのAIをApple製品に組み込むか検討したと言われています。結果、ChatGPTが登場してまだ2年弱ですが、AppleはOpenAIの技術を採用したんですね。今年の最新iPhone、iPad、Macからは、ChatGPT 4 Omniが使えて、Siriからもアクセスできます。
何でもかんでもChatGPTで処理するわけじゃなくて、まずはApple Intelligenceがほとんどのタスクをオンデバイスで処理し、複雑なタスクだけChatGPTのいるクラウドへ、という流れのようです。
Siriが息を吹き返す、か
AppleのAIアップグレードのカギになったのが、Siriでした。今やほとんど忘れられそうだったSiriですが、今回Appleは、SiriこそiPhoneを使うメインの入り口になりうると主張してるのです。
Appleいわく、Siriは今後マルチモーダルに、つまりテキストでも音声でも話しかけたり、答えたりが可能になります。画面上で何が起きてるかを聞くこともできます。またアップグレードされたSiriは、メッセージアプリなどのカジュアルな会話からユーザーの予定をピックアップし、それをトラッキングすることも可能です。
こちらのポストからは、Siriがユーザーのメールから飛行機の旅程情報を取り出し、リアルタイムの運行状況と突き合わせてくれることや、テキストメッセージからランチの約束を抜き出してくれることがわかります。
従来ならまずメールアプリを開いて旅程を検索、フライトナンバーを確認してWebブラウザや他のアプリで運行状況確認…と、複数のアプリを開いて手動で操作していたことを、Siriに聞くだけで把握できるんですね。
How the New Siri with Apple Intelligence will make things easier IN ACTION. 👀 #WWDC24pic.twitter.com/WYmTTtBqe5
— Brian Tong (@briantong) June 10, 2024
また、Siriに難しいことを聞くと、「ChatGPTを使いますか?」と聞き返され、使うかどうかはユーザーが決められます。ChatGPTを使うことを承認すると、Siriに聞いたプロンプトがChatGPTのサービスに引き継がれ、回答がデバイス上でネイティブに表示されます。ChatGPTは、デバイス上での文章作成や画像生成にも統合されています。Appleによれば、Apple製品からChatGPTへのアクセスは誰でも無料でできますが、ChatGPTの有料機能にサブスクライブしてる人は、そのアカウントをApple製品にリンクできます。
一番大胆な進化は、Siriがユーザーに代わってiPhoneを操作し、何らかのアクションをアプリ横断でできるようになることです。たとえば、Siriに「カメラの向きを反対にして」とか「妻がこの前送ってきたポッドキャストを再生して」といったことを頼めるそうです。Appleいわく、Siriはこれからより多くのアプリでアクションが可能になります。これはAIの未踏領域ですが、たしかにSiriがはるかに便利になりそうです。実際に動くところを見るまでは断言できませんが、このことでAppleは「アクションベースの生成AI」という新領域のリーダーになりつつある、のかもしれません。
将来的には他社のAIも追加?
ChatGPTは、Apple製品のデフォルトAIという栄光をつかんだわけですが、今日Appleは「将来的には他のAIモデルへのサポートも追加するつもり」だと言ってました。つまり先々は、GoogleのGeminiとかAnthropicのClaude、はたまた何らかのオープンソースのAIモデルもApple製品に加わっていき、OpenAIとのパートナーシップは独占的じゃなくなるのかもしれません。
Appleはまた、自社開発のAI機能もいろいろ発表しました。たとえば生成AIによる絵文字、名付けて「Genmoji(ジェンモジ)」とか、重要なメッセージの優先表示とか、グループチャットやWebページの要約機能、とかとかです。
AppleとOpenAIの間でお金のやりとりがどうなってるかは、公表されていません。Googleは今まで、Apple製品のデフォルト検索エンジンとして搭載されるために何百億ドルもAppleに支払ってきたんですが、OpenAIはどうなんでしょうか。ただOpenAIの場合、iPhoneをはじめとするApple製品からの膨大なリクエストに対応すべく、インフラを増強するための投資が必要そうです。仮にAppleがOpenAIにお金を払う契約だとしたら、OpenAIに投資してきたMicrosoftも、やっと恩恵を受けられるのかもしれません。
今日発表されたAI機能はまだ使える状態じゃないし、リリースされた後でも、多くの機能は最新のハードウェアを必要とします。なので、古いiPhoneを使ってる人が新しいAI機能を使いたければ、買い替えざるをえなくなりそうです。
今回Appleが発表した機能は、AI系もそれ以外も徐々にロールアウトしていくので、本当に使えるのかどうか見極めには時間が必要です。AI機能に関してはAppleも他社も大風呂敷広げがちで、実際はガッカリみたいなこともよくあるので、今回はどうなのか、見守っていきたいです。