2026年1月12日、AppleとGoogleは画期的な提携を発表しました。Google Geminiが、よりパーソナライズされたSiriだけでなく、今後のApple Intelligence機能の幅広い領域をサポートしていくことが明らかになりました。
「AppleとGoogleは複数年にわたる協業契約を締結し、次世代のApple Foundation ModelsはGoogleのGeminiモデルとクラウドテクノロジーを基盤として開発されます」と両社は共同声明で発表しました。「これらのモデルは、今年登場予定のよりパーソナライズされたSiriを含む、将来のApple Intelligence機能の動力源となります。」
Appleはこのパートナーシップによって「革新的な新体験」が実現することに期待を寄せていますが、具体的な機能の詳細については明らかにされていません。
現時点では、GeminiがWriting Tools(文章作成ツール)、Image Playground(画像生成)、Notification Summaries(通知要約)などの既存のApple Intelligence機能をサポートするかどうかは不明です。
プライバシー重視の姿勢は継続
Apple Intelligenceは引き続きAppleデバイス上およびAppleのPrivate Cloud Computeサーバー上で動作し、業界をリードするプライバシー基準を維持することが約束されています。
よりパーソナライズされたSiriは、長い遅延を経て、2026年3月か4月にiOS 26.4で導入される見込みです。新機能には、ユーザーの個人的なコンテキストのより深い理解、画面上の認識能力、アプリごとのより詳細な制御などが含まれます。例えば、Appleはユーザーが母親のフライトや、MailやMessagesアプリからの情報に基づくランチの予約計画についてSiriに尋ねる例を示しました。
GoogleのXアカウント「News from Google」も同日、「AppleとGoogleは複数年にわたる協業契約を締結し、次世代のApple Foundation ModelsはGoogleのGeminiモデルとクラウドテクノロジーを基盤として開発されます。これらのモデルは将来のApple Intelligence機能の動力源となり、よりパーソナライズされた…」と投稿しています。
まとめ
AppleとGoogleの今回の提携は、単なるSiriの機能強化にとどまらず、Apple Intelligenceのエコシステム全体に影響を与える可能性があります。両社の強みを組み合わせることで、AIの性能とプライバシー保護の両立という課題に対する新たなアプローチが実現するかもしれません。今後の具体的な機能発表に注目が集まります。
Source: Macrumors



