Apple IntelligenceはWWDC25で後回しにされるかもしれない

Apple IntelligenceはWWDC25で後回しにされるかもしれない

  • Oligur
  • 0
  • vyzf
Apple IntelligenceはWWDC25で後回しにされるかもしれない
  • ニュース
WWDC25におけるApple Intelligence
WWDC25は昨年ほどAppleの知性にあふれたものにはならないだろう。
画像:Apple/D. Griffin Jones/Cult of Mac

Appleは、昨年の開発者会議ほど多くのApple Intelligence機能をWWDC25で発表する予定はありません。しかし、Apple Intelligenceによって生成されるショートカットの自動化、開発者向けのApple Intelligence API、AIを活用した健康に関するヒントなど、いくつかの新しいAI機能がリリースされる予定です。Appleの基盤言語モデル自体も改良され、現在4つの異なるサイズのバージョンがテストされています。

来週月曜日の WWDC25 基調講演で Apple Intelligence に何が期待できるかをご紹介します。

Apple IntelligenceはWWDC25では大きな焦点ではないかもしれない

Apple Intelligence was announced by Craig Federighi, SVP of software engineering
Apple IntelligenceはWWDC24の重要な部分でした。
写真:Apple

Appleは昨年のWWDC24で、「Apple Intelligence」というブランド名でAI機能スイートを発表しました。Appleは、誰でも使えると謳う実用的な機能によって、熾烈な競争と激しい議論の的となっているAI分野に参入しました。

しかし、AppleはWriting Tools、Image Playground、Genmoji、Visual Intelligenceなどを発表した後、過去12ヶ月の大半をiOS 18.1、18.2、18.3、18.4へのこれらの機能の実装に費やしました。また、Siriをよりスマートにする主要プロジェクトは依然として遅延しており、3月に経営陣の刷新に至りました。

Apple のエンジニアは昨年の大半を初期の Apple Intelligence 機能の完成と出荷に費やしたため、今年のアップデートの大きな新しい AI 機能に集中する時間がなかった。

そうなると、今年の基調講演は目玉となるセグメントがなくなってしまう可能性があります。WWDC23とWWDC24の基調講演では、それぞれVision ProとApple Intelligenceの紹介に約40分が費やされましたが、WWDC25では、新機能とその他の継続的な改善点がいくつか発表される程度で、通常通りの内容になると思われます。

では、今年はどのような Apple Intelligence 機能が期待できるのでしょうか?

Apple Intelligence搭載のショートカット

Settings and Device shortcuts
ショートカットは強力だが、複雑なツールだ。
スクリーンショット:D. Griffin Jones/Cult of Mac

Appleは、デバイス上のアプリを操作するアクションを視覚的に組み合わせて自動化を構築できるアプリ「ショートカット」をApple Intelligenceでアップデートする計画だと報じられています。 ブルームバーグのマーク・ガーマン氏によると、「新バージョンでは、ユーザーはApple Intelligenceのモデルを使ってこれらのアクションを作成できるようになる」とのことです。

ショートカットの作成は、初心者にとっては気が引ける作業であり、経験豊富なユーザーにとっては面倒な作業です。必要な操作を分かりやすい言葉で説明できれば、Appleのインテリジェント機能が自動化してくれるので、大きなメリットになります。

ショートカットを支える基盤APIであるApp Intentsは、Siriがより賢くなり、コマンドを受け取ると即座にユーザーに代わって実行できるようになることも期待されていました。AppleはWWDC24でこの機能を発表しましたが、2025年3月に「来年」に延期されました。つまり、月曜日に再発表される可能性があります。

開発者向けAPI

Animation showing Apple Intelligence on iPhone
Apple Intelligenceは、他のほとんどのAIプラットフォームとは異なり、デバイス上で実行できます。
画像:Apple

iOS 18では、開発者は限られたAPIセットを使ってAppleのWriting ToolsやImage Playgroundをアプリに追加できますが、それ以外はあまり多くの機能が追加されていません。今年の大きな発表は、開発者がApple Foundation Model APIを直接利用できるようになることです。

現在、開発者がアプリに音声文字起こしやテキスト要約などのAI機能を追加したい場合、サードパーティのモデルを使用する必要があります。つまり、AnthropicやOpenAIなどの企業にAPI料金を支払うか、アプリ内に小さなオープンソースモデルを追加する必要があり、品質の低下、アプリサイズの肥大化、パフォーマンスの低下を招く可能性があります。

開発者にApple Intelligenceの利用権限を与えることで、多くのメリットがもたらされます。Apple Intelligenceは主にデバイス上で実行されるため、開発者は法外なコストを支払うことなくAI機能を追加できます。開発者はアプリにサードパーティのモデルを統合する必要はなく、Appleが提供する便利なAPIを利用できるようになります。

これにより、Airbnb、Impulse、Paprika、NetNewsWire など、使用しているサードパーティ アプリの多くが、はるかに低いコストでカスタム AI 機能を構築できるようになります。

AI搭載ヘルスコーチ

Apple builds tech that acts as 'intelligent guardian' for user health
Appleは以前、アプリ内で直接的な健康アドバイスを提供することに躊躇していた。
画像:Apple

Project Mulberryは、ヘルスケアアプリの情報を分析してパーソナライズされた推奨事項を提供するAIコーチの社内コードネームです。Appleは、社内医師のデータを用いてこのAIエージェントをトレーニングしています。Bloombergによると 「このプロジェクトは現在も開発中」で、2026年春にリリースされる予定です。そのため、AppleはWWDC25でこのプロジェクトについて言及しない可能性があります。もしそうであれば、「後日公開」という表現になる可能性が高いでしょう。

AIヘルスは、Appleのヘルスケアアプリの大規模な再設計の一環であると報じられています。Appleはアプリの操作性と理解度を向上させる計画です。また、睡眠、栄養、理学療法、メンタルヘルスといったトピックに関する教育ビデオをアプリ内に追加する可能性もあります。

アップルの基盤モデルは改善している

Apple Intelligence diagram
Apple Intelligenceは、多様な機能を実現できる様々なアダプタを備えた単一の基盤モデル上で動作します。
画像:Apple

ブルームバーグによると 、Appleは基盤モデルの複数の新バージョンをテストしている。「30億、70億、330億、1500億のパラメータを持つバージョンが現在稼働中」とのことだ。最大のモデルは、AppleのクラウドAIサーバーであるプライベートクラウドコンピューティングを介して実行される。

最新の基礎モデルは明らかにOpenAIのモデルの最新バージョンと歩調を合わせているが、ブルームバーグによると、Appleは「幻覚や会社幹部間の哲学の違いに対する懸念」から、ChatGPTのような会話型チャットボットのリリースを拒否している。

しかし、基盤モデルの改善により、Apple Intelligenceの他のすべての機能の品質も向上します。例えば、ライティングツールはより高品質な結果を生み出し、通知はより正確に要約されるようになります。

Siriの機能はまだ開発地獄のまま

Screenshot of prompts to Siri: Play the podcast that my wife sent me the other day Delete my reminder to call Aileen Generate an image of a cat playing piano on the moon Add this photo to the email I drafted to Mayuri and Brian Move this to my Important Tasks list Summarize this email Create a new tab group Add this photo to my Birthday Inspiration Freeform boa Delete my Birthday Ideas tab group
新しく賢くなったSiriに、こんなことを尋ねられるようになります。
画像:Apple

Appleは、悪評高い音声アシスタントを根本から作り直すLLM Siriの開発を続けている。しかし、最近経営陣が交代したため、新バージョンはおそらく年内には完成しないだろう。それでも、ブルームバーグによると、「Siriに会話型インターフェースを最終的に提供したい」とのことだ。

「ナレッジ」と呼ばれる新機能は、ChatGPTのように「オープンウェブからデータを取得できる」ツールです。これは、Siriに尋ねた自由回答形式の質問に対し、オンラインで検索を行い、上位の回答を処理し、見つかった内容の要約を読み上げることで回答してくれる可能性があります。

マイク・ロックウェルが引き継ぐ前にSiriの開発で失敗を経験したロビー・ウォーカーが、Knowledgeの開発を率いています。ブルームバーグは「Siriの全面的刷新を遅らせたのと同じ問題が既にいくつか発生している」と述べています。

その他のAI機能

Code completion and Swift Assist in Xcode
Swift Assistは、コードの作成やリファクタリングを自動化します。
画像: Apple

WWDC25で予定されているApple Intelligenceの機能はこれだけではありません。Bloombergによるとその他のマイナーアップデートには以下のものがあります。

  • Appleは、AIを活用して「傾向を把握し、特定のアプリケーションや機能の電力消費を抑えるタイミングを予測する」新しい低電力モードを導入すると報じられている。これにより、iPhoneのバッテリー寿命が延びるはずだ。
  • 翻訳アプリは、ライブ翻訳のために AirPods と統合される可能性があり、再設計またはブランド変更が行われる可能性があります。
  • Appleは、開発者向けのプログラミングツール「Swift Assist」の開発を継続しています。Swift Assistは、新しい関数の作成やコードのリファクタリングを可能にするものです。Appleは昨年この機能について言及しており、ブルームバーグによると、今年中に「リリース時期について最新情報を提供する予定」とのことです。Apple社内では、エンジニアはAnthropicベースのツールを使用しています。
  • Appleはまた、ソフトウェア開発の難しい部分であるユーザーインターフェースのテスト用に、AIを活用した新しいツールも導入する予定だ。

最後に、少々気が滅入る話だが、ブルームバーグは、Apple が「Safari や写真などのアプリの既存の機能のいくつかをひっそりと「AI 搭載」としてリブランドする」と報じている。おそらく、Apple Intelligence チームが実際よりも生産的であったように見せかけるためだろう。