
Appleが新しいソフトウェア機能とVision Proの詳細を発表
- Oligur
- 0
- vyzf

本日のプラットフォームの State of the Union で、Apple はソフトウェアのアップデートについてさらに詳しく説明しました。iOS、iPadOS、そして macOS デスクトップ向けのインタラクティブ ウィジェット、watchOS の大きなアップデート、そして Apple の新しい Vision Pro で実行されるオペレーティング システムである visionOS の導入などです。
AppleがKeynoteのメインでは紹介しなかった、開発者が活用できる新機能が多数あります。これまでに、アプリ内カメラの改良、標準のヒントバルーン、SwiftUIでのアニメーション作成の簡素化などが紹介されています。
SwiftとSwiftUIの新機能
SwiftとC++は相互運用可能になりました。コードに簡単なフラグを追加するだけで、開発者は既存のC++コードをSwiftプロジェクトに組み込むことができ、大規模なクロスプラットフォームプロジェクトのオーバーヘッドを大幅に削減できます。
すべてのプラットフォームに新しく追加された機能は Swift Macros です。これは、完全な API を実装するよりも軽量かつ簡単に機能を追加できる方法です。
SwiftUIでは、アニメーションに重点が置かれています。アニメーションは簡単に実装できます。開発者はアニメーションのキーフレームを指定し、デバイスがキーフレーム間でアニメーションを補間できるようにします。アニメーションは自由に中断できるため、ユーザーインターフェースとスムーズに連携します。Appleが提供する標準アイコンの大規模なライブラリであるSF Symbolsも、アニメーション化されました。

写真:Apple
SwiftDataは、新しいマクロシステムを基盤として、CoreDataに代わる新しいAPIです。開発者は、高速かつエネルギー効率の高い方法でデータを容易にスケーリングできます。ネイティブのiCloud同期により、アプリ内の基盤データの更新は、競合や更新といったあらゆるエッジケースをシームレスかつスムーズに回避しながら、データの保存と復元を容易に行うことができます。
ウィジェットがアップグレード

写真:Apple
ウィジェットがiOS、iPadOS、macOSでインタラクティブになりました。iPadのロック画面、iPhoneのスタンバイ画面、macOSのデスクトップなど、より多くの場所に表示できるようになりました。
アプリはSwiftUIでビューを生成し、システムによってアーカイブされ、ユーザーが後で表示したときに実行されるように保存されます。ウィジェットの動作にはアプリ全体を実行する必要がないため、インタラクティブなウィジェットを実行してもバッテリー消費は抑えられます。ウィジェットとそのすべてのインタラクションは、Continuityを使用してiPhone専用アプリのウィジェットをMacに持ち込むことができます。
役立つヒントでアプリの仕組みを説明します

写真:Apple
アプリの中には、ボタンや機能の複雑なユーザーインターフェースでユーザーを難解な世界に引きずり込むものもあれば、煩わしいほど長い導入プロセスを経なければならないものもあります。TipKitは、開発者が追加できるフレームワークで、アプリの仕組みをより分かりやすく説明してくれます。そして何より、使い慣れたヒントで操作が遅くなることはありません!
カメラの改良

写真:Apple
カメラの改良により、シャッターラグが短縮され、他のアプリでも音量ボタンを使って写真撮影ができるようになります。また、システム全体で新しいISO規格が採用され、他のアプリ内でHDR写真を表示できるようになり、完全なHDRワークフローがまもなく実現します。
iPadでは、あらゆるUSBカメラが使えるようになりました。Apple TVでは、外部カメラとマイクを使って、連携カメラ機能を使ってFaceTime通話を大画面で楽しめます。
watchOS 10の「大幅なデザイン刷新」は簡単に導入できる

写真: Apple
watchOSシステムエクスペリエンス担当シニアマネージャーのロリ・ハイラン=チョ氏は、Apple Watchに予定されている大きな変更点について説明しました。「今年のwatchOS 10では、デザインが大幅に刷新されます」と彼女は述べました。SwiftUIは、このデザイン刷新の大部分を支えており、「よりダイナミックで、よりカラフルで、より見やすい」ものとなっています。
縦型タブビューでは、アイテムのリストをスクロールして表示できます。各アイテム自体も、画像、ボタン、テキストをスクロール表示できます。ボタンは画面上部のツールバー内に配置でき、コントロールを画面端まで押し出すことで、限られた画面スペースを最大限に活用できます。
CoreMotionの新しいAPIは、加速度計とジャイロスコープを活用し、ワークアウト中にApple Watchが手首上でどのように動いているかを開発者がより深く理解できるようにします。Appleは基調講演でこれを実演し、ゴルフやテニスの試合分析に活用できることを披露しました。
開発者は、watchOS 10 向けにビルドするときにこれらの機能を自動的に取得します。
新しいアクセシビリティ機能

写真:Apple
アニメーション画像を一時停止すると、ウェブ上およびアプリ内のアニメーションが一時停止されます。これは、動きや点滅する光に吐き気を催すユーザーに役立ちます。開発者は、アニメーション画像の静止バージョンを実装することで、シームレスに見せることができます。
visionOS には多くのアクセシビリティ機能が標準装備されていますが、詳細については後ほど説明します。
アプリのプライバシー
新しい写真ピッカーを使用すると、ライブラリ全体へのアクセスを許可したり、選択した写真を共有する複雑なプロセスを経ることなく、アプリと 1 枚の写真だけを簡単に共有できるようになります。
アプリ プライバシー マニフェストは、開発者が利用できる新しい機能であり、App Store でより透明で正確なアプリ プライバシー ラベルを作成できます。
センシティブコンテンツ分析は、デバイス上で完全に動作するNSFWコンテンツフレームワークです。画像や動画を(プライベートかつ安全な方法で)処理し、センシティブなコンテンツに関する警告を表示することで、ユーザーが見たくないコンテンツから保護します。
開発者向けの新しい舞台裏機能

写真:Apple
StoreKitの新機能により、開発者はApple Watchを含むあらゆるデバイスで、アプリ内に魅力的なサブスクリプションページやアプリ内購入ページを簡単に作成できるようになります。開発者は、SwiftUIのシンプルなコード1行でサブスクリプションストアのビューを作成できます。もちろん、さらに数行追加することで、ダイアログの外観と操作性をカスタマイズすることも可能です。SKAdNetworkは、ユーザーのプライバシーを保護しながら、広告の効果測定など、広告主に有益な情報を提供する開発者を支援します。
Spotlightでアプリを検索すると、アプリ内の機能へのクイックリンクが表示されます。例えば「フリーフォーム」を検索すると、アプリ起動アイコンの横に、新しいボードを作成するボタンが表示されます。これはApp Intentsに追加される新機能の一部です。これにより、Siriを使ってより自然にショートカットを起動できるようになります。
Xcode 15では、コードテストのための機能が拡張されています。新しいインターフェースでは、事前定義されたテストのタイミングに合わせて画面録画が実行されるため、開発者はテスト中にアプリがクラッシュした際に、何が問題なのかを正確に把握できます。
Xcodeのもう一つの大きな改善点は、アプリサイズが50%削減され、すべてのプラットフォームアーキテクチャがオンデマンドで利用できるようになったことです。これは、Macのディスク容量を大量に消費する傾向があるXcodeに必要なストレージ要件に対する画期的な改善です。
Vision Proの開発者ツールと機能の詳細

写真:Apple
テクノロジー開発グループ副社長の Mike Rockwell 氏が、Vision Pro ヘッドセットのアプリの仕組みについて説明しました。
SwiftUI、RealityKit、ARKit はすべて visionOS に拡張されていますが、iOS の従来の UIKit や macOS の AppKit は拡張されていません。
visionOS のアプリには 3 つの基本的な部分があります。
- アプリには 1 つ以上のウィンドウ (2D コンテンツと 3D オブジェクトを組み合わせた SwiftUI シーン) を含めることができます。
- ボリュームとは、ゲームボードや地球儀のように、環境内にインタラクティブに出現するオブジェクトです。ボリュームは空間内を移動させ、あらゆる角度から眺めることができます。
- フル スペースは、ウィンドウとボリュームをそのまま残したまま、現在いる部屋を置き換えるバックグラウンド環境です。
アプリは共有スペースで起動し、そこではアプリ (のウィンドウとボリューム) が無限のキャンバス内で自由に動き回ることができます。

写真:Apple
SwiftUIとUIKitはRealityKit上で動作し、3Dのボリューメトリックなユーザーインターフェースを描画します。ARKitはこれまで通りシームレスに動作し、現実世界の周囲に仮想オブジェクトを配置します。zstackはオブジェクトを重ねるための標準的なユーザーインターフェース要素です。visionOSでは、開発者はこれらのレイヤーにリアルな物理的な奥行きを与え、ボタンやオブジェクトを背景から分離することができます。
ダイナミック・フォービエーションは、視線が焦点を合わせている部分のレンダリングの鮮明度を高め、見づらい部分の画像を縮小することで消費電力を削減します。オブジェクトは周囲の照明に合わせて自動的に照らされるため、どこにいても自然な見え方を実現します。
MaterialX は、グラフィカル シェーダー (照明環境内でのオブジェクトの外観) を作成するためのオープン スタンダードであり、visionOS で完全にサポートされています。
スケルタルハンドトラッキングにより、アプリはユーザーの手と指の位置を明確に把握できるようになります。Vision Proの操作は、通常は指をつまむことで行いますが、アクセシビリティを考慮し、手首をフリックしたり頭を振ったりすることでも操作できます。また、視覚障碍のあるユーザーでもインターフェースを明瞭に確認できるよう、Dynamic Typeにも対応しています。

写真:Apple
Xcodeシミュレータを使えば、MacでVision Proアプリを簡単にテストできます。Vision Proをお持ちなら、さらに高度なテストが可能です。Vision Pro内のフローティングウィンドウでMacを操作することで、アプリの実行と並行してヘッドセット向けの開発を進めることができます。
Reality Composer Pro を使用すると、3D オブジェクトを簡単に操作して外観を編集し、その変更をコードにシームレスに反映することができます。

写真:Apple
Unity エンジンは新しいデバイス上でシームレスに実行されるため、クロスプラットフォーム ゲームを新しいプラットフォームに簡単に移行できます。
カメラへのアクセスを必要とせず、多数のセンサーが環境の詳細な3Dメッシュをアプリに提供します。RealityKitはこれを利用して、空間にリアルな音声を生成します。

写真:Apple
SharePlayとFaceTimeはどちらもVision Proの体験に不可欠です。デバイスは現在、標準的な2次元のFaceTime通話をサポートしていますが、Spatial Personasを使用すると、人物を完全な3Dで表示できます。FaceTime通話中に歩き回ると、まるでその人が部屋の中に3次元の人間であるかのように、相手の頭の側面を見ることができます。Appleはこれをプレリリース機能と説明していましたが、これはまだリリースされていないデバイスなので、少し奇妙に感じます。
さらに 詳しい内容は、今週中に公開される 175 本以上のセッション ビデオで紹介されます。そのうち 40 本はすべて Vision Pro に関するものです。
Related Posts

Appleがテレビを作らない理由
You may also like

テルテールの新しいエピソード型バットマンゲームが来月iOSに登場

Twitterがモバイル端末で大規模なデザイン変更を実施

1983年の貴重なプロモーションビデオで、初代Macintoshの開発者が称賛

中国の模倣品はナノに似ているが、はるかに多くの機能を持つ

AppleはApp Storeを悩ませているクラッシュ問題の修正に取り組んでいる

Apple WatchのWristcamのライブビデオメッセージで電話なしでも楽しめる
