WWDC25で発表されたApple Intelligenceの新機能|iPhoneがさらに賢くなる15の進化

WWDC25で発表されたApple Intelligenceの新機能|iPhoneがさらに賢くなる15の進化

あなたのiPhoneは、毎日使っているのにまだまだ活用しきれていない機能があると感じませんか?AppleがWWDC25で発表したApple Intelligenceの新機能は、私たちの日常をもっと便利で効率的にしてくれる可能性を秘めています。

この記事では、発表されたばかりのApple Intelligence新機能を詳しく解説し、あなたの生活がどう変わるのかを具体的にお伝えします。

Apple Intelligenceは日本語に対応

これまで英語圏のユーザーのみが利用できていたApple Intelligenceですが、日本語を含む20言語で利用可能になります。

対応言語には、日本語のほか中国語(簡体字・繁体字)、韓国語、フランス語、ドイツ語、イタリア語、スペイン語など、私たち日本人が普段接する機会の多い言語が含まれています。これにより、海外旅行や外国語学習の場面でも活用しやすくなりそうです。

特に注目したいのは、これらの機能の多くがiPhone上で直接処理される点です。つまり、インターネット接続がない環境でも利用できるということになります。

より賢くなったAIモデル

Appleは今回、オンデバイス(iPhone内)で動作するモデルとクラウドベースのモデルの両方を大幅に改善しました。

iPhone内で動作するモデルは約30億パラメータを持ち、AlibabaやGoogleの同程度の大きさのモデルと同等以上の性能を発揮します。一方、クラウドベースのモデルについては、OpenAIのGPT-4oやMetaのLLaMA 4 Scoutには及ばないものの、かなり近いレベルまで性能が向上しています。

この性能向上により、より自然で正確な文章生成や要約、翻訳が可能になりました。私たちが日常的に使うシーンで、その違いを実感できるはずです。

開発者向けの新フレームワーク

今回特に興味深いのは、Apple独自のFoundation Models Frameworkの提供開始です。これにより、アプリ開発者はAppleのAIモデルを直接活用できるようになります。

具体例として、Kahoot!では試験勉強用に個人的なクイズを自動生成したり、AllTrailsでは「のんびりできるハイキングコースを教えて」といった自然な質問に答えられるようになります。

これらの機能はすべてiPhone内で処理されるため、開発者にとってはクラウドAPIのコストを気にする必要がなく、ユーザーにとってはオフライン環境でも利用できるというメリットがあります。

音声認識機能の大幅強化

新しい音声認識機能は、特に仕事や学習の場面で大きな威力を発揮しそうです。ビデオ会議アプリやポッドキャストプレーヤーなど、様々なアプリが高精度な音声認識機能を組み込めるようになります。

初期テストでは、OpenAIのWhisperよりも高速な処理を実現しており、精度も十分実用的なレベルに達しています。ただし、ローンチ時点では英語のみの対応となるため、日本語対応は今後のアップデートを待つ必要があります。

リアルタイム翻訳で言語の壁を越える

最も実用的で魅力的な新機能の一つが、リアルタイム翻訳機能です。この機能は3つの場面で活用できます。

メッセージアプリでは、外国語で送られてきたメッセージを自動で翻訳提案し、こちらからの返信も相手の言語に翻訳して送信できます。グループメッセージでも機能するため、多国籍なグループでのやり取りがスムーズになります。

FaceTimeでは、リアルタイム字幕機能により、相手の話している内容をその場で翻訳表示します。相手の声はそのまま聞こえるため、自然な会話の流れを保ちながら内容を理解できます。

電話機能でも同様に、通話相手の言葉をリアルタイムで翻訳し、音声として聞くことができます。スピーカーモードなら文字での確認も可能です。

これらの機能はすべてiPhone内で処理されるため、通信環境を気にせず利用できるのも大きな利点です。

日常的なタスクが楽になる新機能

ボイスメール要約で効率アップ

留守番電話メッセージの自動要約機能により、長いメッセージの内容を短時間で把握できるようになります。不在着信の一覧で各メッセージの要約が表示されるため、どの電話に優先的に返答すべきかを素早く判断できます。

メッセージアプリの進化

メッセージアプリには新しく投票機能が追加され、会話の文脈に基づいてApple Intelligenceが適切な投票項目を自動提案します。また、検索機能も強化され、正確な文言を覚えていなくても自然な言葉で過去の会話を見つけられるようになります。

より表現豊かなGenmoji

これまでテキストでの指示のみだったGenmojiの作成が、既存の絵文字同士を組み合わせて新しいものを作ったり、絵文字とテキストを混合したりできるようになります。

連絡先の人物や写真ライブラリの顔を基にGenmojiを作成する際は、表情や髪型、ひげなどの調整も可能になり、より個性的な表現ができます。

Image PlaygroundとChatGPTの連携

Image PlaygroundにChatGPTが統合され、オイルペイントや水彩画といったプリセットスタイルを選択したり、より詳細な指示でAIに画像生成を依頼できるようになります。

Genmojiも直接Image Playground内で作成できるようになり、画像生成とオリジナル絵文字作成の境界がより曖昧になります。

Shortcutsアプリでワークフロー自動化

ShortcutsアプリにもApple Intelligenceが統合され、文章要約やImage Playgroundを活用した画像生成を組み込んだ自動化ワークフローを作成できます。

新しく追加される「Use Model」アクションでは、Appleのオンデバイスモデルやサーバーベースモデル、さらにはChatGPTに直接アクセスして、より高度な推論や言語理解を自動化に組み込めます。

リマインダーアプリの賢い提案機能

リマインダーアプリでは、メールやウェブサイト、メモから直接テキストを共有すると、Apple Intelligenceが自動的にタスクを提案したり、レシピのスクリーンショットから買い物リストを生成したりできます。

また、リマインダーの自動分類機能により、「仕事」や「用事」といったセクションに自動的に整理され、一括管理や整理がより簡単になります。

Visual Intelligenceの実用的な進化

これまでカメラで周囲の情報を取得することに焦点を当てていたVisual Intelligenceが、スクリーンショットベースの操作にも対応しました。

GoogleやEtsyなどのサードパーティアプリとも連携し、スクリーンショット内の特定のオブジェクトを直接検索できます。さらに、イベント招待のスクリーンショットから自動的にカレンダーイベントの作成を提案するなど、文脈を理解した賢い提案も行います。

ウォレットとApple Watchの新機能

ウォレットアプリでは、Apple Pay以外の注文も含めた配送追跡情報を自動で収集・整理できるようになります。販売者や配送業者からのメールを自動的に解析し、注文詳細や配送状況を一箇所にまとめて表示します。

Apple Watch向けの新機能として、ワークアウト中にApple Intelligenceがあなたの過去のフィットネスデータと比較して、リアルタイムで励ましのメッセージやマイルストーン通知を提供します。Apple Fitness+トレーナーの音声データを使用したテキスト読み上げにより、より自然で効果的なコーチング体験が可能になります。

まとめ

今回WWDC25で発表されたApple Intelligenceの数々の新機能を見ていくと、Appleが目指しているのは、単に高機能なAIではなく、私たちのプライバシーを守りながら、日々の生活に自然に溶け込み、一人ひとりに寄り添ってくれる「賢いパートナー」のような存在なのだと感じます。

言葉の壁を取り払い、面倒な作業を肩代わりし、創造性を刺激し、そして健康維持までサポートしてくれる。
そんな未来が、もうすぐそこまで来ています。

この秋に予定されている正式リリースを楽しみに待ちながら、新しいiPhoneやApple Watchでどんなことができるようになるのか、今から想像を膨らませてみるのも楽しい時間かもしれませんね。

(Via 9to5Mac.)


LEAVE A REPLY

*
*
* (公開されません)