Appleが開発中!脳でiPhoneを操作する未来の技術とは

Appleが開発中!脳でiPhoneを操作する未来の技術とは

「手を使わずにスマホを操作できたら良いのに」と思ったことはありませんか?料理中に手が汚れていてもメッセージを送れたら…なんて考えたことがあるかもしれませんね。

実は、Appleがそんな夢のような技術を開発しているんです。今日は、Appleが取り組んでいる「脳でiPhoneを操作する技術」について、わかりやすくお話ししていきたいと思います。

未来のテクノロジーがどう私たちの生活を変えるのでしょうか。

Appleが発表した新しいアクセシビリティ機能

Appleは、今年後半にiPhoneに導入される新しいアクセシビリティ機能のセットを発表しました。「アクセシビリティってなに?」と思った方もいるかもしれませんね。簡単に言うと、障がいのある方や特別なニーズを持つ方々でも使いやすくする機能のことなのです。


この新機能には、App Storeにおける「アクセシビリティ栄養ラベル」や、Mac用の新しい「拡大鏡アプリ」などが含まれています。でも、今回特に注目したいのは、The Wall Street Journalが報じた、もう一つの革新的な技術です。

それは、なんと「脳でiPhoneを操作する」という、まるでSF映画に出てきそうな技術なのです!

脳でiPhoneを操作する?その仕組みとは

「えっ、本当に脳だけでスマホが動かせるの?」と驚いた方も多いのではないでしょうか。この技術、どうやって実現するのかというと、「脳コンピューターインターフェース」(Brain Computer Interface、略してBCI)と呼ばれる装置を使うんです。

Appleは、このBCI技術を活用して、脳からの信号を読み取り、iPhoneやiPad、Mac、さらにはApple Vision Proのインターフェースを選択、制御、操作できるような仕組みを開発しているのです。

具体的に言うと、Synchron(シンクロン)という会社が開発している「Stentrode(ステントロード)」という装置を使います。これは、脳の運動皮質の上にある血管内に埋め込まれるステントのような装置で、電極が脳の信号を読み取ります。

「埋め込む」なんて聞くと少し怖い感じがしますが、実はこの装置、最小限の侵襲性で頸静脈からカテーテルを挿入して埋め込むことができるんです。2019年以降、すでに10人の方々にこの装置が埋め込まれているそうです。

この技術が特に役立つのはどんな人?

「へぇ〜、すごい技術だけど、誰のために開発しているの?」と思った方もいるかもしれませんね。

研究者たちは、StentrodeやNeuralink(ニューラリンク)のような脳コンピューターインターフェースが、筋萎縮性側索硬化症(ALS)などの病気を持つ方々がデバイスを操作する能力を革命的に向上させると考えています。

ALSとは、運動神経が徐々に失われていく病気で、体を思い通りに動かせなくなっていくものです。この病気の方々にとって、脳の信号だけでデバイスを操作できるようになれば、生活の質が大きく向上する可能性があるのです。

実際に使っている人の体験談

The Wall Street Journalの記事では、ピッツバーグ在住のALS患者であるMark Jackson(マーク・ジャクソン)さんの体験が紹介されています。彼はStentrodeの初期テスターの一人なのです。

Jacksonさんは、Appleの仮想現実ヘッドセットをStentrodeインプラントに接続して使用し、スイスアルプスの山の縁から覗き込んで、自分の足が震えるのを感じることができたそうです。実際には立つことができないし、スイスにいるわけでもないのに、です。すごいですね!

彼は、StentrodeインプラントとAppleの様々なオペレーティングシステムの接続のおかげで、iPhone、iPad、Vision Proヘッドセットを制御する方法を学んでいるのです。

ただ、Jacksonさんによると、Synchronの技術は「まだ開発の初期段階」で、いくつかの重要な機能が不足しているとのこと。例えば、カーソルの動きを模倣するサポートがないため、ナビゲーションがかなり遅くなってしまうんだそうです。

iOS 19で導入される新機能

Appleのこの取り組みは、脳コンピューターインターフェースの開発において大きな一歩です。今秋リリース予定のiOS 19とvisionOS 3では、「スイッチコントロール」をサポートする新しいプロトコルを含む、BCIのより広範なサポートが追加されます。

これにより、BCIを使用しているユーザーは、身体を物理的に動かすことなくデバイスを制御できるようになるのです。

また、iOS 19には、話す能力を失うリスクのあるALS患者にとって、もう一つの大きなアップデートが含まれています。2023年のiOS 17では、ユーザーが自分に似た声を作成して保存できる革新的な「パーソナルボイス」機能がデビューしました。

最初のバージョンのパーソナルボイスでは、Appleの機械学習モデルをトレーニングするために、ユーザーが150のフレーズを発声する必要がありました。そして、その声は一晩かけて処理されていました。

iOS 19では、このプロセスが大幅に簡素化されます。わずか10のフレーズを録音するだけで良くなり、処理時間も一晩ではなく1分未満になるそうです。さらに、Appleによると、結果もより滑らかで自然な響きになるとのことです。

この技術が私たちの未来をどう変えるか

「すごい技術だけど、一般の人には関係ない話なのかな?」と思う方もいるかもしれません。でも、実はそうとも言い切れないのです。

この脳でデバイスを操作する技術は、最初はALSなどの病気を持つ方々のためのものですが、将来的には私たち一般のユーザーにも広がる可能性があります。

例えば、料理中や運転中など、手が塞がっている時にも簡単にメッセージを送ったり、音楽を変えたりできるようになるかもしれません。また、より直感的な操作が可能になれば、テクノロジーの使いやすさが格段に向上するでしょう。

さらに、仮想現実や拡張現実の世界では、思考だけで環境を操作できるようになる可能性も秘めています。「思ったことがそのまま実現する」という、まさに魔法のような体験が現実になるかもしれないのです。

まとめ

Appleが開発中の脳でiPhoneを操作する技術は、まだ初期段階にあり、現時点では主にALSなどの病気を持つ方々のためのものです。
しかし、この技術には私たち全員の生活を変える可能性があります。

iOS 19とvisionOS 3では、BCIのサポートが強化され、パーソナルボイス機能も大幅に改善されます。
Appleはアクセシビリティの向上に力を入れており、それが革新的な技術開発につながっているのです。

テクノロジーの進化は日々加速していますが、Appleのように、その進化を「すべての人のため」に活かそうとする姿勢は素晴らしいですね。
まだ実用化までには時間がかかるかもしれませんが、数年後には「脳で操作する」ことが当たり前になっているかもしれないですね。

(Via 9to5Mac.)


LEAVE A REPLY

*
*
* (公開されません)