山田祥平のRe:config.sys

現実世界を拡張するまなざしと聴覚

 メタバースが日常を逸脱した特別な世界を、道具を使って人間に強いるのであれば、近い将来の浸透は難しいだろうなと思っていた。だが、デバイスの進化は、そんな心配をよそに、いろいろなアプローチにチャレンジしているようだ。

聴覚の拡張は半世紀前から

 個人的に、メタバースでは聴覚の拡張が現実的なポイントではないかと思っている。それはすなわち、日常環境音の拡張だ。視覚拡張についてはいわゆる拡張現実の一般的な例として、ARとして知られているが、なぜか、音については、本当に大事なのに中途半端な印象がある。

 どんなかたちであるにせよ、特別な視覚を持ち歩くのはたいへんだ。メガネというのはうっとうしい。でも、聴覚なら大丈夫かと思う。そして、聴覚なら、MR(複合現実)も容易だ。

 聴覚を拡張するデバイスとしてのイヤフォン/ヘッドフォンは、この数年の間に飛躍的な進化を遂げた。完全ワイヤレスイヤフォンはその筆頭で、ケーブルという呪縛から人間を解放した。ノイズキャンセル機能も飛躍的に進化したし、また、(軟)骨伝導イヤフォンは耳穴に異物を入れているという不快感をなくした。

 個人的な感想だが、かつて、初代ウォークマンが発売された1979年、同梱されていたヘッドフォンで音楽を聴き、これこそが、音楽を身にまとう感覚だと感じたのを思い出す。

 実は、オープンエア型のヘッドフォンを使うのはそれが初めてだったのだ。それまで使ったことのあったヘッドフォンは密閉型のものばかりで、邪魔なノイズを物理的に遮断し、音楽などのサウンドに没頭するためのものだった。今の流行言葉で言えばイマーシブだ。

 でも、ウォークマンに同梱されていたヘッドフォンは、オープンエア型で、ある程度は周りの音が聞こえたし、何より解放的な音がした。耳を攻撃しなかった。それが音楽を身にまとうイメージにぴったりだったのだ。

 たぶん、今の世の中に続々と登場している完全ワイヤレスのイヤフォンは、あれからほぼ半世紀たった今の、サウンドの新しき身にまとい方なのだろう。

 かつてのウォークマンには2つのヘッドフォンジャックがあって、カップルなどの2人が1台のウォークマンにそれぞれ個々の2台のヘッドフォンをつないで再生サウンドを共有することができた。

 そして、2人の会話のためにオレンジ色のホットラインボタンが装備されていて、それを押せば、ヘッドフォンを経由した会話ができた。

 まあ、これがほぼ半世紀前のメタバースにおける恋人たちのコミュニケーションだったというわけだ。ウォークマンにヘッドフォンジャックが2つついていたのは、今にして思えば、すごい発想だったと思う。

聴覚とリアル

 先日、KDDIがLXサービス「αU」(アルファユー)を発表した。興味深かったのは、同社がこの新しい世界を「もう、ひとつの世界」と表現しているところだ。

 「もうひとつの世界」ではなく「もう、ひとつの世界」。何が違うのかというと、読点がひとつ打たれている。現実世界と仮想世界は併行して存在するツインではなく、融合したひとつの世界なのだいうことだ。少なくともそう同社は考えている。

 完全ワイヤレスイヤフォンなど、各種の聴覚拡張デバイスは、ノイズをキャンセルすることができる一方で、ノイズを取り込む機能を備えているものが多い。

 ヒアスルーと呼ばれている機能で、会話によるコミュニケーションや危険の察知、圧迫感などからの解放のために、外音、環境音を再生音にミックスして再生する。ノイズキャンセル強度も調整できる。

 また、骨伝導イヤフォンなどのように、もともと耳穴を塞がないデバイスについてはヒアスルー機能に頼ることなく、環境音が日常と同じように耳に届く。

 こうしたデバイスとそれに実装された機能によって、今のところは聴覚のメタバースの方が、人の暮らしに溶け込みそうな勢いと方向性を持っているんじゃないだろうか。

 KDDIのLXサービスにしても、日常世界の街角で見知らぬ人を含む友だちや仲間と、音声でコミュニケーションすることが想定されているのだが、遠くにいる人と、すぐそばにいる人とでは、会話における声の音響感は異なる。

 それは、アバターが街角風景にVPSを使って配されるのより、ずっとずっとリアルなものが求められ、決して手を抜けない音作りが必要だ。

 先日、Niantic のエンジニアチームを率いるシニアVPの Brian McClendon(ブライアン・マックレンドン)氏が来日していて、同社のXR体験の方向性についての話を聞く機会があった。

 現実世界の解像感と拡張世界の解像感のすり合わせができるようになるまでには、まだまだデバイスの進化が必要だという説明だった。その点、聴覚の解像感はすでにある程度のレベルをクリアしているのではないか。

ヘッドマウントディスプレイと補聴器

 日常空間を拡張する音響空間と言えば、スマートスピーカーも重要な存在だ。GoogleアシスタントやSiri、そしてAlexaなどとの会話は、本当はメタバースの先行体験だった。

 ここのところすっかりチャットAIにお株を奪われているような印象の彼(彼女)らではあるが、この先のことを考えれば、そちら方面との合流は間違いないだろう。

 息をするようにウソをつかないように、入念なフェイルセーフを怠らないようにしながら、少し未来の人々の暮らしを支え、拡張世界を現実世界に融合させ、KDDIが言うところの「ひとつの世界」を成立させることになりそうだ。

 コンピューター的な存在と人間が、自然言語でコミュニケーションするというのは、かつてのSFでは当たり前のシーンとしてストーリーに組み込まれていた。

 でも、今のメタバースというのは、どうやら相手がコンピューター的なものではないことが求められているようにも思う。

 視覚的には2次元化されたアニメキャラクターで表現されていたり、似ても似つかぬ声を出したりと、仮想的な姿カタチを与えられているかもしれないが、それは、リアルな人間の願望によってデフォルメされた姿でありカタチで、その向こうには必ずリアルな人間がいる。

 そこがチャットAIとの違いなのだが、チャットAIは彼らなりの論理で学習を続けて成長する。ただ、その学習は公表された既存の事実から行なわれるもので、彼らが何かを新たに思考して生み出すわけではない。

 美術館や博物館のキュレーターは、資料を集め、高度な専門知識で、コンテンツを管理し、その深い造詣によって新しい展示会を企画創造するなどの業務に携わる。チャットAIも、ちょっと先の未来には、そういう立場に収束するだろう。

 そして、人が日常的に受け取るサウンドは、リアルな環境音、相手との距離に左右されない人間との会話、そして、チャットAIによる見えない相手との会話などが融合されたサウンドとして、常に耳に届く。

 それを支援するデバイスが、この先、著しい進化を遂げるだろう。たぶん今年は、今までになくイヤフォンの新製品が多くなりそうだし、需要も高まりそうだ。聴覚の拡張は視覚よりも優先する。

 ヘッドマウントディスプレイを常に頭からかぶって仕事や遊びをする自分は想像したくない。やっぱりミラーレスのEVFより一眼レフの光学ファインダーの方が、のぞいていて楽しいみたいなもんだ。

 それは年寄りの発想だろうと言われれば認めるしかないのだが、常に耳に届く、複合世界の環境音をずっと聞き続けている自分については想像がたやすい。それは補聴器ではないのかと言われれればそれまでなのだが……。