リアルとバーチャル。両者が同一になることはない。だからバーチャルは連体修飾語としてリアルにつながる。でも、両者が限りなく近い存在になることはあるだろうし、その距離を極限まで小さくするためのチャレンジが続いている。
半分が破棄される新しい洋服
KDDIがGoogle Cloudと協力し、アパレル向けに、マルチデバイスで使える高精細XRマネキンを開発した。Google CloudのImmersive Stream for XRを活用したもので、先日、米カリフォルニアで開催されたGoogleの年次イベントGoogle I/O 2022で日本における初のユーザー企業として発表されている(ニュースリリース)。
[embedded content]
洋服というのは、とにかく難しい。アパレル産業は、この30年間でその市場規模が3分の2に減っているにもかかわらず、商品の供給量は2倍近くになっているという。店頭においては顧客のニーズに応えるためににさまざまなサイズや色の在庫を常時取りそろえることで大量の余剰在庫が発生しているらしい。
ざっくり、作られた洋服の半分は破棄されているというのが実状のようだ。SDGsの観点から考えたときにも、その状況が、このまま続くのがいいはずがない。
その一方で、昨今は、実際にショップ等に赴くことなく、ECサイトの写真などでバーチャルに商品を確認し、試着どころか洋服にさわることもなく購入するようになってもいる。色についても正しいとは限らない。
一般的な工業製品であればスペックを見ればだいたいのことが分かるが、洋服はそういうわけにはいかない。だからショップで実際に試着するなどで肌感を確かめて購入するのが当たり前だったのだが、そうではない買い方も決して珍しくなくなっている。
たとえばAmazonの「Prime Try Before You Buy」は、洋服、シューズ、バッグなどを、サイズ違いや色違いなどまとめて取り寄せ、気に入ったものだけを購入、いらないものは着払いで返送すればよいというサービスだ。
このサービスを利用すれば、ショップに行かなくても、自宅でゆっくりと試着して商品を確かめられる。このサービスで余剰在庫を減らすことには貢献できないが、ECサイトで洋服を購入する行為を以前のスタイルに近いものにするという点では評価できる。
その一方で、今回のXRマネキンのようなソリューションは、高精細でインタラクティブなストリーミング動画で、商品を360度、好きな角度から確認ができるもので、商品の現物がなくても、まるで目の前に商品があるかのような体験を提供できるという。
クラウドサービスで提供されるGPUパーワーを駆使
このソリューションで提供されるXRマネキンは2種類ある。1つはリアルなモデルがリアルに洋服を身につけて動き回る映像を3Dスキャンしてデジタル化し、素材感や体の動きを再現しようというものだ。
もう1つは、デジタル型紙を使った3DCGで、まだリアルが存在しない衣服を、その設計データをもとにバーチャルヒューマンに着せて着用イメージを確認できるようにするものだ。今回のソリューションは、両者をサポートする。
インタラクティブな操作に反応し、リアルタイムでレンダリングされた動画がストリーミング配信され、スマホやPCのスクリーンに映し出される。ここで使われるのがGoogle CloudのImmersive Stream for XRだ。レンダリングはクラウド上で行なわれ、端末スペックに依存せずに高精細な表現ができる。大量のデータが流れてくることになるが、5G通信によってストレスのない再生が可能だ。
実際にデモンストレーションを見て思ったのは、今はクラウドでのレンダリングができなければたいへんだが、そのうちすぐにエッジデバイスの処理能力が高まり、ローカルで処理できるようになるだろうということだ。
でも、そのころには、もっと高精細で高いリアリティを持つレンダリングが求められるようになってまたクラウドに依存するようになるという、いい意味でのいたちごっこがユーザー体験を高めていくのだろう。
世の中のすべての端末が、高精細なレンダリングをできるような処理性能を持っているわけではない。ただでさえ、高い処理性能を持つ高額な端末が売れにくくなっている今、こうした体験を誰もができるような端末を持てるわけではないというのも分かる。リッチなUXのためにはコンピューターリソースが必要で、それを誰かが負担しなければならないということだ。
ちなみにGoogleとしては、このソリューションをKDDIの事例のようなアパレルカテゴリのみならず、インテリア、自動車販売、旅行、そして、イマーシブなマニュアルを提供した従業員トレーニング等に使っていくことを想定している。
マネキンは他人、自分じゃないのに
Microsoft CEOのサティア・ナデラ氏が、2年分のDXが2カ月で起きたと指摘してからすでに2年が経過した。もちろんコロナ禍による新しい働き方や生き方のためにデジタル化が推進されたことを言っていたのだが、実際、ビジネスの現場、教育の現場などにおいて、コミュニケーションのデジタル化は一気に進んだ。
確かに世の中は大きく変わった。たとえば会議のデジタル化は、そのまま仮想化だ。会議室にフィジカルに集まってミーティングをする行為と限りなく近い効果を得られるように、いろいろなチャレンジが行なわれた。
サービスやアプリもそれを加速させるべく進化した。だからフィジカルに集まる会議よりもそのコミュニケーション効果が高まることさえあるし、誰もがそうしたいと願っている。
同じにはならないし、してはならない。従前の世界を、そのままデジタルに移行しただけでは本当は何も変わらない。紙を電子化しても、それが電子のシミであったとすれば、得られる恩恵の半分を捨てている。ちょうどファクシミリが、紙の上のインクのシミを電子的にスキャンしても、それを送り終えたら、受け側がそれを紙のシミに戻すだけでは書類の空間移動にすぎない。付加価値はスピードだけだ。
今回のKDDIのアパレル業界DXのためのXRマネキンのソリューションは、自分自身のアバターに洋服を着せるというのではなく、あくまでも別の誰かが洋服を着ることに興味深さを感じる。
ソリューションとしては自分自身が身につける様子をインタラクティブに操作して確認することもできるはずだが、あえてそれをしていない。リアルなショップで洋服を買うために試着するときには、フィッティングルームで自分が洋服を着ている様子を姿見で確認するのにだ。
そのあたりの女性の心理というのが今ひとつ分からないのだが、もしかしたら、そこは、このソリューションのとても大事なポイントなのかもしれない。
コメント