先日、ネットニュースやSNSを見ていてすごく驚いた話題がありました。それが、歌手のAdoさんが国立競技場でのライブで「ついに素顔を公開したのではないか?」という騒動です。
普段はイラストのアバターで活動している彼女が、実際のライブのステージに立ち、その姿が観客に見えたというのですから、ファンならずとも気になりますよね。僕も「えっ、本当に!?」と思って色々と調べてみたんですが、そこには単なる「顔出し解禁」という話を超えた、すごく面白い技術と演出の世界が広がっていました。
今回は、このAdoさんの件をきっかけに、顔を出さないアーティストたちを支えている最新技術や、それが僕たち個人のライブ配信にどう関係してくるのかについて、素人なりに深掘りしてみたいと思います。
- ✅ Adoの国立ライブは「素顔公開」ではなく、計算されたシルエット演出だった
- ✅ 顔出しNG活動を支えるのは、iPhoneでも可能な最新トラッキング技術
- 🔮 将来の展望と他分野への応用も考察!
Adoの「素顔」騒動の真相と、顔出しNGアーティストの現在地
まず、話題になったAdoさんの国立競技場ライブ「心臓」での出来事について整理しておきましょう。SNSでは「顔が見えた!」と大騒ぎになっていましたが、リサーチしてみると、実際にははっきりとした顔のパーツが見える形での「顔出し」は行われていなかったようです。
じゃあ何が見えたのかというと、強い逆光(バックライト)と巨大スクリーンを使った巧みな演出によって浮かび上がった、彼女のはっきりとしたシルエットだったんですね。髪型や体の動き、輪郭がリアルに視認できたことで、「ついに!」と話題になったみたいです。つまり、顔出しNGというスタンスは崩さずに、生身の人間としての存在感を強烈に示すという、すごく高度な演出だったわけです。
それにしても驚かされるのは、顔を一切出さないアーティストが、国立競技場という日本最大級のスタジアムでライブを行い、2日間で延べ14万人以上を動員したという事実です。これは歴史的な快挙と言っていいでしょう。
Adoさんに限らず、ヨルシカや、ずっと真夜中でいいのに。など、顔を出さずに絶大な人気を誇るアーティストはたくさんいます。彼らの活躍を見ていると、「顔を出すこと」がアーティスト活動の必須条件ではなくなったんだな、と痛感します。むしろ、「見せない」ことでリスナーの想像力を掻き立て、それが強力なエンターテイメント要素になっているのかもしれません。
「顔を隠す」を支える技術の進化がすごい

では、なぜこういった「顔出しNG」での活動が、これほどまでに一般的になったのでしょうか。その背景には、間違いなく技術の進化があります。
特に大きいのが、アバター文化の浸透です。矢野経済研究所の調査によると、2023年度のVTuber国内市場規模は800億円(見込み)にも達するそうで、前年度から約1.5倍も成長しているらしいですね。これだけ市場が大きくなれば、アバターで活動することへの違和感もなくなっていくはずです。
そして、僕が一番驚いたのは、その技術がめちゃくちゃ身近になっている点です。かつてはモーションキャプチャなんて言ったら、全身にセンサーを付けた数百万円もする機材が必要なイメージでした。
でも今は違います。例えば、顔の表情をトラッキングしてアバターを動かすだけなら、Face IDを搭載したiPhoneが1台あれば十分なんです。「VTube Studio」といったアプリを使えば、カメラが捉えた自分の表情と、Live2Dで作られたイラストのアバターがリアルタイムで連動します。これ、実際にやってみると感動しますよ。自分のまばたきや口の動きに合わせて、画面の中のキャラクターが自然に動くんですから。
全身の動きをトラッキングする場合でも、Webカメラの映像からAIが骨格を検知する技術(MediaPipeなど)を使えば、特別な機材なしで簡易的なモーションキャプチャができてしまいます。もちろんプロの現場では「Unity」や「Unreal Engine」といったゲームエンジンと、高価な専用スーツを組み合わせて使っているのでしょうが、個人がライブ配信を始めるハードルは劇的に下がっているんですね。
なぜ今、「顔出しNG」が支持されるのか

技術的な背景だけでなく、時代の空気感も影響しているように思います。SNSが普及した現代では、顔を出すことのリスクも無視できません。そんな中で、「外見で判断されたくない」「純粋に作品(歌やトーク)を評価してほしい」というアーティスト側の思いと、それを支持するリスナー層が広がっているのではないでしょうか。
これはルッキズム(外見至上主義)へのカウンターとも言えますし、何より「顔が見えないからこそ、どんな人なんだろう?」と想像する楽しさがありますよね。Adoさんのシルエット演出なんて、まさにその究極系だと感じました。見えそうで見えない、そのギリギリのラインがファンの心を掴んで離さないんでしょう。
この先どうなる?ライブ配信の未来は「ハイブリッド」へ
さて、こうした技術と文化の進化は、今後のライブ配信をどう変えていくのでしょうか。僕は、完全にアバターだけのVTuberと、生身で顔出しする配信者の中間、いわば「ハイブリッド型」の表現が増えていくんじゃないかと予想しています。
Adoさんのライブのように、「実在する人間がそこにいる気配」は濃厚に感じるけれど、顔だけは絶対に見えない。そんな表現が、技術の力でもっと手軽にできるようになるかもしれません。例えば、リアルタイムで自分の映像から人物だけを切り抜き、顔の部分だけを自然にぼかしたり、デジタルなマスクを合成したりする技術が、もっと一般的になるかもしれません。
そうなれば、「顔出しはしたくないけど、アバターだと自分のキャラクターと合わない」と悩んでいた層が、こぞってライブ配信を始める可能性があります。配信者の多様性が一気に広がりそうで、すごく楽しみです。
他分野への応用アイデア:僕らの日常でも使えるかも?
この「顔を隠す技術」、プロのアーティストだけのものにしておくのはもったいないですよね。僕たち個人のライブ配信や、他の分野でも応用できそうです。moguca的な視点で2つ考えてみました。
アイデア1:ビジネス系ウェビナーでの「デジタルマスク」活用
例えば、Web制作やガジェット紹介などの真面目なウェビナーを配信したいけれど、会社員だから顔出しは避けたい、というケース。完全にアニメ調のアバターだと信頼性が損なわれる心配もあります。
そんな時、NVIDIA BroadcastのようなAI技術を応用して、自分の実写映像のまま「目線だけ常にカメラ目線に補正する」とか「顔の特定の部分だけ自然に隠す」といった使い方ができれば、リアルな信頼感を保ちつつプライバシーも守れます。これ、副業で情報発信したい人にはすごく需要があるんじゃないでしょうか。
アイデア2:リモート会議での「すっぴん隠し」アバター
これはもう、今すぐにでも欲しい技術ですが(笑)、リモートワークでのオンライン会議に応用するアイデアです。朝イチの会議でメイクが間に合っていない時や、部屋が散らかっている時。
Zoomなどの背景変更機能はもう一般的ですが、自分の姿そのものを、リアルな自分そっくりの「3Dアバター」に置き換えられたらどうでしょう。表情はiPhoneでトラッキングしてリアルタイムに反映させる。そうすれば、カメラオフで参加するよりも失礼にならず、かつリラックスして会議に参加できます。これが普及したら、日本の働き方がまた少し変わるかもしれませんね。
まとめ
Adoさんの話題から出発して、顔出しNGを支える技術の世界を見てきました。調べてみて感じたのは、「顔を出すか出さないか」は、もはや技術的な制約ではなく、表現の選択肢の一つになったんだなということです。
iPhone 1台でアバターになれる時代。もしあなたが「配信してみたいけど顔出しがな…」と躊躇しているなら、ぜひ一度、VTube Studioなどのツールを触ってみてください。案外、新しい自分に出会えるかもしれませんよ。僕も、次はアバターを使ってゲーム配信でもやってみようかな、なんて少し本気で考えています。


コメント