NHK技研公開2011 スーパーハイビジョン実現に向けて夢が少しずつ現実に


今日は運動会の予定でしたが、子供たちのてるてる坊主も効かず梅雨らしい雨。予定が空いたのでNHK技研公開に行ってきました。2007年,2008年に行ったことがあるのですが、それから行ってなかったので3年ぶりですね。
やはりメインはスーパーハイビジョンでしょうか。7,680 × 4,320というハイビジョンの縦横4倍、16倍の画素数と22.2chの音響でものすごい臨場感を生み出します。3年前から着実に進化していますね。2020年の試験放送を目指して研究開発されているようです。



前見た時は表示デバイスがなく、プロジェクターを2台使って巨大なスクリーンに映し出していたのが、今回はシャープとの共同開発の直視型のスーパーハイビジョンディスプレイで、スーパーハイビジョンカメラで撮影した映像をリアルタイムに表示されていたりしました。
近くで見ても画素が見えないくらいで風に揺れる毛の一本一本までリアルに表現され、(立体感を無視するため)片目で見れば、ほとんど現実と区別がつかないくらいでした。

スーパーハイビジョンカメラをコンパクトにするための単板撮像実験装置

22.2chをディスプレイの枠に配置したスピーカーアレイで仮想的に再現するため装置や、スーパーハイビジョンを低コストで実現するためのプロジェクターなどの展示もありました。

スーパーハイビジョンを伝送するための大容量伝送技術も紹介されていました。
21GHz帯を利用する衛星方式の研究や

次世代地上放送に向けた大容量伝送技術の研究など。

映像を1/4や1/16に縮小して伝送し、縮小時の特徴情報と超解像技術を利用して復元する技術。
その他色々な技術も展示されていました。

42GHz帯の電波とMIMO技術を用いて。ハイビジョン映像を無線で伝送するミリ波モバイルカメラ。

煙、布、木材などの遮蔽物に隠された人などをミリ波を利用して3次元空間上の位置情報をリアルタイムに可視化する技術。災害救助などに役立てたいとか。

人間の視覚特性に基づき映像の明るさを評価し、明るく見やすい映像作りをサポートするリアルアピアランスモニター

テレビ視聴インターフェースUTAN
カメラを使って視聴者の顔、表情、動作から視聴状況を推定し、そのときの字幕情報をマッチングして嗜好をアルタイムに分析し、リコメンドなどに使うそう。

フィルム上の有機ELディスプレイやインテグラル立体テレビなどは画質的にまだまだ実用化は難しそう。

アナログ放送終了後に空くVHF帯を使った音声(デジタルラジオ)放送、マルチメディア放送、蓄積放送などの提案。結局事業者次第とか言ってましたが、UStreamやニコニコ生放送などがある時代なのに、発想が昔と変わってない感じが残念。ネットが無い状況で視聴できるとかおっしゃっていましたが・・。

放送波の他に、字幕等様々な情報やマルチアングル放送(他アングル分)、3D映像放送(片目分)などをネットで提供し、STBなどで同期させシームレスに表示するHybridcast。もちろん情報は放送局が作成。
teledaは放送とソーシャルネットワークの融合。
放送と通信の連携と言ってましたが、ここまでするなら通信だけでよさそうな気もw
なんとなくデータ放送のようになんとなく時代遅れというかわくわくしない感じがしたので、オープンにAPIを公開するなどしてもっと他に任せた方が良さそうな気もしました。

「30km以上離れて撮影。映像を鮮明化しています」の説明や撮影カメラ。
カメラ/伝送/映像・音響デバイスなど各種技術の開発などは、メーカー各社ではリスクや限界があるのでNHKのようなところがスーパーハイビジョンの実現に向け研究開発を推進するのは意義があると思いました。10数年後には家庭でスーパーハイビジョンを視聴できる時代が来るのでしょうか。
展示内容の詳細はこちら

saya: