「広がる つながる 夢中にさせる」をテーマに、未来の放送技術が一堂に会する「NHK技研公開2025」に行ってきました!会場はたくさんの人で賑わっていて、公共放送の未来をつくる、あっと驚くような技術が盛りだくさんに展示されていました。一般来場者の視点から特に印象に残った展示、特にAIが活躍しそうな未来の技術をご紹介します!
https://www.nhk.or.jp/strl/open2025/index.html
未来のコンテンツのコンセプトとして、ARグラス、3Dディスプレー、触覚・香りディスプレーにより、コンテンツの体験が空間的、感覚的に広がるイメージを紹介していました。
ARグラスにより、離れた場所で同じコンテンツを見ながら、空間を超えたコミュニケーションができるデモです。
もう一つは3Dディスプレーと触覚・香りディスプレーにより、あたかもコンテンツが目の前の空間に飛び出し、見る人の世界に働きかけてくるかのようなデモです。大変な人気で、長い列ができていたので体験はできなかったのですが、デモの後の「触覚や香りを楽しみたいコンテンツを教えてください」というアイディアヒアリングのボードが秀逸でした。
ぜひ拡大してみてください!
AICU編集部の今回のイチオシはこちら。画素数30K、つまり幅30,000ピクセル。従来のスーパーハイビジョン(8K)を6台組み合わせた超高精細な360度映像を、画素数15K相当のプロジェクターで半球スクリーンに投影し、ヘッドマウントディスプレー(HMD)などのデバイスなしで360度映像による没入感を体験するデモです。
図書館の映像が圧巻です。
このプロジェクターがすごい。まるで象の鼻のように伸びた鏡筒から180度のドーム映像が投影されています。これで全天周の半分を1つの光学系から投影できるという取り組みになっています。音響もすごい。
撮像カメラはこのような構造で、五角柱型だそうです。五角形の頂点に9Kx7Kカメラがついていて、6台目は中央で天頂を撮影しています。
黄色い線は光ファイバーです。100GBイーサネットの光ファイバーで同時に伝送し、1つのカメラあたり1台のワークステーションに接続して映像を保存します。今後はこれをもっと小型化していくとのこと。
実は地下の展示エリアには同じ撮影素材のOLED版が展示されていました。解像度も輝度も、クリアな映像も、数段上の体験です。特に図書館の背表紙まで読めるような解像度がありました。
曲げや伸長が可能なディスプレイです。小型のカラーLEDのICに液体金属による回路を繋げています。
曲げ伸ばしだけでなく、防水性もありそうですね!
今年のNHK技研公開はキラッとひかるAI技術が随所に見られました。
まずは長年研究が続けられている手話CG。テレビ受像機側のアプリとして組み込まれた手話CGキャラクターには表情が追加されていました。さらにニュース速報の高速な手話翻訳には独自のLLMが使用されているようです。
中間的に翻訳結果を「手話単語列」に翻訳し、そこからCGに変換してリアルタイム映像としてレンダリングしているようです。
Llama3をベースにニュース原稿7億パラメータで学習した独自のモデルの獲得に成功したそうです。
【報道資料】 2025年5月26日 放送局データを用いた大規模言語モデルを開発 https://www.nhk.or.jp/strl/news/2025/3.html
~約40年分のニュース原稿・ニュース記事などを学習~
技研では既存のLLMをベースに、過去にNHKが放送した約40年分のニュース原稿やニュース記事、番組字幕などの放送局データ(約2000万文)を追加学習させたLLMを構築しました。これにより、過去に放送したニュースの内容をよく理解し、事実と異なる誤った回答をしにくくなりました。また、ニュースで頻繁に使用される用語や表現に対する理解力も向上しました。
外部機関が実施するニュース報道に関する検定試験を用いた評価実験では、LLMに放送局データを学習させることで、報道された事実に関して誤った回答をする割合が、学習前と比較して約1割減少しました。今回、構築したLLMがニュースの時事的な知識を獲得していることを確認しましたが、番組制作支援のツールとして活用するには更なる改良が必要です。技研では誤った回答のより少ないLLMの実現を目指し、引き続き研究を進めていきます。
学習環境としてはA100を16台、1.5ヶ月でベースモデル獲得、その後の指示学習でさらに1.5ヶ月という期間がかかっているそうです。放送分野の研究所でこのような研究が成功していることに感動です。このLLMによるデモもありましたが、獲得したモデルが公開されることもあるのでしょうか。
他視点画像を作り出すスタジオを活用して、音声の他視点化を実現していました。
https://www.nhk.or.jp/strl/publica/annual/2022/2/3.html
ただマイクをたくさん並べたマイクロフォンアレーではなく、音の届き方の形状を可視化することができます。
さらに注目は、演者に取り付けるラベリアマイクロホン。
2つのマイクロフォンを組み合わせてノイズキャンセリングをする技術を開発したそうです。これは衣擦れのようなガサガサ音を除去できるそうで、単純な技術と現場の発見、そして信号処理的なテクニックの組み合わせで大きな発明ではないでしょうか!
単純な検索キーワードが、LLMによって検索キーワードを拡張し、言い換えてくれます。これでRAG検索を使って過去の実在する番組を検索することができます。
拡張クエリのプロンプトも例示されていました。
ベースのモデルはgemma-3-27、ベクトル埋め込みはintfloat/multilingual-e5-largeとのことでした。
「LLMによるクエリ拡張を用いた番組プレイリスト生成」という論文になっているようです。
例示されている拡張クエリー生成プロンプトはこのようなものでした。
Based on the user's query, imagine the user's intent and convert it into 5 queries that align with the user's needs to search for relevant program information. Output the queries separated by JSON array elements. Input: User Query: (User's input query) Output format (in JSON): json "queries": ["Query 1", "Query 2", ..., "Query 5") Conditions: The output should consist of 5 queries, reformulated based on the user's query.,
Rewrite the queries not only by using synonyms or related keywords but also by considering various facets related to the user's query, such as causes, effects, contributing factors (e.g., cost, societal impact, technological advancements, regulatory changes), potential solutions, and future outlooks. Imagine the user's underlying interests and generate queries from diverse perspectives, aiming to uncover different angles of the topic.,
Queries must be written in Japanese.,
Avoid adding any special characters or symbols except for those in the JSON structure.,
Provide only the JSON output; do not include the original input query in the output.
ユーザーのクエリに基づいて、ユーザーの意図を推測し、関連するプログラム情報を検索するためのユーザーのニーズに合致する5つのクエリに変換します。クエリはJSON配列要素で区切られて出力されます。
入力:
ユーザークエリ:(ユーザーが入力したクエリ)
出力形式(JSON形式):
json
"queries": ["クエリ1", "クエリ2", ..., "クエリ5")
条件:
出力は、ユーザーのクエリに基づいて再構成された5つのクエリで構成される必要があります。
クエリは、同義語や関連キーワードを使用するだけでなく、原因、影響、寄与要因(例:コスト、社会的影響、技術の進歩、規制の変更)、潜在的な解決策、将来の見通しなど、ユーザーのクエリに関連するさまざまな側面を考慮して書き換えてください。ユーザーの潜在的な興味を想像し、多様な視点からクエリを生成して、トピックのさまざまな角度を明らかにすることを目指します。
クエリは日本語で記述する必要があります。
JSON構造に含まれないものを除き、特殊文字や記号を追加しないでください。
JSON出力のみを提供し、元の入力クエリを出力に含めないでください。
ChatGPT-4oでは以下のような結果になりました。
{
"queries": [
"NHK技研公開2025で紹介された生成AIの最新技術とは何か",
"NHKの大規模言語モデル(LLM)研究の社会的インパクトと活用事例",
"NHK技研公開で発表された放送とAI技術の統合事例を知りたい",
"NHK技研におけるAI活用の課題とその解決策の提案",
"NHK技研の研究成果が今後の放送産業に与える影響と展望"
]
}
Gemini 2.5 Flashではこのような出力です
{
"queries": [
"日本のがん治療における最新の放射線療法の進歩は?",
"日本におけるがん治療費の平均と経済的支援制度について",
"日本のがん患者のQOL向上に寄与するプログラムや支援サービスは?",
"日本のがん研究におけるゲノム医療の現状と将来性について",
"日本の地域別がん検診受診率の差とその要因、改善策は?"
]
}
こういう成果、APIなど使えたら番組情報ハッカソンなどもできるかもしれないですね!
最後に、テレビの研究ではなく、テレビの視聴者の研究です。
「情報的健康」という視点でSNS時代における興味やニュースの獲得を可視化しています。情報的健康を損なう原因としてのフィルターバブルやエコーチェンバーの影響、バランスの良い情報摂取を促進するためのアルゴリズムやメディア設計の工夫、情報的健康の観点から見たフェイクニュース対策と社会的な免疫力の向上方法についての研究を行っているそうです。
ウィズフェイク時代の望ましい情報摂取とは?~情報的健康の実現を目指して~
https://www.nhk.or.jp/strl/publica/giken_dayori/233/4.html
技研公開は2025年6月1日まで!世田谷区砧のNHK放送技術研究所にて開催、入場無料です。
https://www.nhk.or.jp/strl/open2025/
以上、AICU編集部がお送りしました。
Originally published at note.com/aicu on May 1, 2025.