Yahooニュースにて、テレビ番組における字幕について
興味深い記事が載っていました。
【Yahooニュース:テレビ局3社が語る「自動字幕」の裏側 AbemaのAIポンはすでに実用レベル?】
https://headlines.yahoo.co.jp/article?a=20190807-00036795-biz_plus-sci(記事から一部引用)
聴覚障害者などのためにテレビ音声を字幕で表示する「字幕放送」。
その字幕制作は、これまで主に手作業で担われてきた。
プロフェッショナルがチームを組み、リレー方式で音声を
聞きながらリアルタイム入力するため、どうしてもコストが
かかっていた。
しかし現在、放送局各社では、音声認識技術や人工知能(AI)を活用した次の技術研究を進めている。
~中略~
2018年2月、総務省は「放送分野における情報アクセシビリティに関する指針」を発表した。
県域局での放送(いわゆるローカル放送)に対して2027年までに字幕付与率80%を達成するよう目標を定めたのだ。
~中略~
それを受けてTBSがまず目指したのは、TBS NEWSでの
24時間字幕付与だった。
テレビ局としては、技術的には自動字幕は実現可能、
でも、人名など誤認識を視聴者が許してくれるかという
ところがネックだと捉えているようです。
しかし、もう一つ大切なことがあります。
それは、「聴覚障害者用字幕」と「字幕」の違いを
テレビ局がどこまでわかってくれているか、です。
例えば、映画や番組のなかで、画面には写っていない物音や効果音などがストーリーに重要となる場合があります。
「字幕」は、セリフのみが文字化されたものとなっていますが、聴覚障害者用字幕ならば、セリフだけではなく音声も
文字化しています。
だから、「聴覚障害者用字幕」なのですね。
自動字幕がそこをカバーできるのかどうかが
聴覚障害者にとっては一番重要となるだろうと
思うのです。
『テレビ局3社が語る「自動字幕」の裏側 AbemaのAIポンはすでに実用レベル?』