音声認識

声をテキストに変換する音声認識技術がスマートフォンを始めとする機器で活用されるようになり、人々の生活はより便利になってきました。

普段、Amazon社のアレクサ、Google社のGoogleアシスタント、アップル社のSiriなどのバーチャルアシスタントと音声でやりとりしている人も多いのではないでしょうか。

ビジネスにおいても、音声認識技術を活用した業務効率化が始まっています。

このように身近になってきた音声認識ですが、仕組みや活用シーンをイメージしきれていない方も多いかもしれません。

この記事では、音声認識の仕組みや活用事例を紹介していきます。ぜひ参考にしてください。

音声認識の市場

Fortune Business Insightsの調査レポートによると、世界の音声認識市場は、2023年の126億2000万ドルから2030年までに596億2000万ドルまで拡大し、CAGR 24.8%で成長すると予測されています。

出展:Fortune Business Insights「音声認識市場の成長分析、2030年」

日本語は英語と比べて文法が複雑で主語を省く傾向がある、同じ発音でも異なる意味を持つ単語がたくさんある、といった特徴があります。また、英語よりも圧倒的に話者数が少なく学習データの集めやすさにも差があります。

そのようないくつかの理由から、これまで日本語の音声認識は精度に課題がありましたが、記事執筆時の2023年7月では日本国内発の音声認識ベンダーも増えて課題の解消も進んでいます。世界の市場と同様に日本でも音声認識技術が広がっていくと予測できます。

音声認識の仕組み

音声認識

音声認識はどのような仕組みになっているのか、みていきましょう。

音声入力

まず、マイクなどの入力装置で音声を録音・入力します。

音響分析

入力された音声を「特微量」に変換します。

「特微量」とは、音の周波数、強弱、間隔などの特徴を抽出し、コンピューターが認識しやすいように加工した数値データです。

音声を特微量に変換する作業を「音響分析」と言い、この特微量を基に音声認識を進めていきます。

音素を抽出

音響分析で抽出された特微量が、どの「音素」にどれくらい近いかを計算します。

「音素」とは、意味の違いに関わる最小の音声的な単位です。

コンピューターの学習データと特長量を照合し、特徴が近い音素を抽出します。

単語に変換

音素だけでは単にアルファベットが羅列した状態のままです。

発音と単語のデータベースである「発音辞書」を利用し、音素と登録されている単語をマッチングして、単語に変換していきます。

同音で複数の単語が登録されている場合は、複数の単語が候補となります。

文章化

言語モデルを利用し、発音辞書で特定した単語を文章に組み立てていきます。

言語モデルでは単語間の出現頻度をスコア化されており、確率が高い組み合わせが選ばれることで、よく使用される文章になります。

テキスト出力

最後に、自然な文章と判断した文字列をテキストとして出力します。

参考:東日本電信電話株式会社「AI音声認識とは?仕組み・活用方法を分かりやすく解説」
参考:Notta株式会社「音声認識の仕組みとは?技術や活用シーン、おすすめの音声認識サービスを紹介」

音声認識の活用事例

音声認識の活用事例を紹介します。

議事録作成

会議などの議事録を手作業で行っている場合、非常に労力がかかります。

書くことに集中するため会議のディスカッションに参加することが難しくなったり、正確な記録を残すために録音を聞きなおして書き直すことに時間がとられたりと、悩みを抱えるビジネスパーソンも多くいました。

音声認識ツールを使用して自動的に議事録をテキストで作成できれば、これまでの手間が大きく削減できます。

コールセンター

コールセンターでは顧客との通話内容を記録、確認するケースが多く発生します。

オペレーターがテキスト入力や録音の聞き直しをする必要がなくなれば、作業効率が上がります。

また、日頃の顧客とのやりとりが可視化できていれば、管理者が各オペレーターのやりとりをチェックして、必要な指導がしやすくなります。

字幕放送

従来、映像の字幕表示作業は手作業で行われていました。

音声認識技術を活用することにより、これまでかかっていた人的コストを抑えながらテレビ番組、講義映像に字幕を提供できるようになってきています。

音声処理の関連技術

音声認識は音声処理のうちの一つの分野です。音声処理にはほかにも、特徴量から音声を作り出す音声合成や、音声符号化などがあります。

例えば音声合成のソリューションでは、音声データを話速変換して、高齢者にも聞き取りやすいスピードに変更することができます。

また、女性から男性、大人から子ども、という風に発話者の印象を変えることも可能です。ナレーター収録が終わった後で録り直しをしたい場合、スタジオなどを押さえて録り直すよりもりコストを抑えられるケースがあります。

参考:株式会社日立ソリューションズ・テクノロジー「高品位音声合成ミドルウェア「Ruby Talk」」
参考:株式会社アレックス「音声合成ソリューション」

今後の課題

業務改善に大きく貢献する可能性が高い音声認識技術ですが、まだまだ課題もあります。

ノイズ除去

雑音やノイズによって音声認識の精度が下がることがあるため、話者は周囲の話し声や音に気を使う必要があります。

ノイズキャンセリングなど、クリアな音声を認識させるための仕組みが求められます。

複数話者への対応

これまで、音声認識技術は話者の音声が重ならないことを前提としていました。そのため、複数の話者が同時に話すような場面では精度が下がっていました。

そうした課題から、発話の重なりを含む音声から、音が発生する方向や声の特徴などに基づいて音源を分離する研究が進められています。複数人が同時に話すような場面での音声認識を想定している場合は、その点もカバーできる技術を採用しているツールを選びましょう。

参考:株式会社日立製作所「複数の人が同時に話していても、一人ひとりの音声区間を検出するEnd-to-End話者ダイアライゼーション技術を開発」

標準語以外への対応

音声認識の発音辞書や言語モデルは、標準語を基に作成されていることがほとんどです。

そのため、方言やスラングなど、広く一般的に使われていない表現では精度が下がってしまいます。

多くの人に音声認識技術が活用されるためには、より多くの表現をカバーする必要があります。

この点に関しては、ディープラーニング活用などで改善が進められていますが、音声認識の利用者が増えればAIの学習データが増えることにもなるため、最初の段階では精度向上のために協力する姿勢で利用するのもよいかもしれません。

まとめ

音声認識技術は進化を重ねており、今後ますます便利になり、より多くの人に活用されることが期待できます。

仕組みを理解することで、新たな活用方法を思い浮かぶ企業やユーザーも現れるかもしれません。

ぜひ日々の業務や生活に活用してください。