Siriが吃音などの非定型音声に強くなるよう研究中 ポッドキャストの音声を利用

Siriを使っているスクリーンショットの画像

Siriを使っているスクリーンショットの画像
 
Siriなどの人工知能(AI)アシスタントに指示をうまく聞き取ってもらうには、人間側がある程度型にはまった話し方をする必要があります。しかしながら、なかには吃音症の方など、それが難しい方もいらっしゃいます。AppleやGoogle、Amazonはそのような方でもAIアシスタントを手軽に使ってもらえるよう研究を行っているそうです。

ポッドキャストの音声を使って研究中

Appleはポッドキャストの音声のなかから、吃音で話されている28,000のオーディオクリップを抽出しました。
 
そして、これらを利用し、話している人が吃音かどうかを自動的に検出する方法について研究しています。
 
また、このデータは吃音を含む非定型の音声パターンを持つ方たちのための音声認識システムを改善するのに役立てる予定だそうです。
 
Appleはすでに、2015年にHold to Talkと呼ばれる機能で、Siriに対してどれくらいの時間話し手の音声を聞いていてほしいかを制御できるようにしています。これは、話している途中で吃音を起こしたユーザーに対してSiriが処理を中断するのを防ぐのに役立ちます。
 
また、iOS11で導入されたType to Siriと呼ばれる機能により、音声を一切使わずにSiriを利用することも可能です。

GoogleとAmazonも非定型音声に対する改善を行う

非定型音声に対する取り込みを行っているのはAppleだけではありません。
 
Googleの”Project Euphonia”と呼ばれるプロジェクトでは、非定型音声パターンを持つ人々に対して、その人々の話し方を理解できるようにソフトウェアをトレーニング可能なプロトタイプアプリをテストしています。
 
また、AmazonはAlexa Fundが支援するイスラエルの新興企業であるVoiceittをAlexaに統合することを昨年12月に発表しました。Voiceittは、音声障害を持つ人々の発声パターンを認識するアルゴリズムを訓練するためのものです。
 
人がより自然にAIアシスタントに話しかけても、意図をくみ取ってくれる日が来るのは近いのかもしれません。

 
 
Source:The Wall Street Journal via MacRumors
(ハウザー)

この記事がお役に立ったらシェアお願いします

この記事を書いた人

本職はSoCの設計者。このためPCやスマホのHW/SW両方に造詣が深く、その知見に基づいた記事を執筆している。スマホ歴はiPhone4→(Android)→iPhone XR→13 Pro。

特集

目次