スポンサーリンク
2020年3月26日更新
Amazon Echoの聞き取りがうまくない気がしたら、えっと思った調査結果があった話。
amazon Echo, Echo Dot, Echo Show5についてのまとめはこちら。
Amazon Echoが来て半年が過ぎ、我が家のいつもの場所で音楽をかけてくれている。
使っていて最近思うのは、なかなかオーダをわかってくれない。
ちょっと前にテレビで「アレクサ!」という声に反応するが困るとかで、調整されたと思う。
そのあたりからだろうか、曲名やアーティスト名を言っても違う人に理解されることが多くなった。
他の人が話しているときに音楽の再生を話しても聞き取れない。
どうしたんだろ。
それと関係あるのか、こんな調査があった。
Google、AmazonのAlexa、Appleのsiriについての比較調査で、
調査をしたvocalize.aiは音声サービスのテストをしている。
テスト結果は人間の難聴レベルなど人間に例えているようだ。
テストでは4人が話す中での音声認識とピンクノイズがあるところでの音声認識が行われている。
ノイズレベルをだんだん上げていってどこで理解できなくなるかを調べたようだ。
Google、Apple、Amazonの順に小さなノイズでも誤りがちになり、
Amazon Echo Dotでは4人が話す中での認識は音声サービスに話す声のレペルから
14dB下とメジャな機器では最低な成績になっている。
ん、14dB下ってどういうこと?
dBとはデシベルとよむ。
電気や電波などの強さを示すときに使うが、音の大きさでも使われる。
値は基準との相対で、基準は通常の人の耳に聞こえる最小音の音圧2×10-5N/m2らしい。
14dBというと、声の大きさはおよそ6倍。
Echo Dotはかなり小さい周囲のノイズも拾って誤ったということだ。
一方の最高の成績のGoogle Maxは-1.5dBとなっている。
ノイズのほうが若干うるさくても正確に認識できたと言うことだろう。素晴らしい。
バックにあるAIの進化は当然必要なのだが、フロントのマイク性能も重要なのだろう。
ユーザエクスペリエンスを高めるには、最後にはマイクのチューニング、という気がする。
アナログなんだが、結局聞く人間が、アナログなので仕方ないのだろう。
PR