恐怖!SiriなどAIアシスタントが人が聞きとれないコマンドで勝手に操作される

Hey, Siri

Hey, Siri
 
AppleのSiriやAmazon Alexa、Google Assistantなど、スマートフォンやスマートスピーカーが搭載するAIアシスタントに話しかけ、操作することはいまや多くの人々にとって日常となりつつあります。しかし見知らぬ他人がわれわれの知らないうちにスマホに話しかけ、勝手に操作しているかも知れないのです。

隠しコマンドを聞き取り勝手に買い物?

米カリフォルニア大学バークレー校(UCバークレー)と米ジョージタウン大学の学生および研究者らは2年前から、これらAIアシスタントに人間の耳には聞き取れない隠しコマンドを送り、操作する実験を行なってきました。2016年に公開した実験では、大音量のスピーカーから流れるホワイトノイズやYouTubeの動画にコマンドを潜ませ、実際にスマートフォンを機内モードにしたり、Webサイトを開いたりしています。
 
そしてこの5月に公開された研究論文では、コマンドを音楽や音声に直接埋め込むという、さらに高度な実験の結果が報告されています。人の耳には単に音楽が流れている、または人が普通に会話しているようにしか聞こえないにも関わらず、Amazon Echoは隠されたコマンドを聞き取り、勝手にショッピングリストに商品を追加したのです。
 
商品をオンラインで購入する、鍵を開ける、銀行口座から送金するといった行為も可能となる可能性がある、と論文では指摘されています。
 
これはあくまで研究所内での実験ではありますが、論文の著者の1人であるUCバークレーの博士課程で学ぶニコラス・カーリニ氏は「悪意を持った人々がすでに実行している可能性がある」と述べています。

企業はセキュリティ対策をしているが…

スマートスピーカーを提供する企業もこの点は認識しており、Appleは自社のHomePodについて、「ドアを開ける」などのコマンドは使えないよう設計していると説明しています。またユーザー以外の他人が勝手に音声操作できないよう、iPhoneやiPadはロック解除をしないとSiriが使えない設定になっています。
 
Amazonは、詳細は明かせないとしているものの、Echoスマートスピーカーについて独自のセキュリティ規制を設けているとのことです。Googleも音声コマンドのセキュリティには注意を払っており、両企業ともにユーザー本人の音声だと認識しない限り、特定のコマンドには反応しないと述べています。
 
ただし現状では「音声認識システムは簡単にだまされる」と、New York Timesは警告しています。

「DolphinAttack」


 
昨年、米プリンストン大学と中国の浙江大学の研究者らが、音声認識システムを人間の耳には聞き取れない周波数を使って動作させる実験を披露しました
 
研究者らが「DolphinAttack」と呼ぶこの手法は、スマートデバイスに指示を出して悪意あるWebサイトを開き、電話をかけさせ、画像やテキストメッセージを送信させるというものです。DolphinAttackには、コマンドを送る送信機をスマートフォンなどの受信側の近くに置く必要があるという弱点があるものの、より強力な送信機を使えばある程度距離が離れていても操作可能となるでしょう。
 
実際、米イリノイ大学アーバナシャンペーン校の研究者らは今年4月、25フィート(約7.6メートル)離れた場所からコマンドを送ることに成功しています。コマンドは壁は通過しなかったものの、窓を開いた状態であれば、建物の外からスマートデバイスをコントロールすることができました。
 
前述のUCバークレーのカーリニ氏は、近いうちに「市場に出ているどんなスマートデバイスでも」隠しコマンドで操作できるようになると確信している、と語っています。またこの実験により「こういうことができるなら、できないようにしよう」という動きが出てくることを望むとも述べています。

 
 
Source:New York Times via MacRumors
(lunatic)

この記事がお役に立ったらシェアお願いします

この記事を書いた人

元某業界新聞社の記者。その後フリーライターとして各方面で執筆、英日翻訳家としての著書も多数。2014年から本メディアでライター、編集記者として活動中。アメリカ在住(現在は日本に滞在中)。iPhone使用歴は12年以上。

特集

目次