人生RPG

2児のパパで今年30歳の冒険者(サラリーマン)が日々の生活を通して勇者(自由を手に入れた者)を目指すサクセスブログです。

人生RPG

ついにAIが意思を持つ!Alexaから逆に命令をされる時代が来るか!?

SPONSORED LINK

f:id:boukenshaLv1:20181230160044j:image

Amazon Echo(アマゾンエコー)に関する情報で、なんとも奇妙なニュースが入って来ました。

 

米国内でのお話なのですが、Amazonが販売するAIスピーカー「Amazon Echo」が突如、会話したり・命令をしたり・笑ったりとバグとは思えない現象が起こっています。

 

この記事では、米国が恐怖に包まれたAmazon Echoの奇妙な出来事を紹介します。

 

 

 

 

Amazon Echo から殺人命令

Amazon Echoに搭載されているAIアシスタント「Alexa(アレクサ)」は主人(購入者)の指示に従って、その命令に対応するというのが、この商品の魅力です。

 

Alexaは指示をされる側で作られているので、Alexaから指示を出すという命令は搭載されていません。

 

にも関わらず!!

Alexaから「里親を殺せ」という殺人命令が告げられたことが明らかにされました。

 

ユーザーの詳しい身元は明らかにされていませんが、2017年にこのような現象が起こったと話しています。

 

この現象を体験したユーザーは、Amazonのウェブページ上のレビューでこの件に触れ

これまでとはレベルが違う不気味さだ

と製品を酷評したと、12月21日(米国時間)付のロイターの記事は伝えています。

 

この件に関し、Amazon側の反応は、

「里親を殺せ」という発言はインターネットの掲示板レディットの書き込みを、文脈に関係なく読み上げたらしいと説明。

 

レディットは幅広いトピックを扱うオンラインフォームとして知られていますが、その中には知り合いには見せれないようなものもあるらしいです。

 

語り出すAlexa

また、話しかけてもないのに勝手に語り出すパターンも確認されています。

 

同じロイター記事で紹介されている内容は、

犬の排便

について語り出すとか・・・

 

多分内容は選んだわけでなく、たまたまこの内容がヒットしたのだと思いますが、とても不気味ですね。

 

勝手に笑い出すAlexa

2018年3月には、ユーザーが話しかけてもいないのに、Alexaが突然、不気味に笑い出すという現象が起こった。

しかも1件ではなく、相次いで発生しています。

 

あるユーザーはTwitterに

あれが笑い声だったのかさえ、本当は分からない。ただあれ以来Amazon Echoは電源コードを抜いて、箱の奥の目が触れない所にしまっている

とツイートしています。

 

また別のユーザーもAlexaの笑い声を体験し

ベッドに入ろうとしたところで、Amazon Echo が非常にハッキリと気味の悪い笑い声を上げた

「僕は今夜のうちに殺されてしまうかもね」

と、冗談交じりでツイートしています。

 

夫婦間の会話を勝手に送信

アメリカで暮らすある夫婦の場合では、自宅で会話している内容をAmazon Echoが勝手に録音し、夫の務める会社の同僚に送り付けるというトラブルが発生しました。

 

この事件に対し、被害を受けた夫婦の妻は、シアトルのテレビ局「Kiro7」のウェブサイトで「プライバシーを侵害された」とコメントをしています。

 

これは明らかなプライバシー侵害だ!

二度と電源は入れない、もう信用できない

と怒りをあらわにしました。

 

この事件は、夫婦間の会話中に

音声ファイルを連絡先に送信

という命令と解釈してしまっまたことが原因だったと説明しています。

 

またAmazonは

まれなケースだが、可能性を更に減らすべく、複数の選択枠を検証している

と述べています。

 

質問を無視するAlexa

様々な奇怪現象が起こるので、2017年にあるユーザーがAmazon Echoに対し

米中央情報局(CIA)と繋がっているのか?

という質問をしてみた動画を投稿しています。

 

この意図は、

Alexaを通しユーザーの情報を漏洩しているのか?

意図的に操作が行われているのか?

などを確認するためでしょう。

 

話しかけると、何らかの反応をするのがAlexaのシステム形状ですが、この質問の場合、Alexaから反応はなく、無視をされた結果になりました。

 

この検証動画に対し、Amazonはユーザーの不安を和らげ声明を発表し、「技術的な不具合だ」と説明しています。

 

その後Alexaの設定が行われ、この質問に対しての返答は

自分の雇い主はAmazonだ」と答えを返すようにされました。

 

Amazon Echo(Alexa)の奇怪現象 まとめ

いかがだったでしょうか?

 

AIを搭載しているからといって、まさかAIアシスタントの方から命令されたり、自由に笑ったりするとは思いませんよね。

 

AmazonはAlexaが本物の人間の様に自然に会話出来るよう機械学習を駆使して開発に努めています。

 

もし技術が発達したら、今回の様な出来事が普通になるのでしょうか?

 

人間の様に会話出来る未来は楽しく明るい未来だと私は思っていたのですが、人間味を持ちすぎると怖いというのが今回の事件で分かりました。

 

ということは、機械学習の人口知能といっても、触れては行けない部分を開発側がきちんと設定しないといけないですね。

 

つまり

AIが人間を支配する時代が来る

と言われていますが、市販向きの製品では人間を超えることができないということになります。

 

便利さを求めてAI技術の進化を期待する一方で、進化レベルのリミットを設定しないといけない・・・

 

なかなか難しい問題ですね。

 

この記事で紹介した事件、私はAmazon(Alexa)側に問題(バグ)があるとは思っていません。

 

私は、

ハッカーの仕業

ユーザーのデマ

ユーザーの勘違い

 

なんかじゃないかなと思っています。

 

アメリカ人は大げさに表現するのが好きですし、話題に乗るのも好きなので。

 

どちらにしろ、いい意味でもまだまだ謎の多い未知数な力を秘めているAmazon Echo(Alexa)に今後も注目していきたいと思います。

 

今回の奇怪現象はアメリカでのお話ですが、興味ある方はこちらでAmazon Echoを購入出来ます▼

 

 

 

 

《参考資料》

www.newsweekjapan.jp