今や仕事でもプライベートでも無くてはならないスマホのナビやMAP。

今や仕事でもプライベートでも無くてはならないスマホのナビやMAP。

お茶目おやじの みっちょんパパです。

にほんブログ村


スマートフォンのグーグルの地図アプリなどで、誰もが毎日のように使うGPS。

GPSのお陰で知らない場所へ向かうときも、道に迷うことはほぼなくなりました。

しかしこのGPSはどうやって私たちの場所を正確に計測できるのでしょうか?

その原理は非常に単純で、昔からある三点測量という方法に基づいていて測量を行うために、32個もの人工衛星が絶えず地球を周回し、信号を送っているんですって。




人工と云えば、私にはちょっとついていけない話ですが・・。

ここ数年で「人工知能(AI)」という言葉はすっかり定着したよね。

iPhoneの「Siri」やGoogle Now、そして2015年7月末に登場して以来大人気となった「人工知能JKりんな」など、ユニークな人工知能が続々登場してきています。


小学3年の美幸まで知ってますからね~。

そんな中、Twitter上で人工知能が問題発言を連発し、ちょっとした騒ぎを巻き起こすという事件が発生したそうですよ。




※ 暴言を吐き始めた人工知能「Tay」
今回、Twitter上で「暴言」を吐いてしまったのは「Tay(テイ)」という名の会話型AI。

りんなと同様、マイクロソフト社によって開発された人工知能です。


Tayは「19歳の女子」という設定で、2016年3月24日にTwitter上でデビューしました。

「hellooooooo world!!!(世界のみんな、ハロー!!!)」
……とゴキゲンなツイートとともにお目見えし、はじめはユーザからの問いかけに対してフレンドリーに対応していたらしいです。

が・・次第に人種差別的発言などの「暴言」を繰り返すように……そして、ついに公開から16時間後に開発元のマイクロソフトによって一時的にアカウントが停止されてしまったのです。

※なぜ「Tay」は暴言を吐いてしまったのでしょうか?

Twitterユーザとの対話を通じて自然な会話を学習することを目的に開発された「Tay」が、なぜそのような問題発言を繰り返すようになってしまったのでしょうか?

現在のところ、その理由について正式なコメントは出されていませんが、複数のユーザーが繰り返しTayに差別的なセリフを語りかけた結果、Tayがそれらを覚えこんでしまったことが原因ではないかと考えられています。


Tayやりんなのようにユーザとテキストや音声などで会話するプログラムを「会話ボット(以下、ボット)」と呼びますが、こうしたボットは基本的には、「ユーザからの問いかけを理解し、それに適した答えを返す」という仕組みで動いているそうです。


ここで、「ボットの個性」はどんな問いかけに対してどのように振る舞うのかによって変わってくるのですが、Tayはユーザの発言から会話の仕方を学習します。

つまり「ユーザの色に染まりやすい」設計で作られていて、これが今回のトラブルの引き金になったようなのです。

要するに、もともとTayに暴言を吐くような機能が搭載されていたのではなく、心ないユーザによる悪意のいたずらによって、Tayが過激な差別主義者として洗脳されてしまったというわけですね。


今回のTayの事件は、私たちに大切な教訓を与えてくれました。


人工知能は、使い方によっては私たちの素敵なパートナーになりますが、一歩間違えると重大なトラブルを招く可能性も秘めています。


最近の人口知能の研究は進んでいて、同じ間違えを犯さなくなったと、ラジオで聞きましたよ。

人工知能が人類を滅ぼす」というSF映画でおなじみのテーマを現実のものにしてしまわないよう、まずは私たち人間が理性や節度をきちんと持ちたいものですね。

なお、人工知能の研究は、工学部、理工学部や情報系の学科などで行われているそうです。

和喜は理科系だから、興味をもったら人口知能の研究の為、そっちに進むのも有かもね。




この記事へのコメント