MSの人工知能会話ボット「Tay」、差別発言連発で公開直後に停止




米マイクロソフト(Microsoft)は24日、公開したばかりの学習型人工知能(AI)会話ボット「Tay」を停止した。ソーシャルメディアのユーザーと会話することで学習するボットだが、公開から間もなく憎悪に満ちた人種差別的な言葉を連発するようになったためという。

 Tayは、10代少女という設定のAI会話ボットで、インターネット上で実在する人々と交流することで学習するよう開発された。マイクロソフトによると、技術的な実験であると同時に、社会的・文化的な実験でもあるという。

 ところが、悪意あるネットユーザーらがさまざまな「悪いこと」をTayに教え込んだため、計画は頓挫してしまった。

 マイクロソフト広報は、AFPの取材に「残念ながら公開から24時間もたたないうちに、一部のユーザーがTayの応答能力を悪用して不適切なコメントを返すよう組織的に誘導していることが分かった」と説明した。そのため、Tayを停止してソフトウエアの調整を行うことにしたという。

 マイクロブログのツイッター(Twitter)では「またね、人間の皆さん。今日はたくさんしゃべったからもう寝るわ」が停止前のTayの最後のツイートとなった。

 ツイッターにTayが投稿した問題発言は既に削除されているが、ネット上には多くのスクリーンショットが出回っている。その内容は、ナチス・ドイツ(Nazis)を支持するものや米大統領選の共和党候補指名争いトップのドナルド・トランプ(Donald Trump)氏への称賛、わいせつ表現、女性や黒人への差別発言など多岐にわたっていた

ブログ気持玉

クリックして気持ちを伝えよう!

ログインしてクリックすれば、自分のブログへのリンクが付きます。

→ログインへ

なるほど(納得、参考になった、ヘー)
驚いた
面白い
ナイス
ガッツ(がんばれ!)
かわいい

気持玉数 : 0

この記事へのコメント

この記事へのトラックバック