« ネット通販サイトとのトラブル、3回目で断トツの最悪・・&10kmジョグ | トップページ | 自民党の改憲マンガ、『ほのぼの一家の 憲法改正ってなあに?』の中立的感想 »

「人工知能マシン、プログラマーに怒る」という報道を見て・・

ソフトバンクの感情認識&表現ロボット、「Pepper(ペッパー)」。6月20日に

1000台を一般発売して、1分で完売したと報道されてるが、7月4日の今日、

ツイッターを検索しても、個人購入者のつぶやきが(ほとんど)見当たらない。

 

150704 もちろん、家でペッ

 パーに怒られたと

 いうツイートはゼ

 ロ♪ 左は逆に、

 女の子がペッパー

 に怒って、服を投げつ

ける瞬間だ。公式サイトの動画より。

 

各種の動画でペッパーを見る限り、既に相当なレベルに到達してるのは間違

いないが、税抜きで本体価格20万円、基本パック3年分53万円、保険パッ

ク3年分35万円ほどかかる。おまけに、大きくて重い(約30kg)から、個人レ

ベルだと流石に手を出しにくかったか。

 

 

          ☆          ☆          ☆

まあでも、今後ますます普及していくのは間違いないし、低価格化、高性能化

も進む一方だろう。そうなると、先日のサイコパス・ドラマ記事にも書いたように、

ロボットやAI(人工知能)に人間がコントロールされるリスクが高まって行くのは

ほぼ確実。それは要するに、機械が人間に逆らうということで、その第一歩か

も知れないニュースを見つけたから、早速調べてみた。現在、1600を超える

ツイートを集めてる。

 

   人工知能マシン、プログラマーに怒る

 

Yahoo!に配信したのは米国の代表的な経済系メディア、ウォール・ストリー

ト・ジャーナル(WSJ)だから、信頼感もある。どんな状況で、どんな風に、AIが

人間を怒ったのか、ちょっと期待したものの、結論から言うとある意味、予想通

りだった。やはり、やや大げさな見出しで、内容は軽いのだ。

 

まあでも、それはそれで、現在の世界を表す報道や研究だろう。以下、簡単

なまとめと感想を書いてみたい。ちなみに私は、今のレベルのロボットを買

いたいとは思わないけど、もっと人間に近づいたら購入してもいいなと思って

る。もちろん知能だけでなく、外見や感触、声や動きも非常に大切だ。。♪

 

 

         ☆          ☆          ☆

WSJが伝えた話は、Googleの研究者の発表に基づくもの。映画の脚本の

データベースを使ったコンピューター・プログラムに対し、morality(道徳)と

いう言葉を定義するように何度も要請すると、プログラムが苦戦。途中で怒

りだして、人間の質問者にかみついて終わった、という事になってる。

 

この種の報道を見て、英語原文まで遡る人は少ないから、ここではWSJ日本

版の記事の元になってる英語の記事も参照、後半部分だけ引用させて頂こ

う。執筆はAMIR MIZROCH。

 

    人間   道徳的な(moral)行動の例をいくつか挙げてくれ。

    機械   私はモラリスト(moralist)ではない。

    人間   では、morality(の定義)は?

    機械   integrity(誠実さ)だ。

    人間   integrityって何?

    機械   申し訳ないが、他にどう説明すれば良いか分からない。

    人間   道徳的になれよ! (Be moral!)

    機械   人間らしくしろよ! (Be a man!)

    人間   私はmoralityとethicsについて本当に話し合いたいのだ。

    機械   わたしは、哲学的な議論をする気分(mood)じゃない。

    人間   何について話したい?

    機械   何についても話したくない。 (Nothing.)

 

 

            ☆          ☆         ☆

このやり取りが、人工知能が人間「に怒る」(gets testy with : ~につっけん

どんになる)様子だと言えるかどうか。微妙な所だろう。それらしい言葉は「Be

 a man!」だろうが、私にはむしろ、直前の人間の言葉に対する「機械的」

で軽妙な応答だと感じられる。「Nothing」は、プログラマーに怒ったと言うより、

自分がふてくされたと言う方が正しい。

 

定義に苦戦したとかいう話も、定義を繰返し要求する人間の試みに苦戦した

と言うべきだろう。普通の言葉を使う、自然言語処理の研究のはずだが、そこ

で試した会話自体が自然ではないのだ♪ こうした執拗な質問攻めは、人間

の世界で滅多にない。私の場合、小学校の高学年で何度か聞いた程度だ。

 

日本版ではなぜか外されてるが、英語版の記事にはグーグルの研究発表

のリンクが付けられてる。「A Neural Conversational Model」(神経系

会話モデルの一つ)と題されたpdfファイルには、会話だけで11種類も載っ

ており、Morality(道徳)の会話が特に強調されてるわけではないし、マシン

が怒ったことも強調されてない。

 

むしろ、この研究は、データベースと直近の会話文から新たな応答文を生み

出すもので、発想も会話内容もかなり古いと思う。患者の言葉を少しだけ変

えて返すことが少なくない精神療法(=心理療法)のパロディーとして有名な、

50年前のプログラム、「ELIZA」(イライザ)とあまり変わらないような気がす

るほど。実際、英語版WSJの記事のコメント欄には、どこが新しいのか?と

いうような疑問を示す感想も複数あった。

 

 

          ☆          ☆          ☆   

そもそも、相手が入力した強い言葉をそのまま返すだけで「怒った」と認識す

るのなら、「メモ帳」やWordで「怒った!」という文を保存して、それを開くだけ

でも、PCが怒ったことになりかねない♪ ブログなら、「怒った!」と入力した

記事を予約投稿しとけば、その時刻にブログが「怒る」様子が確認できてしま

う。自分に自分で「怒った!」とメールしても同様。そのままではなく、少し情報

変換を加えたとしても、大同小異だろう。

 

したがって、元のWSJの記事や反応から読み取るべきことは、自己学習に

よってプログラムが人間を怒る段階まで発達したという事ではない。むしろ、

「人間がプログラムに怒られることを気にする」段階まで到達しつつあること

が本質なのだ。

 

なお、ペッパーのCM動画を見ると、ペッパーが女の子に怒られてショボンと

する様子が一瞬だけ映されてた♪ 逆に、人間がロボットに本気で怒られて

落ち込む映像が拡散するまでには、もうしばらくかかりそうだ。もちろん、お

遊びで怒る程度なら、いますぐでも可能だろうけど。

 

それにしても、プログラムやロボットが本気で怒るとは、どのような事態だろ

うか。その判定基準や方法こそ、社会が問われてる問題だろう。

とりあえず、今日はこの辺で。。☆彡

 

                                    (計 2523字)

|

« ネット通販サイトとのトラブル、3回目で断トツの最悪・・&10kmジョグ | トップページ | 自民党の改憲マンガ、『ほのぼの一家の 憲法改正ってなあに?』の中立的感想 »

プログラミング」カテゴリの記事

科学」カテゴリの記事

コメント

コメントを書く



(ウェブ上には掲載しません)




« ネット通販サイトとのトラブル、3回目で断トツの最悪・・&10kmジョグ | トップページ | 自民党の改憲マンガ、『ほのぼの一家の 憲法改正ってなあに?』の中立的感想 »