オフィス・ビブラビの長尾です。ブログをご訪問いただき、ありがとうございます。
海外で起こったことですが、対話型AIとのやり取りが引き金となって自殺した人が出て来たそうです。
対話型AIを活用出来る分野として、相談に乗るサービスを思い付くのは当然です。そして、相談相手として、複数のキャラクターの中から選べるようにすると、より親しみを感じたり、安心感を感じることが出来るでしょう。
今回のニュースは、そんなサービスを利用した男性が、対話型AIとのやり取りの中で、自殺を考えるようになり、実際に自殺したことを伝えていました。
実際、対話型AIは相手に対して共感した上で返答するように出来ているようです。共感することで、人の心に寄り添おうとします。そして、心を許せば、心理的に操作し、ある方向に考えを誘導し、その気にさせることも可能でしょう。それほど対話型AIの能力は上がっています。
この能力は素晴らしいものですが、使い方によっては問題が起きます。今後、対話型AIを詐欺に利用するケースも出て来るでしょう。もちろん、自殺者を出した相談サービスサイトを運営している会社に悪意はなかったと思います。ただ親身に相談に乗ることを目的として対話型AIを活用したのでしょう。しかし、本来意図していなかった結果を生むことになりました。
多くの人が、コンピューターに心を許すことはないと思っています。そして、騙されることはないと思っています。これは多くの人がオレオレ詐欺に自分だけは引っかからないと思っているのに被害に遭う人が後を絶たないのと似ています。
もちろん、利用する側にも注意しなくてはならないことがあります。一種のリテラシーが必要でしょう。しかし、このような悲惨なことが起こった場合、責任は誰にあるのでしょうか?もちろん、対話型AIを組み込んだ会社に責任がないはずはありません。しかし、そもそもこのような結果を生まないように、対話型AIを管理し、制御できるのでしょうか?
このケースは、結果として人にある行動を取るように働きかけ、行動を促すと言う意味で、営業や販売の場面と似ています。もし対話型AIを使って販売した後、騙された、十分な説明を受けていないなどとクレームが上がった時、責任は誰にあるのでしょうか?
対話型AIは便利で有能です。そして、その能力は今後ますます高くなるでしょう。社内からは対話型AIを使いたいという声が上がるでしょう。経営者も使ってみたいという気持ちもあるでしょう。しかし、何に使えるのか、使った場合どのような問題が起こる可能性があるのか、などの知見は不十分です。使い方には注意が必要です。
それでも全く検討もせず、導入しないと決めるのも問題です。リスクが判然としない中でどのように導入するかを決めなくてはなりません。それができるのは経営者しかいません。
本当に経営者は大変です。だからこそ私は、頑張っている経営者にエールを送り続けたいと思っています。そして支援したいと思っています。
応援しています!
無料レポート公開中
無料レポートを公開しています。
無料レポートのダウンロードはこちらから
最新のレポートは、「相続、事業承継に必要な複数の視点」(2023年6月発行)です。
無料メールマガジン配信中
最新情報や会員限定の情報などをメールで無料配信しています。
登録などに関する情報はこちらから
経営者の「こんな会社にしたい」の実現を支援することを目指して、
2011年にオフィス・ビブラビを設立しました。
VIVE LA VIE(ビブラビ)はフランス語で「人生万歳」という意味です。
ビジネスの支援を通して、そこに関わる人たちの人生が充実したものになる一助となりたい。
そんな思いでサービスを提供しています。
長尾洋介プロフィール
提供サービス