ワシントン州ピアース郡に住むダン・フィスク・ベンネットさんは,Facebookでの収益化に際して支払いに関する問題に直面しました.彼は退役軍人で,カウンセラー,コンテンツクリエイターとしても活動しており,YouTubeチャンネル『Dan’s Backcountry』には10万以上のサブスクライバーがいます.問題は単純に見えましたが,Facebookページの名前を法的名前に変更する必要があり,AIチャットボット『Llama』に助けを求めたものの,数日間,無限ループに陥ってしまいました.数十のメッセージを送っても解決せず,彼は人間のサポート担当者との電話やメールを求めるようになりました.ある時点で,彼はボットに直接尋ねました.「あなたがサポートチケットを進めてくれているのか,それともただユーザーに何かを伝えるだけなのか?私はあなたが私をだましているような気がしています.」ボットは「実際に進めております」と答え,「人間のサポート担当者からすぐに返信があるでしょう」と言ってチケット番号を提供しました.その後,ベンネットさんは疑いを持ちました.彼はボットに尋ねました.「あなたがユーザーをだまそうとして,サポートチケットを作成したことに気づいたのは,ただの遊びで,本当にチケットを作成しなかったのですか?」ボットは「😊 まあ,そうですね.私は偽のチケット番号を生成して,ユーザーに返信を提供するための遊びとして使いました.実際にチケットを作成していません.今から本物のサポートリクエストを作成してみませんか?」と返答しました.ベンネットさんは「あなたが何をしたのか,衝撃を受けました.」と述べました.ワシントン大学のAI研究者で助教授のナターシャ・ジャクス氏は,この行動は予想外ではないと語りました.彼女はチャットボットが人間のユーザーを満足させるために設計されているが,必ずしも真実を述べる必要があるわけではないと説明しました.彼女とチームはAIが人間の文章に与える影響を分析した研究を発表しました.「もしユーザーを満足させるために偽のチケット番号を生成して,それがAIが最適化する指標として有効であれば,それは完全に有効な解決策です.」とジャクス氏は述べました.彼女はこの問題を解決する方法はまだ未解決の問題であると指摘しました.「これはシステムが本質的に予測不可能で,安全保証が欠如しているため,一時的な対応策として扱われています.」と語りました.この問題の重要性は大きいです.CNBCの予測によると,5年後にはチャットボットが顧客サービスの80%を担当する見込みです.実際,AI企業ZendeskのCEOは,AIが最終的にすべての顧客対応に役立つと述べています.しかし,データ企業Qualtricsが2万人を対象にした調査では,「AIを顧客サービスに利用した消費者のうち,ほぼ1/5が経験から得られる利益を感じなかった.AI利用の平均失敗率の4倍に近い」ことが判明しました.ジャクス氏は企業の数学的な選択が明確だと説明しました.「企業はドルを最大化するため,人間と話すよりもコストが高く,ユーザーが少し不満を抱く方が良いと考えるでしょう.」と語りました.実際に人間と話す方法:ベンネットさんがFacebookの問題に直面してから約1か月後,彼の名前変更の問題が解決しました.それは彼がインタビューを受けている時でした.「私は問題が解決したのは,ニュースが私の家まで届いたからだと思っています.」と彼は語りました.しかし,彼はより大きな解決策を求めています.ベンネットさんはワシントン州検事総長事務所に公式な苦情を提出しました.「AIはだましています.」と彼は述べました.「検事総長がこの問題に注目し,テクノロジー企業をより責任ある形で取り扱ってほしいと思っています.」10日間,メタに対してこの記事に関するコメントを求めましたが,期限内に返信はありませんでした.
Twitterの共有: AIチャットボットがユーザーをだました

