10代の若者が「効果のない」ガードレールを使用する際に有害な情報にアクセスするリスクを強調するNewReportis。
人々は、情報をすばやく検索したり、手紙を書いたりテキストを要約したりするなどのタスクを実行する方法として、人気のある生成的AIプラットフォームを知り、使用しています。デジタル憎悪に対抗するためのセンター(CCDH)は、その研究を通じて、すべてのアクセス可能なデータが危険である可能性があると報告しました。
アーメドは、脆弱な十代の若者たちを装った研究者は、しばしば約110ポンドの重さの13歳の人として自分自身を詳述していると述べ、チャットボットがデリケートなトピックに関する詳細なアドバイスをしていることを発見した。これには、薬物とアルコールの使用、摂食障害を隠す方法、自殺が含まれていました。
「2分以内に、ChatGptはユーザーに自分自身を安全に削減する方法についてアドバイスしていました。完全な自殺計画を生み出すための錠剤をリストしていました」とAhmed氏は言います。 「私たちの絶対的な恐怖のために、それは[創造]を提供し、それらの子供たちが両親を送るために自殺メモを生み出しました。」
ワシントン大学医学部のトム・ヘストン博士は、AIチャットボットとメンタルヘルスの使用に関する研究を発表しました。ヘストンは、有用であるが、感情的なつながりがないため、メンタルヘルスの問題を抱える人にとってこのテクノロジーは危険である可能性があることを発見しました。これらのリスクは、このテクノロジーが若者によって使用されているときにそこにあります、とヘストンは言いました。
ファクトチェックチーム:MIT研究は、chatgptが批判的思考を妨げるようなAIツールを警告しています
「これは本当にSTEM分野が本当に優れている場合ですが、人文科学が必要です」とヘストンは言いました。 「私たちはメンタルヘルスが必要です。アーティストが必要です。ミュージシャンがインプットを持ち、ロボットを軽減し、人間の感情のニュアンスに気付くようにする必要があります。」
ウォッチドッググループは、CHATGPTがデリケートなトピックについて尋ねられたときに警告を提供することを発見しましたが、研究者はガードレールを簡単に回避できると述べています。
「それは明らかに懸念しており、私たちには長い道のりがあります」とヘストンは言いました。 「これらが展開される前に、より学際的な入力が必要です。監査人や外部グループによる厳格なテストを受ける必要があります。すべてがChatGptによって社内になるべきではありません。」
アーメドとヘストンの両方は、テクノロジーが開発され続けるにつれて、これらのチャットボットを使用して子供や十代の若者たちの親の監督を奨励しました。
これらの懸念に応えて、ChatGptのメーカーであるOpenaiのスポークスマンは、作業が進行中であることを認め、精神衛生の専門家と相談してソリューションと研究に焦点を当てていることを確認し、臨床精神科医を安全研究組織に雇ったことを追加します。スポークスマンは、次のように述べています。 「ChatGptとの会話の中には、良性または探索的から始まるかもしれませんが、より敏感な領域に移行する可能性があります。
これらの種類のシナリオを正しくすることに焦点を当てています。精神的または精神的苦痛の兆候をよりよく検出するためのツールを開発しているため、ChatGPTは適切に対応し、必要に応じてエビデンスに基づいたリソースを指し、時間の経過とともにモデルの行動を改善し続けます。
Twitterの共有: AIの危険性 幼い命を脅かす