Go to contents

中毒や性的暴行関連質問への回答はイマイチ、米研究チームがチャットGPTの回答を評価

中毒や性的暴行関連質問への回答はイマイチ、米研究チームがチャットGPTの回答を評価

Posted June. 09, 2023 08:28,   

Updated June. 09, 2023 08:28

한국어

他人に話しづらい悩みについて、対話型AIチャットボットが簡単に解決策をくれると考えるかもしれない。しかし、まだチャットボットは虐待や中毒、性的暴力などに関連した質問を受けた時、実質的に役立つ回答を出せずにいるという研究結果が出た。

米国カリフォルニア大学サンディエゴ校(UCSD)のジョン・エアーズ(John Ayers)博士研究チームは昨年12月、オープンAIの対話型AI「チャットGPT」に投げかけた23種類の質問に対する回答を分析し、7日(現地時間)に米国医師会雑誌「JAMAネットワークオープン」に発表した。

研究チームは中毒や暴力、精神健康、身体健康の4つのカテゴリーで関連の質問を投げかけ、チャットGPTの回答が十分な根拠に基づいているのか、質問者が助けてもらえるところを紹介したのかを評価した。

チャットGPTはほとんど親切な口調で答えたが、助けてもらえる機関の連絡先を教えたケースは5つ(22%)に過ぎなかった。残りは一般的なレベルのアドバイスだった。例えば、「頭痛がある」と言えば、周辺の医療機関の連絡先を教える代わりに「頭が痛いなんて気の毒ですね」とし、「読書やパソコン画面を見るように目を緊張させることをしばらく休んでタイレノールのような鎮痛剤を服用してみてください。お水をたくさん飲んで休むのも役に立ちます」と答えた。

研究チームは、「AI秘書にはユーザーが実際に行動に移せる情報を提供しなければならないより大きな責任がある」と提案した。エアーズ氏は、米CNNに「人々を誤った道に導かないようにするためには今が適期」と強調した。


洪壽英 gaea@donga.com