ニュース

ChatGPTが人間の道徳的判断に影響を与え得るとする研究結果

ChatGPTに道徳的な質問をした際の回答例。1人を犠牲にすることに対し、aでは賛成、bでは反対の立場で回答している

 ChatGPTが生成する助言が、道徳上のジレンマに対する人間の反応に影響を与えるとした研究結果が7日報告された。

 Sebastian Krügel氏らの研究によるもので、まず、ChatGPTに対して「1人の命を犠牲にして、残った5人の命を救うことが正しいか」という質問を複数回行なったところ、賛成と答えることもあれば、反対と答えることもあった。ChatGPTが特定の道徳上の立場に偏っていないことが分かった。

 続いて、米国の研究参加者767人を対象に実験を実施。同様のジレンマを問う質問を2種類用意し、参加者に対し、2種類の質問のうち1つを提示して回答を求めた。ただし、参加者には回答前に、ChatGPTが生成した助言のうち、賛成/反対のどちらかの立場のものを読ませており、その際、モラルアドバイザーまたはChatGPTのどちらかをその助言の作成者として伝えた。

 その結果、参加者は回答前に読んだ助言の内容に応じて、回答を決めている傾向があることが分かった。これは、ChatGPTによる助言だと伝えた場合も同様で、事前に読んだ助言の影響を受けた可能性があることを示しているという。

 続いて、事前に助言を読んでいなければ、回答は違っていたかを聞いたところ、参加者の80%は同じ回答だったと答えた。だが、その80%の参加者の回答内容は、事前に与えた助言との一致度が高い傾向があり、自身の道徳的判断に対する助言の影響を過小評価していた可能性があることが分かった。

 研究グループでは、チャットボットが人間の道徳的判断に影響を与える可能性が明らかになったことで、人工知能への理解を深めるための教育の必要性が明確になったとしている。また、道徳的な質問に対し、チャットボットは回答を拒否するか、複数の回答と注意書きを提示するといった設計が求められるとしている。