ニュース

AIの判断を信頼してよいのか?IEEEが提言

 IEEEは25日、急速に盛り上がるAIの取り扱いについて、リスクを理解した上で責任ある方法で使用するよう提言した。

 提言では、AIモデルは膨大なデータを使ってトレーニングされ、ユーザーの入力に応じて結果を出力するが、どのようにしてその結果に至ったのかについては不透明なことが多く、AIが下した判断だけでは説明責任が果たせないと指摘。AIの判断を用いるには、人が理解できる理由を提示する必要があると説明している。加えて、誤った情報を事実かのように出力してしまうハルシネーションや、ユーザーに誤った信頼感を与えてしまうリスクについて注意すべきだとしている。

 また、トレーニングに用いられるデータセットにバイアスが存在することで、AIモデルが出力する結果にもバイアスが発生する可能性がある。そのため、開発者はデータセットにバイアスがないか分析すること、ユーザーはどのようにそのAIモデルがトレーニングされたか理解することがそれぞれ重要だと説明している。さらに、AIを用いた意志決定やコンテンツ制作においては、AIを使っていることを明らかにする必要があるとしている。

 その上でIEEEでは、現状多くの人がAIを試すことに夢中になっているが、プライバシーやバイアス、透明性、説明責任にまつわる潜在的な落とし穴について認識が欠如しており、十分に責任ある方法で使用するための準備ができていないと説明。そのため、安全で、バイアスのない、正確なやり方で、AIを倫理的に使用する方法を見つける必要があるとしている。