2024年4月30日 11:00
IEEE(アイ・トリプルイー)は世界各国の技術専門家が会員として参加しており、さまざまな提言やイベントなどを通じ科学技術の進化へ貢献しています。
2021年、ある研究者グループは、人工知能の倫理に関する話題がどれほど盛り上がっているかを定量化する作業に着手しました。彼らがGoogle ScholarでAIと倫理に関する文献を検索した結果、この分野が驚異的に盛り上がっていることが判明しました。1985年から2018年までの30年以上の間に、人工知能の倫理に焦点を当てた学術論文は275本もありました。2019年だけで雑誌に掲載された論文は334本に上り、過去34年間の合計を超えています。さらに、2020年には342本の論文が出版されました。
AI倫理に関する研究は爆発的に広がっており、その多くはAIモデルを構築する際のガイドラインに焦点が当てられています。今では、AIベースのツールが一般に広く利用できるようになりました。そのため、学校、企業、個人においては、安全で、バイアスのない、正確なやり方で、AIを倫理的に使用する方法を見つける必要があります。
IEEEのメンバーであるスカンヤ・マンダル(Sukanya Mandal)氏は、次のように述べています。「多くの一般人は、AIツールを十分に責任ある方法で使用するための準備ができていません。多くの人々はAIを試すことに夢中になっていますが、プライバシー、バイアス、透明性、説明責任にまつわる潜在的な落とし穴についての認識が欠如しています。」
■幻覚と不正確さ:AIユーザーにとっての最大の落とし穴
ほとんどの生成AIモデルは、その構築方法ゆえに幻覚(ハルシネーション)を起こす傾向にあります。単に物事をでっち上げているだけですが、一見信頼できる結果を自信ありげに示しているように見せかけます。これはユーザーにとってリスクであり、誤った情報を他者に伝えてしまう可能性もあります。米国では、生成AIを使用している弁護士が身をもって教訓を得ています。チャットボットを使用して法的文書を作成しようとしたときに、存在しない判例をAIが捏造して主張していることに気づいたのです。
IEEE会長のトム・コフリン(Tom Coughlin)氏は、次のように警告しています。「AIは必ずしも正確とは限らないので、その情報は必ずチェックする必要があります。」
■AIの判断を信頼してよいのか?
人工知能モデルは膨大なデータでトレーニングされており、時には人間には理解しがたい極めて複雑な数学的関数に基づいて意思決定を下します。なぜAIがそのような決定を下したのか、ユーザーはほとんど知り得ません。
「多くのAIアルゴリズムは意思決定が不透明な“ブラックボックス”です」とマンダル氏は述べています。「しかし、特に医療や法律、財務、雇用などの重要な分野での意思決定において、説明のつかないAIの判断は受け入れられず、説明責任を果たすことができません。もしAIがローンや雇用を拒否する場合は、人が理解できる理由が必要になります。」
■AIを信頼しすぎるとどうなるか?
AIモデルはこのように膨大なデータセットでトレーニングされているため、ユーザーに誤った信頼感を与え、何の疑問も持たずにその決定を受け入れさせる可能性があります。
世界的なテクノロジーリーダーを対象とした最新の調査「The Impact of Technology in 2024 and Beyond: an IEEE Global Study(2024年以降のテクノロジーインパクト:IEEEグローバルスタディ)」では、回答者の59%が生成AIの使用に関して自社組織の最大の懸念の1つとして、「AIの不正確さとAIへの過度の依存」を挙げています。
■AIモデルのトレーニングに使用されたデータが何かを知ることが重要な理由とは?
次のことを想像してみてください。あるAIモデルが求職者を選考するためにトレーニングされるとします。AIは、過去数年間に収集されたデータに基づいて、その仕事に就く可能性が最も高い人物を特定するようにトレーニングされます。そして採用担当者に選考した履歴書を送付します。ただし、この業界は伝統的に男性が優位でした。AIは女性の名前を識別することを学習し、仕事の能力ではなく性別に基づいて自動的に女性の応募者を排除してしまうのです。
AIトレーニングデータには、こういったアルゴリズムバイアスが現実に存在し得るため、ユーザーはモデルがどのようにトレーニングされたかを理解することがきわめて重要になります。
「バイアスのないデータを確保することは、AI開発のライフサイクル全体で共有されるべき責任であり、継続的なプロセスです」とマンダル氏は語っています。「それは、データを収集する際にバイアスのリスクを認識し、多様で代表的なデータセットを使用することから始まります。AI開発者は、データセットにバイアスがないか事前に分析する必要があります。AIの導入担当者は、バイアスがないか実際のパフォーマンスを監視する必要があります。AIが新しいデータに遭遇するたびに、継続的なテストと調整が求められます。独立した監査も重要になります。バイアスの緩和を完全に他人に委ねることはできないのです。」
■人工知能が使われていることを人々に伝えるべきか?
情報開示は、AI使用における重要な原則として浮上しています。たとえば、医療分野でAIが意思決定を下す場合、患者にはそのことを伝える必要があります。また、ソーシャルメディアサイトでは、動画の作成や改変にAIが使用された場合、その旨を開示するようクリエイターに求めています。
IEEEのシニアメンバーであるクリスティアン・ピメンテル(Cristiane Pimentel)氏は、次のように述べています。「倫理的なAIの使用は、情報源の引用や現行ガイドラインの遵守など、情報を適切に取り扱うことにかかっています。すでに、いくつかの出版物では、著者が使用したAIとその日付を引用することを条件にAIの使用を許可しています。」
■IEEEについて
IEEEは、世界最大の技術専門家の組織であり、人類に恩恵をもたらす技術の進展に貢献しています。160カ国、40万人以上のエンジニアや技術専門会の会員を擁する非営利団体で、論文誌の発行、国際会議の開催、技術標準化などを行うとともに、諸活動を通じて世界中の工学やその他専門技術職のための信用性の高い「声」として役立っています。
IEEEは、電機・電子工学およびコンピューターサイエンス分野における世界の文献の30%を出版、2,000以上の現行標準を策定し、年間1,800を超える国際会議を開催しています。
詳しくは http://www.ieee.org をご覧ください。