ニュース

OpenAI、将来登場する超高性能AIには規制が必要と言及

 OpenAIは、今後登場するであろう汎用AI(AGI)やそれを凌ぐ性能を持つ超知能(Superintelligence)について意見を表明した。非常に高い能力を持つことになると思われるシステムに対し、監査や開発規制を行なう国際機関も必要になるだろうと言及している。

 これによれば、AIが今後10年以内にも、多くの分野で専門家のレベルを超えるようなスキルを手に入れ、現在の大企業と同等の生産活動を行なうようになると予想。AIや、それ以上の性能を持つような超知能は、これまでの人類が持つ技術よりも強力なものとなり、未来を劇的に豊かにできる一方で、リスクを管理する必要もあるとする。

 その上で、AIの発展を成功に導くための最初の考え方として、1.安全性と社会へのスムーズな統合を両立するためにある程度の調整が必要であること、2.一定以上の能力を持つものに対して、システムの監査や開発の程度の規制などを行なえる国際機関の設置(原子力におけるIAEAのようなもの)、3.超知能の安全を保つための技術力の3点を挙げた。

 現在のシステムは世の中に大きな価値をもたらし、そのリスクはほかのインターネット技術と同程度であるとし、基準以下の範囲であれば規制を受けずに開発を認められるべきだとしている。こういった基準はまだ存在しないような非常に高度なシステムを懸念したものだが、基準を全く満たさないような現在のシステムにも同様に適用することで、注目が薄れないようにする必要があるとしている。

 一方で、強力なAIに対する管理やその展開に関する決定については、公的監視が欠かせず、世界中の人々によって民主的に決められるべきだと強調。その範囲の中で、各ユーザーが自身の使うAIを広く制御できるべきだとも言及している。

 同社ではこういった考えに至った理由として、AI技術が多くの課題解決の助けとなり、社会を大きく改善しうることや、超知能の開発で得られるメリットが莫大なため、その構築コストが徐々に減少し、開発に参入する組織が急増することから、開発を阻止することが非常に困難だと考えられることを挙げている。