AIを監視する3つのステップ
しかもそれらの基準が適用されるのは、主として炭疽菌や鳥インフルエンザのウイルスなど、政府が潜在的リスクのある病原体リストに含めた細菌やウイルスに限られる。
このように監視対象を狭く絞ると、人々を十分に守れなくなる。コロナウイルスのようなありふれたウイルスも、変異によりパンデミックを引き起こすことは周知のとおりだ。
NSABBは最近、遺伝子研究の監視対象を大幅に拡大するようバイデン政権に提言した。提言書は、制御不能なほど感染が拡大し得るか、強力な感染性または致死性を獲得し得る病原体、さらには公衆衛生および国家安全保障に深刻な脅威を及ぼし得る病原体を扱う実験などを監視すべきだと述べている。
議会の複数の委員会でも、バイオテック業界に安全性の確保をより厳しく求める動きが活発化している。にもかかわらず、バイオ分野の安全対策は初動の遅れを今も挽回できていない。
AI研究者、起業家、規制当局はバイオテック分野の教訓を肝に銘じるべきだ。今すぐ潜在的リスクを評価し、安全対策を立案する作業に着手すること。意図的な悪用であれ意図せぬ弊害であれ、社会を揺るがす問題が起きてからでは手遅れだ。複数の機関が連携して研究開発を監視する制度を設計し、技術の進歩に伴って必要な修正を加えていく必要がある。
具体的なステップは以下のとおり。
①生成AIには潜在的リスクがあり、透明性の高い非排他的な監視体制を整備する必要があることを、テック部門のステークホルダー、政府、学界、さらには一般の人々が認識し、社会全体が責任を持って、この新技術が安全に活用され、大きな便益がもたらされるようにする。
②生成AIのプラットフォームとプログラムが公共善を最大化し、弊害を最小化するものとなるよう、ステークホルダーは直ちに具体的かつ一律に適用される倫理指針の作成に着手する。
③国の諮問委員会を直ちに設置する。これはAIの専門家に限らず、倫理学をはじめ多分野の学者、市民の代表、宗教指導者など多様なメンバーで構成する組織で、政府や研究機関、企業にAIプログラムの開発と進化に関する倫理指針を示す役割を担う。
冒頭で紹介したシドニーのエピソードのように、AIは私たちをびっくりさせるような能力を秘めている。それが楽しい驚きならいいが、いつもそうとは限らない。
AIの驚きの能力が個人や社会を破滅に導くことがないよう、万全の対策が急務だ。