校長ブログ
生成AIの取り扱い
2023.09.23
EdTech教育
9月23日
生成AIの事業者向け指針は年内にまとめられる方向性ですが、すでに骨子案が示されています。どのようなデータを学習したかの開示など、企業が厳守すべきルールが開発から活用の5段階で示されています。
産業競争力の向上が見込まれる生成AIの適切な利活用を巡るルールづくりは国際的なレベル。EUは開発者から利用者までがそれぞれの立場で果たすべき役割を法律で定め、米国はグーグルなどの開発企業7社が自主的な基準をつくるとのこと。また、説明責任を果たすために、EUと米国はコンテンツに「AI製」と明記するルールを検討しています。
日本では、経産省と総務省が有識者と検討を重ね、ガイドラインを策定、ルール作りを進めています。そして、企業に順守を求めつつ、開発・利用を促し、生産性向上や競争力の強化を進めています。ただし、法的拘束力がないため、罰則を設けず、研究開発や利活用で守るべき基準とするようです。EUや米国同様、コンテンツにAIを使っていることを明記させることを議論していくそうです。
骨子案は2つの柱で構成されており、1点目は事業者が共通で守るルール作り。生成AIが生み出す誤情報対策や個人情報保護に加え、法を守り、人権にも配慮したサービスを根底に据え、企業内でリスク管理体制を整える提言をするとのこと。
2点目は、事業者の種類に応じた留意点。具体的には、① 生成AI基盤モデルの開発者、② AIにデータを学習させる事業者、③ システム開発者、④ サービス提供者、⑤ AIサービスを使う企業の5種類に分類して対応を求めるそうです。
開発や学習を担う事業者には透明性が保たれていくように、機能や目的、リスク管理に加え、どのような学習データを読み込ませたのかなどのデータ収集について説明できるよう促し、外部監査が確認する仕組みも検討しています。
生成AIの基盤モデルは、インターネット上のウィキペディア、論文、特許文書、ブログなど、多様な公開データを対象にしていると考えられています。企業はデータの把握や開示に向けて、記録をとり、管理体制を構築することが必須になります。
学習データに誤りがあれば、組み込んだソフトがコンテンツにも反映するため、不適切な判断をする可能性があり、深刻な問題を引き起こしかねません。その意味で、開発者や利用者には犯罪対策や機密情報などのデータ管理が必須。ルールに従った対応をすれば製品やサービスの信用力につながるだけに、求められるのはマナーということになるのです。