政府はこのほど、第11回AI(人工知能)戦略会議・第1回AI制度研究会合同会議を開催、AI政策の現状と制度課題について議論が行われた。昨年来、政府は国内事業者向けガイドラインの策定、AIセーフティ・インスティテュートの創設や「広島AIプロセス」での国際的指針の合意等に取り組んできたが、新たな研究会の立ち上げに合わせ、法制度の要否も含む制度の在り方の議論を本格化させる。
欧米でも、ソフトロー(標準、ガイドライン等)とハードロー(法令)の組合せが模索されており、EU理事会は2024年5月に、主に人権侵害、差別・偏見リスクを重大リスクと捉えAI法案を採択。米国は、昨年10月大統領令を発出し、イノベーション促進とリスク対応を各省庁に指示。国防等の既存法令を活用し、主として安全保障の観点から、大規模汎用AIモデル等の開発企業に報告義務を課した。
政府は同様に、リスク対応とイノベーション促進の両立を基本原則にしながら、変化の速さに対応できる柔軟な制度の設計、国際的な指針への準拠、政府によるAIの適正な調達と利用を、今後の議論のポイントに挙げている。有識者や専門家の議論を経て、今秋に中間とりまとめを発表する予定。
■参考:内閣府|AI戦略会議(第11回)・AI制度研究会(第1回)※合同開催|
https://www8.cao.go.jp/cstp/ai/ai_senryaku/11kai/11kai.html