透明性を示し、影響力の高い AI 判断システムを指定する技術競争を超えた「信頼管理」がブックメーカーjリーグの課題
施行令の重要な点の 1 つは、生成 AI の結果を表示する義務です。人工知能基本法第 31 条により、AI 事業者は、その結果が AI によって作成されたものであることをユーザーに通知する必要があります。
法案では、表示方法を人間による認識方法と機械による読み取り方法に分けています。機械読み取り方法には、C2PA やメタデータ挿入などの技術的手段が利用されます。この方法を選択した場合でも、ユーザーにはAI製品であることがテキストまたは音声で少なくとも1回通知されます。
ただし、ディープフェイクなど現実と混同される可能性のあるコンテンツについて、既に別途通知・指摘がなされている場合、同一コンテンツの重複指摘は除外されます。透明性の要求を維持しつつ、事業者の負担にも一定の配慮をした措置と解釈されます。
人々の生命、身体、基本的権利に影響を与える可能性が高い、影響の大きい AI に関する規制も規定されています。この施行令では、ブックメーカーjリーグが自社のサービスが影響の大きい AI に該当するかどうかの確認を科学情報通信省に申請することが認められており、政府は最長 60 日以内に対応することが規定されている。
影響の大きい AI であるかどうかによって管理レベルと必要な文書の範囲が異なるため、業界はこの判断プロセスが実務上重要な基準点になると考えています。
ブックメーカーjリーグが注意を払うのは、他の法律との関係を確立することです。施行令では、事業者が個人情報保護法に基づく義務を誠実に履行すれば、個人情報処理の範囲内で人工知能基本法に基づく安全性と信頼性を確保する義務を履行したものとみなされるとしている。
AI サービス全体で複数の法律を同時に満たさなければならなかったブックメーカーjリーグにとって、重複した対応の負担を軽減できるという点で肯定的な評価があります。ただし、アルゴリズムによるリスク管理や個人情報領域外の説明に対するユーザーの責任が免除されるわけではありません。
施行令は技術的な実装を超えて、オペレーティング システム全体を規制します。事業者は、リスク管理計画、説明措置、利用者保護措置などを記載した関係書類を5年間保存しなければなりません。
海外ブックメーカーjリーグの場合、国内ユーザーを保護するために国内代理店を指定する義務も規定されています。グローバル AI モデルまたは API を使用する国内サービス会社も、サプライ チェーン レベルでの責任構造を検査する必要がある状況にあります。
累積学習計算量が10²⁶ FLOP以上の大規模AIモデルでは、リスクの特定と管理体制の構築が必須となります。現時点ではこの基準を満たす商用モデルは限られていますが、超大型AIの開発が加速すれば、適用範囲をめぐる議論は今後も続くと考えられます。)
特に、自社でモデルを開発していない場合でも、API の形で大規模なモデルを使用して生成的で影響力の高いサービスを提供するブックメーカーjリーグの責任範囲の解釈は、今後の課題として残ります。
政府は、法律施行後約1年以上の指導と猶予期間を設ける予定である。それにもかかわらず、業界にはかなりの緊張が存在します。 AIサービスはローンチ後にUXやシステム構造を変更するのに多大なコストと時間がかかるためです。
ディーセント法律事務所のチン・ヒョンス代表弁護士は、「立法通知が終了する時点から、当社のサービスが影響力の高いAIに該当するか生成AIに該当するかを確認する必要がある」とし、「表示義務をサービス画面にどのように反映させるか、関連文書をどのようなシステムで管理するかが2026年の施行までの準備の核心となる」と付け加えた。
2026年の人工知能枠組法の施行を前に、国内のAI業界は技術競争だけでなく信頼管理という新たな課題に直面している。システムの確立がイノベーションの障壁となるか、市場標準の再編に役割を果たすかは、ブックメーカーjリーグの対応次第です。
