委託先の生成AI利用で失敗しない:契約・ログ・監査証跡を最小セットで整える方法(情シス・監査・リスク管理向け)

委託先が生成AIを使うと、データの扱いが不透明になりがちです。契約で確認すべき10の質問、ログ保存の設計、監査証跡パックの運用まで、情シス・監査・リスク管理担当者向けに、経産省ガイドラインに基づいた実務手順を解説します。

結論:委託先の生成AI利用は「契約・ログ・証跡パック」を先に固めるのが最短です

委託先(ベンダー)が生成AIを使う案件は、成果物の品質より先に、**データの扱い(インプット)証跡(ログ)**が監査・炎上ポイントになります。 最初に「監査に耐える最小セット」を合意しておくと、導入後の揉め事と手戻りが激減します。経済産業省も生成AI普及を背景に、契約で確認すべきポイントをチェックリストとして整理しています。

最小セット(まずこれだけ)-契約:入力データの利用範囲(学習利用の有無、再利用、第三者提供、削除)/監査条項/ログ保存

  • ログ:誰が・いつ・何を入れ(可能なら要約/マスキング)・何が出たか、の追跡ができる形
  • 証跡パック:委託先から定期的にもらう「説明資料一式」(運用・設定・事故対応・下請け有無 など)今日できる次のアクション(30分)
  1. 今の案件を「入力が学習に使われる/使われない」に分類する
  2. 委託先に「入力が学習に使われますか?」を文書で回答してもらう
  3. 監査用に「ログを何カ月、どこに、誰が見られるか」を決める

個人情報が絡む場合は、個人情報保護委員会の注意喚起も必ず確認してください。

理由:現場で起きがちな失敗は「3つのズレ」です

ズレ1:委託先が入力データを"学習目的"で使っているかが曖昧

生成AIでは、入力(プロンプト等)が学習に使われるかどうかで、リスクが大きく変わります。 個人情報保護委員会は、個人情報を含むプロンプト入力は利用目的の範囲内か確認すること、さらに本人同意なく個人データが「応答以外の目的」で取り扱われる可能性がある場合は違反になり得るため、提供事業者が学習に使わない等を確認するよう注意しています。

ズレ2:監査・インシデント時に「説明できる証拠」が残っていない

「なぜその出力になったか」「誰がどのデータを入れたか」を示す材料がないと、監査だけでなく、事故対応(漏えい疑い、誤情報拡散、著作権指摘)で詰みます。 EUのAI法(AI Act)でも、高リスクAIではログ(記録)を技術的に可能にし、一定期間保持する考え方が明文化されています。日本企業でもEU向け事業がある場合は要確認です。

ズレ3:社内ガバナンスと委託先管理が分断される

日本の「AI事業者ガイドライン」は、企業の対策をリスクベースで考え、状況変化に合わせて更新する“Living Document”として運用する方針を示しています。委託先管理も「一度契約して終わり」にせず、定期見直しが前提になります。

手順:委託先の生成AI利用を監査対応までつなぐ「4ステップ」

ステップ0:用語を揃える(5分)

まず、委託先と同じ言葉で話すために定義を置きます(契約にもそのまま使えます)。

  • インプット:生成AIに渡す入力(プロンプト、添付ファイル、DB抽出、ログ等)
  • アウトプット:生成AIの出力(文章、要約、コード、分類結果等)
  • 学習目的利用:インプット等がモデル改善(再学習)に使われること(範囲は要確認)

経済産業省の「AIの利用・開発に関する契約チェックリスト」も、インプット/アウトプット、セキュリティ、監査条項、ログ保存などを論点として整理しています。

ステップ1:案件を3類型に分類する(15分)

「委託先がどの生成AIをどう使うか」を、まず粗く分類します。分類できない案件は、監査で説明もしにくいです。

類型 典型例 最初に決めること
A. インプットが“汎用的な学習目的”で使われる 低価格の外部生成AIをそのまま利用 入力禁止データ/同意・法務判断(要確認)/代替案
B. サービス提供に必要な範囲で学習に使われる 提供者が品質改善のために限定利用 “必要範囲”の定義、除外手段、ログ・削除
C. インプットは学習に使われない 企業向けプラン、専用環境、オンプレ/閉域 それを担保する契約条項と証跡(設定資料)

チェックリストでも、インプットが学習に使われる/使われないケースを分けて整理しています。

ステップ2:委託先に必ず聞く「10の質問」(30分)

回答は口頭ではなく文書で回収します(そのまま監査証跡になります)。データ・学習

  1. インプットは学習に使われますか(A/B/Cどれですか)
  2. 学習に使わない設定があるなら、設定画面/仕様で証明できますか
  3. 入力データはどこに保存され、保存期間は何日ですか(ログ含む)
  4. 入力データは第三者(下請け、クラウド、モデル提供者)に渡りますか
  5. 個人データが入る可能性がある前提で、応答以外目的で取り扱われませんか

セキュリティ・運用 6. アクセス制御(誰が閲覧できるか)と監査ログ(誰が見たか)は取れますか 7. インシデント時の連絡SLA(何時間以内)は決められますか 8. モデル/サービスの仕様変更(規約改定含む)を事前通知できますか(何日前) 9. 生成物(アウトプット)の権利帰属と再利用条件は何ですか 10. 監査対応として、どの資料を提出できますか(年1回など)

ステップ3:契約に入れる「最小条項セット」(60分でドラフトの骨子まで)

法務が条文化しますが、情シス・監査・リスク管理は「論点の落とし穴」を埋める役です。経済産業省は、生成AI普及を踏まえ、契約時にチェックすべきポイントを具体化した資料を公開しています。

(1)インプット条項

  • 学習利用の有無(A/B/C)と範囲
  • 禁止データ(例:顧客名簿、要配慮情報、認証情報、未公開財務 等)
  • 保存期間、削除、返却
  • 第三者提供・再委託の条件(事前承諾、一覧提出)

(2)ログ条項(監査に効く)

  • 取得対象:利用者ID、日時、対象システム、入出力の識別子、エラー、権限変更
  • 保持期間:業務・監査要件に合わせる(長すぎると別リスク)
  • 閲覧権限:最小権限、閲覧ログも残す
  • 提出:監査・事故時に提出できる形式(CSV等)

(3)監査条項

  • 年1回の資料提出(証跡パック)
  • 重大事故時の臨時監査・報告
  • サブプロセッサ(下請け)変更時の通知

(4)個人情報・国外移転 チェックリストは、個人情報保護法の観点(国内第三者提供・国外提供の整理)も論点として扱っています。案件のデータ内容と提供先で結論が変わるため、早めに法務へ確認を依頼します。

ステップ4:監査に強い「証跡パック」を運用で回す(導入後)

契約だけでは足りません。運用で“出せる形”にします。

証跡パック(四半期または半期で更新)

  • 生成AI利用のユースケース一覧(目的、担当部門、データ種別、類型A/B/C)
  • データフロー(どこからどこへ:社内→委託先→モデル提供者 など)
  • 設定証跡(学習オプトアウト設定、保存期間設定、アクセス権限)
  • ログ仕様(取得項目、保持期間、保管場所、閲覧権限)
  • インシデント記録(問い合わせ、誤出力、漏えい疑い、是正)
  • 下請け一覧と変更履歴

マネジメントシステムとして整えるなら、ISO/IEC 42001(AIマネジメントシステム)を参照すると「方針→運用→見直し」の形に落とし込みやすいです。

注意点:断言せず「要確認」を残すべきポイント

  • 個人情報を含む入力は、委託先任せにしない 個人情報保護委員会は、個人情報を含むプロンプト入力時の留意点として、利用目的の範囲確認や、応答以外目的で取り扱われないことの確認を挙げています。社内ルール(入力禁止データ)とセットで運用してください。

  • ログは"多ければ良い"ではありません ログは監査に効きますが、機密や個人情報を抱え込みます。保持期間、マスキング、閲覧権限を必ず設計してください。EU向け事業がある場合は、AI法がログ保持に言及しているため整合を確認する必要があります。

  • 「Living Document」前提で見直す AI事業者ガイドラインは、変化の速さを前提に更新する方針を示しています。委託先管理も、年1回は質問票・契約・証跡パックを見直す運用にしてください。

  • 条文の"穴"はたいてい再委託と規約改定にあります 下請け(サブプロセッサ)が増えると、データの流れが追えなくなります。規約改定で学習利用条件が変わることもあります。通知・拒否・解約条件を「最初から」入れるのが安全です。どこまで入れられるかは交渉力次第ですが、早い段階で論点として提示することが重要です。

用語解説(最低限)

  • 委託先管理:外注・ベンダー・SaaS提供者など、社外がAIを扱う場面の統制。
  • 監査証跡:あとから第三者に説明できる根拠(契約、ログ、設定証明、手順書、記録)。
  • リスクベース:リスクの大きさに応じて対策を変える考え方(全件フル対応にしない)。
  • AIMS:AIマネジメントシステム。AIに関する方針・手順・見直しを組織として回す仕組み。

参考(公式・一次情報中心)

  • 経済産業省「AIの利用・開発に関する契約チェックリスト」(2025年2月公表)
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等」(2023年6月2日)
  • 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(2025年3月28日)
  • NIST “AI Risk Management Framework (AI RMF 1.0)”(Framework公開:2023年1月26日、関連リソース更新あり)
  • ISO “ISO/IEC 42001:2023 — Artificial intelligence management system”
  • EU “Regulation (EU) 2024/1689 (Artificial Intelligence Act)”(ログ・記録に関する条文を含む)

※本記事は一般的な情報提供であり、法務・監査の個別助言ではありません。最終判断は社内ルールおよび専門家にご確認ください。