生成AIで情報漏えいが起きるパターン10選|現場のNG例とルール【2026年版】
最終更新日: 2026年2月18日
生成AIの情報漏えいは、多くの場合「出力」ではなく入力で起きます。 つまり、ツール選定だけでは防げず、入力ルール・教育・ログの設計が必要です。
本記事では、現場で起きやすい「10のNGパターン」を具体例で整理し、入力前チェックリストと、組織としての防止策までを一枚にまとめます。
要点まとめ
- 生成AIの情報漏えいは「入力」で起きる。出力ではなく入力を管理するのが原則
- 10のNGパターンを知り、入力ルールを最低限設計するだけでリスクは大幅に下がる
- ログと教育を組み合わせて継続的に改善する
なぜ生成AIで情報漏えいが起きるのか
漏えいは「個人の不注意」だけではなく、仕組みと誤解で起きます。まず“入力がどこへ送られるか”を正しく理解することが第一歩です。
生成AIに入力したテキストやファイルは、基本的に外部サーバーへ送信されます(ブラウザで使うSaaSは特にそうです)。 そのため、社内データをそのまま貼ると、社外秘・個人情報・取引先情報が外部へ出ていく構造になります。
また、プランや設定によっては、入力データが学習や品質改善に利用される可能性があります。利用規約・データ取扱い・学習設定を確認しないまま使うと、 「社内完結だと思っていた」という誤解が事故につながります。
対策は難しくありません。まずは入力できるデータの範囲を決める(データ分類)→入力前チェック→ログと教育で改善の順で設計します。
情報漏えい10のNGパターン
ここを押さえるだけで、事故の大半は防げます。各カードの「なぜNG」と「安全な代替方法」を、そのまま社内ルールに落とし込めます。
NG1: 顧客名・連絡先をそのまま入力
なぜNG
個人情報・取引先情報がそのまま外部へ送信され、再利用や二次流出のリスクが高まります。
安全な代替方法
匿名化(会社A/担当者B)し、必要な条件だけを抽象化して相談します。
NG2: 契約書・NDA文面をコピペ
なぜNG
契約条件や守秘条項そのものが機密です。条文のまま貼ると、当事者情報や交渉内容まで漏れる可能性があります。
安全な代替方法
条文は貼らず、論点(例: 解除条項、損害賠償、準拠法)を箇条書きで整理して質問します。
NG3: 社内の売上・財務データを貼り付け
なぜNG
未公開の業績・原価・利益率は企業機密です。経営インパクトが大きく、漏えい時の損害が深刻になりやすいです。
安全な代替方法
数値はレンジ化(例: 100〜200)し、構造(指標定義・分析手順)だけを相談します。
NG4: 採用候補者の個人情報を入力
なぜNG
氏名・学歴・職歴・評価コメントなどが個人情報として扱われ、社内外のコンプライアンスリスクになります。
安全な代替方法
評価基準のテンプレ化や面接質問の設計など、個人を特定しない形で支援させます。
NG5: 社内メールや議事録をそのまま要約依頼
なぜNG
メール/議事録は顧客名、単価、交渉状況などが混ざりやすく、本人が気づかない“うっかり漏えい”になりがちです。
安全な代替方法
固有名詞をマスクし、要点だけを抜き出して要約・構造化を依頼します。
NG6: ソースコードに含まれるAPIキー・認証情報
なぜNG
秘密情報が一度漏れると即座に不正アクセスに直結します。最優先で防ぐべき事故の一つです。
安全な代替方法
キーは必ず削除/伏字にし、最小限の再現コードやログ(個人情報なし)だけで相談します。
NG7: 未公開の製品情報・企画書
なぜNG
未発表の戦略・仕様・価格は競争優位に直結します。外部送信された時点で“公開前の漏えい”になり得ます。
安全な代替方法
目的と制約(ターゲット、訴求、要件)だけを抽象化して壁打ちし、固有情報は入れません。
NG8: 医療・法律の個別相談内容
なぜNG
要配慮情報や機微情報が含まれやすく、誤回答のリスクも高い領域です。入力・出力の両面で事故になりやすいです。
安全な代替方法
一般論の整理に限定し、個別事案は専門家へ。AIは論点チェックや質問整理までに留めます。
NG9: 画像・PDFに含まれるメタデータや個人情報
なぜNG
見た目に写っていない情報(メタデータ、埋め込みテキスト、注釈)も含めて外部へ送信される可能性があります。
安全な代替方法
アップロード前に個人情報を墨消しし、メタデータ削除・ページ抜粋など“最小化”して扱います。
NG10: 他社から預かった情報(受託データ)
なぜNG
委託・受託契約上の守秘義務違反になり得ます。自社の判断だけでは例外が作れず、最も揉めやすいパターンです。
安全な代替方法
原則入力禁止とし、必要なら契約確認→顧客承認→ログ保存の例外フローを通します。
入力前チェックリスト(5項目)
迷ったら、まずこの5つだけ確認してください。現場の“うっかり”を最小化するための、最小セットです。
- チェック1: 入力データに個人情報は含まれていないか
- チェック2: 社外秘・機密に該当しないか
- チェック3: 第三者から預かったデータではないか
- チェック4: 匿名化・抽象化で代替可能か
- チェック5: 入力先ツールの利用規約・データ取扱いを確認したか
組織で実施すべき防止策
事故をゼロにするより、「起きにくくする」「起きても止血できる」を先に作る方が現実的です。最低限の運用を5点に絞ります。
FAQ
- Q. ChatGPTに社内データを入力すると学習に使われますか?
- A. OpenAIのAPIは原則として入力データが学習に使われません(明示的なオプトインを除く)。またChatGPTのEnterprise/Teamなど法人向けプランも、既定で学習に利用されないとされています。一方、個人向けChatGPTは設定(Data Controls)で学習への提供をオフにできます。いずれもプラン/設定は変更され得るため、導入時点の公式ポリシーを必ず確認してください。
- Q. 情報漏えいが発覚した場合どう対応すべきですか?
- A. 入力内容の記録確認→影響範囲の特定→関係者への報告→再発防止策の策定を順に進めます。インシデント対応フローを事前に定めておくことが重要です。
- Q. コピペチェックだけで漏えいは防げますか?
- A. コピペだけでなく、口頭で聞いた情報の入力や、ファイルアップロードも対象です。入力経路を網羅したルール設計が必要です。
- Q. 個人情報をAIに入力するのは違法ですか?
- A. 一律に違法と断定はできません。外部AIサービスに個人情報を入力すると、個人情報保護法上の委託/第三者提供/国外事業者への提供(越境移転)などの論点が生じます。実務では原則入力禁止・匿名化/仮名化を基本にし、例外は法務/情シス承認とログ管理で運用するのが安全です。
- Q. ログを取っていれば安全ですか?
- A. ログは事後調査には有効ですが、漏えい自体を防ぐものではありません。入力前のチェック(予防)とログ(検知・事後対応)の両方が必要です。
- Q. 画像やPDFのアップロードも漏えいリスクがありますか?
- A. はい。画像内のメタデータ、PDFに含まれる社内情報・個人情報も入力と同じ扱いです。ファイルアップロード時のルールも定める必要があります。
- Q. 社外向けの文章をAIで作成する場合の注意点は?
- A. 機密情報がプロンプトに含まれていないか確認し、生成物に第三者の権利侵害や事実誤認がないかを人がレビューする工程を設けます。
関連リンク
まとめ
情報漏えいは、ツールの性能ではなく運用設計で防げます。まずは「NG入力の明文化」「入力前チェック」「ログと教育」を揃え、運用しながら更新していくのが最短ルートです。
現場で迷いやすいのは「個人情報」「社外秘」「受託データ」です。迷ったら入力せず、匿名化・抽象化で代替し、必要なら例外申請で可視化してください。
ルール整備・研修・導入設計まで一緒に整えます
ルール整備・研修・導入設計までまとめて進めたい方向けに、無料セミナーと相談窓口を用意しています。
