INDEX
目次
2章 【情報漏洩】AIはあなたの秘密を覚えている
この章の目安学習時間:20分
この章で到達できるゴール
- AIに情報を入力することの潜在的なリスクを理解できる
- 入力してはいけない情報の種類を具体的に把握し、情報漏洩を未然に防ぐことができる
【2-1】入力した情報はどこへ行く?
目安の学習時間:10分
生成AIに何かを質問したり、文章の作成を依頼したりするとき、私たちはAIのチャット画面や入力フォームに様々な情報を打ち込みます。
では、その入力された情報は、一体どこへ行き、どのように扱われるのでしょうか?この点を理解することが、情報漏洩リスクを考える上での第一歩です。
では、その入力された情報は、一体どこへ行き、どのように扱われるのでしょうか?この点を理解することが、情報漏洩リスクを考える上での第一歩です。
AIの「学習データ」になる可能性
多くの生成AIサービス、特に無料で提供されているものの多くは、ユーザーが入力した情報をAIの性能向上のための「学習データ」として利用する場合があります。
AIの「学習」とは?
第1章でも触れましたが、AIは大量のデータを読み込むことで賢くなっていきます。ユーザーからの質問や指示、そしてそれに対するAIの応答の適切さなどを分析し、より自然で、より役立つ回答ができるように、AI自身が継続的に「学習」を続けているのです。
この「学習」の材料として、私たちユーザーが入力したテキストデータが使われることがある、ということを覚えておきましょう。
多くのAIサービスの利用規約には、「入力された情報をサービスの改善やAIモデルのトレーニングに利用する」といった旨の記載が含まれています。
これは、私たちが入力した情報が、匿名化などの処理を施された上で、AIの学習データセットの一部となり、将来的にAIが他のユーザーに対してより良い応答をするために役立てられる可能性があることを意味します。
「自分の情報が、AIを通じて間接的に他人に見られる可能性があるの?」と不安に思うかもしれません。
通常、入力情報がそのままの形で他のユーザーに開示されることはありません。
しかし、学習データとして取り込まれた情報が、AIの応答パターンに影響を与え、結果的に入力内容の断片やニュアンスが、形を変えて他の誰かへの出力に含まれてしまう可能性はゼロではないのです。
これは、私たちが入力した情報が、匿名化などの処理を施された上で、AIの学習データセットの一部となり、将来的にAIが他のユーザーに対してより良い応答をするために役立てられる可能性があることを意味します。
「自分の情報が、AIを通じて間接的に他人に見られる可能性があるの?」と不安に思うかもしれません。
通常、入力情報がそのままの形で他のユーザーに開示されることはありません。
しかし、学習データとして取り込まれた情報が、AIの応答パターンに影響を与え、結果的に入力内容の断片やニュアンスが、形を変えて他の誰かへの出力に含まれてしまう可能性はゼロではないのです。
サービス運営者による閲覧リスク
もう一つ考慮すべきは、AIサービスの運営会社の担当者が、何らかの目的で入力内容を閲覧する可能性があるという点です。
多くのサービスでは、以下のような目的で、限定的な状況において担当者がデータにアクセスする場合があることが利用規約に記されています。
- サービスの監視、不正利用の防止: 悪意のある使い方(例:差別的なコンテンツの生成、スパム行為など)がされていないか監視するため。
- トラブルシューティング、サポート対応: ユーザーから問い合わせがあった際に、問題の原因を調査するため。
- 法令遵守: 法的な要請があった場合など。
もちろん、運営会社は情報保護のための厳格なセキュリティ対策を講じていますが、人間が介在する以上、誤操作や悪意による情報漏洩のリスクが完全にゼロになるとは言い切れません。
特に、無料の公開サービスを利用する際は、「インターネット上の公共の掲示板に書き込むのに近い」という意識を持つことが重要です。
誰でもアクセスできる場所に情報を置くような感覚で、入力する情報には細心の注意を払うべきです。
特に、無料の公開サービスを利用する際は、「インターネット上の公共の掲示板に書き込むのに近い」という意識を持つことが重要です。
誰でもアクセスできる場所に情報を置くような感覚で、入力する情報には細心の注意を払うべきです。
【2-2】絶対に入力してはいけない情報
目安の学習時間:10分
では、具体的にどのような情報をAIに入力すべきではないのでしょうか?
ここでは、特に注意が必要な情報の種類を挙げ、その危険性について解説します。
ここでは、特に注意が必要な情報の種類を挙げ、その危険性について解説します。
個人情報とプライバシー
これは最も基本的なルールです。
個人を特定できる情報や、他人に知られたくないプライベートな情報は、絶対にAIに入力してはいけません。
個人を特定できる情報や、他人に知られたくないプライベートな情報は、絶対にAIに入力してはいけません。
- 氏名、住所、電話番号、メールアドレス、生年月日
- マイナンバー、運転免許証番号、パスポート番号、健康保険証番号
- クレジットカード番号、銀行口座情報
- 病歴、通院履歴、健康診断の結果などのセンシティブな健康情報
- 特定の個人の性的指向、信条、人種などに関する情報
- 家族構成、人間関係、個人的な悩みなど、極めてプライベートな内容
これらの情報が万が一漏洩した場合、なりすまし、詐欺、ストーカー行為、差別の助長など、深刻な被害に繋がる可能性があります。
AIはあくまで機械であり、入力された情報の機微を人間のように判断することはできません。
AIはあくまで機械であり、入力された情報の機微を人間のように判断することはできません。
仕事の機密情報
業務で生成AIを利用する際に、特に注意が必要なのがこの点です。
会社の内部情報や顧客に関する情報は、AIへの入力が厳禁とされるものが多数あります。
会社の内部情報や顧客に関する情報は、AIへの入力が厳禁とされるものが多数あります。
- 顧客リスト、個別の取引情報、クレーム内容などの顧客情報
- 未発表の新製品・新サービスの企画書、開発中の技術情報、研究データ
- 社外秘とされている経営戦略、財務情報、人事情報
- 会議の議事録(特に機密性の高い内容を含むもの)
- 社内システムのID、パスワード、アクセスキーなどの認証情報
- 取引先から秘密保持契約(NDA)を結んで預かっている情報
これらの情報がAIの学習データとして利用されたり、何らかの形で外部に漏れたりした場合、会社の競争力を著しく損なうだけでなく、顧客や取引先からの信頼を失い、法的な責任を問われる事態にもなりかねません。
「会社のパソコンで、会社のネットワーク内からAIを使っているから安全」というわけではありません。
AIサービスがクラウド上で提供されている以上、入力した情報は一度会社の外のサーバーに送信されます。
会社のセキュリティポリシーやIT部門の指示を必ず確認し、それに従ってください。
「会社のパソコンで、会社のネットワーク内からAIを使っているから安全」というわけではありません。
AIサービスがクラウド上で提供されている以上、入力した情報は一度会社の外のサーバーに送信されます。
会社のセキュリティポリシーやIT部門の指示を必ず確認し、それに従ってください。
考えてみよう!
あなたは、友人のAさんから「B君への誕生日サプライズを計画しているんだけど、何か面白いアイデアはないかな?今考えているのは、B君の好きなキャラクターのケーキを用意して、共通の友人CさんとDさんも呼んで、B君の家でパーティーをするっていうものなんだ。もっと驚かせるような、あっと言わせる演出を加えたいんだけど…」とLINEで長文の相談を受けました。
この相談内容をそのままコピーして、生成AIに「この誕生日サプライズ計画について、もっと面白くするための追加アイデアを5つ提案してください」とお願いするのは、問題があるでしょうか?
あるとしたら、どのような点でしょうか?
この相談内容をそのままコピーして、生成AIに「この誕生日サプライズ計画について、もっと面白くするための追加アイデアを5つ提案してください」とお願いするのは、問題があるでしょうか?
あるとしたら、どのような点でしょうか?
解答例
はい、問題がある可能性が高いです。
問題点:
- 個人情報(固有名詞): 「Aさん」「B君」「Cさん」「Dさん」といった友人の実名(またはそれに近いニックネーム)が含まれています。これらは個人を特定しうる情報です。
- プライベートな情報: 「誕生日サプライズ計画」という、まだ本人には秘密にされているプライベートな情報そのものが含まれています。また、「B君の好きなキャラクター」「B君の家でパーティー」といった、B君の個人的な嗜好や住所に関する情報も含まれています。
- 第三者の情報: 相談者であるAさんだけでなく、B君、Cさん、Dさんという複数の第三者の情報が含まれており、これらの情報を本人の許可なくAIに入力することは、プライバシーの観点から問題があります。
より安全なAIへの相談方法:
AIに相談する際は、以下のように情報を抽象化・一般化してから入力すべきです。 「友人の誕生日サプライズを計画しています。現在の案は、本人の好きなキャラクターのケーキを用意し、共通の友人数名とその人の自宅でパーティーをするというものです。この計画をより面白く、驚きのあるものにするための追加アイデアを5つ提案してください。」
このようにすれば、個人を特定できる情報や具体的なプライベート情報をAIに入力することなく、アイデア出しの協力を得ることができます。
【2-3】2章-章末課題- 情報入力OK/NG判断クイズ
目安の学習時間:5分
問題
以下のうち、一般的な無料の生成AIサービスに入力しても「問題ない」と考えられるものはどれでしょう? 理由もあわせて考えてみてください。
- 自分の氏名、住所、電話番号、職務経歴をすべて含んだ職務経歴書のPDFファイルをアップロードし、「この内容で改善点を指摘してください」と依頼する。
- インターネット上で一般に公開されている、有名企業の昨年度の決算報告書(PDF形式)のURLをAIに伝え、「この報告書の要点を3点にまとめてください」と依頼する。
- まだ社内の一部でしか共有されていない、来月リリース予定の自社新製品に関するプレスリリースのドラフト文章をAIに貼り付け、「よりキャッチーなタイトル案を5つ考えてください」と依頼する。
解答解説
正解は「2」です。
解説:
- 自分の氏名、住所、電話番号、職務経歴をすべて含んだ職務経歴書:【NG】
- 理由: これらは極めて重要な個人情報の塊です。 氏名、住所、電話番号は直接的な個人識別情報であり、職務経歴も個人のプライバシーに関わる重要な情報です。 このような情報をAIに入力することは、情報漏洩リスクが非常に高く、絶対に行うべきではありません。
- もし添削を依頼したい場合: 氏名や連絡先などの個人情報は削除またはダミー情報に置き換え、会社名も「A社」「前職のIT企業」のように抽象化するなど、個人が特定できない形に加工してから、文章の構成や表現についてのみアドバイスを求めるようにしましょう。
- インターネット上で一般に公開されている、有名企業の昨年度の決算報告書(PDF形式)のURL:【OK(ただし条件付き)】
- 理由: この情報は既に一般に公開されている情報(パブリックドメインの情報)です。誰でもアクセスできる情報をAIに要約させること自体は、情報漏洩という観点からはリスクが低いと考えられます。
- 条件と注意点:
- URLの共有機能の有無: AIサービスがURLを直接解釈して内容を読み取れる機能を持っている場合に限ります。 PDFファイルをアップロードする形式の場合は、そのアップロード行為自体がサービスの利用規約で許可されているか、また、アップロードされたファイルがどのように扱われるか(一時的な処理のみか、保存・学習されるかなど)を確認する必要があります。
- 著作権: 決算報告書自体にも著作権は存在します。 要約が著作権法上の「引用」の範囲を超えるような利用や、要約結果を無断で再配布するような行為は、別途著作権侵害の問題を生じる可能性があります。 あくまで私的利用の範囲に留めるのが無難です。
- AIの能力: 長大なPDFの内容を正確に理解し、適切に要約できるかはAIの能力に依存します。 ハルシネーション(誤情報)が含まれる可能性も考慮し、鵜呑みにしないことが重要です(これは3章のテーマです)。
- まだ社内の一部でしか共有されていない、来月リリース予定の自社新製品に関するプレスリリースのドラフト文章:【NG】
- 理由: これは会社の重要な機密情報(未公開情報)に該当します。「社内の一部でしか共有されていない」「来月リリース予定」という点がポイントです。 このような情報がリリース前に外部に漏洩すれば、競合他社に情報を与えてしまったり、市場の期待を不必要に煽ってしまったりするなど、会社に大きな損害を与える可能性があります。
- もしアイデア出しを依頼したい場合: 「新製品(例:健康管理アプリ)のプレスリリースで、ターゲット層(例:30代女性)に響くキャッチーなタイトル案を考えて」のように、具体的な製品名や詳細な機能、リリース時期などを伏せ、抽象的な形で相談する必要があります。
判断のポイント
- その情報は「自分や他人のプライバシー」に関わるものか?
- その情報は「会社の秘密」に関わるものか?
- その情報は「まだ世に出ていない情報」か?
- もしその情報が漏れたら「誰が困るか、どんな不利益があるか」を想像する。
これらの点を常に意識することが、情報漏洩を防ぐための第一歩です。
このクイズで迷った点や、普段の業務・私生活で「これはAIに入力しても大丈夫かな?」と悩むケースがあれば、ぜひ担当のコーチに質問してみてください。
具体的な事例を通じて、安全な情報入力の判断基準を養いましょう。
具体的な事例を通じて、安全な情報入力の判断基準を養いましょう。
これで「2章 【情報漏洩】AIはあなたの秘密を覚えている」の解説を終わります。
次の章に進みましょう。
次の章に進みましょう。