INDEX
目次
4章 法律・倫理・社会原則
この章の目安学習時間:3時間
この章で到達できるゴール:
- インターネットの安全性と最新のセキュリティ脅威を理解する
- 個人情報保護法とAI活用時の注意点を習得する
- 知的財産権とAI生成物の権利関係を把握する
- AI社会原則と「AI新法」を含む最新の法規制を完全に理解する
【4-1】情報リテラシーと安全性
目安の学習時間:60分
インターネットの基礎知識とリテラシー
AIを使いこなす以前に、基盤となるインターネットを安全に利用する知識が必要です。
これをインターネットリテラシーと呼び、単なる操作方法だけでなく、情報を正しく扱うためのテクノロジーの理解や、情報の信頼性を見極める情報リテラシーが含まれます。
これをインターネットリテラシーと呼び、単なる操作方法だけでなく、情報を正しく扱うためのテクノロジーの理解や、情報の信頼性を見極める情報リテラシーが含まれます。
デジタル社会における市民としての適切な行動規範はデジタル市民権と呼ばれます。
有資格者は、セキュリティとプライバシーの両面から高い意識を持つことが求められます。
有資格者は、セキュリティとプライバシーの両面から高い意識を持つことが求められます。
ソーシャルエンジニアリングと人の心の隙
技術的な隙ではなく、人間の心理的な隙やミスを突く攻撃をソーシャルエンジニアリング攻撃と呼びます。
|
攻撃手法
|
内容と手口
|
|---|---|
|
スピアフィッシング
|
特定の個人や組織を標的にした、極めて精巧ななりすましメール。
|
|
ベイト攻撃
|
「エサ(Bait)」を撒く手法。魅力的なファイル名でダウンロードを促したり、悪意あるUSBを拾わせたりします。
|
|
ブラックメール
|
脅迫(恐喝)によって情報を引き出したり、特定の行動を強要したりすること。
|
|
プレテキスト
|
もっともらしい嘘の「口実(Pretext)」を作り、電話などで情報を盗み出すこと。
|
考えてみよう!:最新の詐欺手口
悪意のあるQRコードを読み込ませることで、個人情報を盗む詐欺が増えています。
この手口に対処するためには、どのようなテクノロジーの理解が必要でしょうか?
この手口に対処するためには、どのようなテクノロジーの理解が必要でしょうか?
解答例
QRコード自体が単なる「URLの情報の塊」であることを理解し、読み込んだ後に表示されるサイトのURLが正規のものか(フィッシングサイトでないか)を必ず目視で確認するリテラシーが必要です。
【4-2】個人情報の保護
目安の学習時間:40分
個人情報保護法とAI
AIの学習データやプロンプトに個人情報を入力する際は、個人情報保護法(および改正個人情報保護法)の遵守が絶対条件です。
この法律は個人情報保護委員会(PPC)によって監督されています。
この法律は個人情報保護委員会(PPC)によって監督されています。
個人情報取扱事業者の責務
- 企業などは個人情報取扱事業者として、利用目的を特定し、適切に管理しなければなりません。
- 生成AIの入力データが「学習」に利用される設定の場合、不用意な入力は第三者提供にあたるリスクがあります。
扱う情報の分類
どのような情報が保護の対象になるのか、その定義を正しく把握しましょう。
- 個人識別符号:指紋データやマイナンバー、パスポート番号など、それ単体で個人を特定できる符号。
- 要配慮個人情報:人種、信条、病歴など、不当な差別を生む可能性がある情報。原則として本人の事前同意なしに取得できません。
- 機微(センシティブ)情報:要配慮個人情報に加え、思想や信教など、個人のプライバシーに深く関わる高度に秘匿されるべき情報。
AI入力時の安全対策
情報を安全に扱うためには、特定の個人を識別できないように加工する技術が必要です。
・匿名加工情報:特定の個人を識別できないようにし、かつ元に戻せないように加工した情報。
・マスキング:個人名の部分を「〇〇」のように伏せ字にしたり、削除したりする処理。AIに情報を渡す前の必須工程です。
・マスキング:個人名の部分を「〇〇」のように伏せ字にしたり、削除したりする処理。AIに情報を渡す前の必須工程です。
練習問題:個人情報保護の注意点
問題
生成AIに学習データセットやプロンプトを入力する際、個人情報保護法に基づく規制を遵守するために注意すべき項目として、不適切な記述を選びなさい。
- 本人の同意を得ずに、プロンプトに要配慮個人情報を含めてはいけない。
- 利用目的を超えて個人情報をAIに入力することは避けるべきである。
- 学習データに個人情報が含まれる場合、匿名加工情報への変換を検討する。
- 公開されているSNSの情報であれば、どのような目的でも自由に入力してAIに学習させてよい。
解答
4
【4-3】知的財産とAIの権利
目安の学習時間:40分
知的財産権の種類
AIが生み出した「成果物」や、AIを作るための「プログラム」に関わる権利を知的財産権と呼びます。
|
権利名
|
保護の対象
|
|---|---|
|
著作権
|
思想または感情を創作的に表現したもの。
|
|
特許権
|
自然法則を利用した高度な「発明」。
|
|
商標権
|
商品やサービスを区別するための「マーク」や「名前」。
|
|
意匠権
|
物品の「デザイン(形状や色彩)」。
|
AI生成物の権利と責任
AIが作成した生成物について、誰が権利を持つかは重要な論点です。
・権利が発生するケース:
人間がAIを道具として使いこなし、人間による「創作的寄与」が認められる場合、その人間に著作権が発生します。
・著作権侵害のリスク:
AIの出力が既存の他人の作品と酷似しており、かつ「依拠性(元ネタを知っていたか)」が認められる場合、著作権侵害となります。
・名誉棄損:
AIが実在の人物について嘘の不利益な情報を生成し、それが拡散された場合、法的な責任を問われる可能性があります。
人間がAIを道具として使いこなし、人間による「創作的寄与」が認められる場合、その人間に著作権が発生します。
・著作権侵害のリスク:
AIの出力が既存の他人の作品と酷似しており、かつ「依拠性(元ネタを知っていたか)」が認められる場合、著作権侵害となります。
・名誉棄損:
AIが実在の人物について嘘の不利益な情報を生成し、それが拡散された場合、法的な責任を問われる可能性があります。
【4-4】社会原則とAI新法
目安の学習時間:40分
AIが社会に深く浸透するにつれ、単なる「便利さ」だけでなく、それをどのように管理し、どのような理念で運用すべきかという「社会的なルール」が重要になっています。
日本政府は、AIが人間の生活を豊かにするための指針として、AI社会基本理念とAI社会原則を策定しています。
日本政府は、AIが人間の生活を豊かにするための指針として、AI社会基本理念とAI社会原則を策定しています。
AI社会の基本理念
日本政府は、AIがもたらす未来を単なる「便利な道具」の導入としてではなく、より良い社会の実現として捉えています。
その根底には、AI利活用における3つの基本理念があります。
その根底には、AI利活用における3つの基本理念があります。
AI社会の3つの基本理念
- 人間の尊厳が尊重される社会(Dignity):AIはあくまで人間の能力を拡張し、自己実現を助ける道具です。AIが人間を支配したり、尊厳を傷つけたりしない社会を目指します。
- 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion):性別、年齢、国籍、障害の有無などに関わらず、AIの恩恵をすべての人が公平に受けられる社会を目指します。
- 持続可能な社会(Sustainability):気候変動や格差社会といった地球規模の課題解決にAIを役立て、将来世代へより良い環境を引き継ぐ社会を目指します。
AI社会原則と共通の指針
理念を実現するために、開発者や利用者が具体的に守るべき項目がAI社会原則です。
さらに、組織や個人がAIに向き合う際の具体的な行動指針として共通の指針が定められています。
さらに、組織や個人がAIに向き合う際の具体的な行動指針として共通の指針が定められています。
- 人間中心の考え方:AIの利用目的や最終的な判断の責任は常に人間が持つべきであるという、最も根本的な原則です。
- 安全性・公平性:AIが生命や財産に危害を及ぼさない「安全性」と、不当な差別や偏見を助長しない「公平性」を確保することです。
- プライバシー保護:個人のプライバシー情報を適切に守り、データの不正な収集や利用を防ぐことです。
- セキュリティ確保:サイバー攻撃などからAIシステムを守り、安定した稼働を維持することです。
- 透明性:AIがどのような仕組みで、なぜその判断を下したのかを人間が理解・検証できる状態にしておくことです。
- アカウンタビリティ(説明責任):AIを利用した結果に対して、関係者が社会に対して適切な説明を行い、責任を果たすことです。
- 教育・リテラシー:AIを適切に使いこなすための教育をすべての市民に提供し、社会全体のAIリテラシーを向上させることです。
- 公正競争確保:特定の企業によるAI技術の独占を防ぎ、自由で開かれた市場競争を維持することです。
- イノベーション:AI技術の研究開発を促進し、新たな価値やサービスが次々と生まれる環境を整えることです。
AI事業者ガイドライン 1.1 と AIガバナンス
これらの理念や原則を、企業が具体的にどう実践すべきかをまとめた指針がAI事業者ガイドライン 1.1です。
この中では、組織としてAIを適切に管理・運用する体制であるAIガバナンスの構築が強く求められています。
この中では、組織としてAIを適切に管理・運用する体制であるAIガバナンスの構築が強く求められています。
AI新法(2025年公布)
2025年6月4日に公布されたAI新法(正式名称:人工知能関連技術の研究開発及び活用の推進に関する法律)は、これまでのガイドラインを法的な枠組みとして補強し、日本のAI政策を一段上のレベルへ引き上げるものです。
|
項目
|
AI新法の内容と役割
|
|---|---|
|
法的性格
|
罰則を主目的とした「規制法」ではなく、AIの健全な開発と活用を強力に支える「推進法」としての側面を持ちます。
|
|
3つの主体
|
AI開発者(AI Developer)、AI提供者(AI Provider)、AI利用者(AI Business User)の3つに分類し、それぞれの責務を定義しています。
|
|
目的
|
日本の経済成長を促しつつ、AI社会原則に則った安全な社会を実現することを目指しています。
|
AI新法の重要条文解説
AI新法の中には、試験で問われやすい重要なルールがいくつか含まれています。
特に以下の5つの条文は、日本のAI政策の方向性を示すものとして重要です。
特に以下の5つの条文は、日本のAI政策の方向性を示すものとして重要です。
考えてみよう!:AIの判断は誰の責任?
AIエージェントが、SNS上で特定の人物を誹謗中傷する内容を自律的に投稿してしまった場合、アカウンタビリティの観点から誰が責任を負うべきでしょうか?
解答例
AI社会原則の「人間中心の考え方」によれば、AIはあくまで道具であり、その挙動を管理・監督する責任は人間にあります。
したがって、AIの出力設定を行った「提供者」や、そのAIを運用していた「利用者」が、状況に応じて説明責任を果たす必要があります。
AIそのものに責任を転嫁することはできません。
したがって、AIの出力設定を行った「提供者」や、そのAIを運用していた「利用者」が、状況に応じて説明責任を果たす必要があります。
AIそのものに責任を転嫁することはできません。
練習問題:AI社会原則の理解
問題
AIが特定のグループに対して差別的な回答をしないように配慮する原則の名称として、最も適切なものはどれですか。
- 透明性
- 安全性・公平性
- セキュリティ確保
解答
2
【4-5】4章 -章末課題- [法律・倫理・原則の理解]
問題
1. 2025年6月に公布された「AI新法」の主な目的として、最も適切なものはどれですか?
A. AIの開発を全面的に禁止し、人間を守る。
B. AI関連技術の研究開発および活用を強力に推進する。
C. AIが出した嘘の情報をすべて罰則の対象にする。
A. AIの開発を全面的に禁止し、人間を守る。
B. AI関連技術の研究開発および活用を強力に推進する。
C. AIが出した嘘の情報をすべて罰則の対象にする。
2. 企業がAIを導入する際、安全性や公平性を確保するために組織全体で取り組むべき「管理体制の構築」を何と呼びますか。
3. AIに情報を入力する際、特定の個人を識別できないように加工し、かつ元に戻せないようにした情報を何と呼びますか。
解答・解説
1. B. AI関連技術の研究開発および活用を強力に推進する。
AI新法は、推進を主目的とした「推進法」としての性格を持ちます。
AI新法は、推進を主目的とした「推進法」としての性格を持ちます。
2. AIガバナンス
組織がAIを「統治」し、安全に運用するための仕組みです。
3. 匿名加工情報
情報の有用性と個人のプライバシー保護を両立させるための形式です。
合格へのチェックポイント
- AI新法とガイドラインの関係(法制化とベストプラクティス)を整理できましたか?
- 要配慮個人情報の入力に本人の同意が必要であることは、試験で繰り返し問われるポイントです。
- 著作権が発生するためには「創作的寄与」が不可欠であることを理解しておきましょう。
これで「法律・倫理・社会原則」の解説を終わります。 次の章に進みましょう。