知らないと怖い!生成AIを使う前のルールブック
4章 【倫理と公平性】忘れてはいけないAI利用者の責任
INDEX
目次

4章 【倫理と公平性】忘れてはいけないAI利用者の責任

この章の目安学習時間:20分

この章で到達できるゴール

  • AIが社会に与える倫理的な課題(バイアス、悪用など)を理解できる
  • 偏った情報や差別的な表現を助長しない、責任あるAI利用者としての心構えを持つことができる

【4-1】AIが生み出す「バイアス」の問題

目安の学習時間:10分

生成AIは、私たちの指示に基づいて様々なコンテンツを生み出しますが、その生成物が必ずしも中立で公平であるとは限りません。AIの「学習データ」に潜む社会の偏見や固定観念が、AIの出力に影響を与え、「バイアス(偏り)」として現れることがあります。

AIは「差別」することがある?

AI自身が悪意を持って誰かを差別しようとするわけではありません。しかし、AIが学習するデータには、残念ながら現実社会に存在する様々な偏見(ジェンダーバイアス、人種的バイアス、年齢バイアスなど)が反映されてしまっています。

例えば、

・インターネット上の膨大なテキストデータを学習したAIに「CEOについて説明して」と指示すると、男性を前提とした説明が多くなるかもしれません。これは、過去のニュース記事や企業情報などで男性CEOの事例が多く取り上げられてきた結果を反映している可能性があります。
・画像生成AIに「看護師の絵を描いて」と指示すると、女性の看護師ばかりが生成される傾向があるかもしれません。これも、社会における「看護師=女性」というステレオタイプなイメージが学習データに影響していると考えられます。
・同様に、「プログラマー」なら若い男性、「受付係」なら若い女性、といった特定の職業と性別・年齢を結びつけるようなバイアスが現れることもあります。
重要語句:AIバイアス

AIバイアスとは、AIが学習したデータに含まれる偏りや、アルゴリズムの設計上の問題などにより、AIの判断や生成結果が特定のグループに対して不公平になったり、社会的なステレオタイプを助長したりする現象のことです。

AIバイアスは、意図しない差別や不平等を拡大させてしまう危険性があり、AI倫理の重要な課題の一つとされています。

このようなバイアスは、単に「AIの出力が偏っている」というだけでなく、以下のような問題を引き起こす可能性があります。

ステレオタイプの強化・再生産: AIが偏った情報を繰り返し生成することで、社会に存在する固定観念や偏見がさらに強化されてしまう。
機会の不均等: 例えば、採用選考にAIを利用した際に、過去のデータに基づいたバイアスによって、特定の属性を持つ応募者が不当に低く評価されてしまう。
表現の画一化: AIが特定のスタイルや表現ばかりを生成するようになると、多様な創造性が失われてしまう。
 (23448)

私たちが気をつけるべきこと

AIが生み出すバイアスに対して、私たちはどのように向き合えばよいのでしょうか。

1.AIの出力を鵜呑みにしない、批判的に吟味する:
まず最も重要なのは、AIの生成物にはバイアスが含まれている可能性があると認識し、一次情報を必ず裏取りする習慣を付けることです。特に、人物の描写、特定の集団に関する記述、社会的な役割についての言及などについては、偏った見方やステレオタイプな表現が含まれていないか、自分の目でチェックする習慣をつけましょう。
2. プロンプト(指示)を工夫する:
AIに指示を出す際、プロンプトの内容自体がバイアスを助長しないように注意することも大切です。
例えば、「有能なリーダーの画像を生成して」と指示するだけでなく、「多様な背景を持つ有能なリーダーたちの画像を生成して」のように、意図的に多様性を求める指示を加えることで、よりバランスの取れた出力が得られる可能性があります。
3. 多様な視点を取り入れる:
AIの生成物を評価する際には、自分一人の視点だけでなく、異なる背景や価値観を持つ人々の意見も参考にすることが望ましいです。チームでAIを利用する場合は、多様なメンバーで出力をレビューし合うことで、潜在的なバイアスに気づきやすくなります。
4. バイアスを修正・報告する:
もしAIの出力に明らかなバイアスや不適切な表現を見つけた場合、可能であればAIサービスの提供元にフィードバックを送りましょう。多くのAIサービスには、ユーザーからの報告機能が備わっています。これにより、AIモデルの改善に繋がり、将来的により公平なAIが育つことに貢献できます。

AIは便利なツールですが、万能ではありません。AIが持つ限界や特性を理解し、人間が責任を持ってその出力をコントロールしていく姿勢が求められます。

考えてみよう!
ある画像生成AIに「お祭りを楽しんでいる人々」というプロンプトで画像を生成させました。すると、生成された画像には、特定の民族衣装を着た人々ばかりが描かれており、他の文化的な背景を持つ人々はほとんど見られませんでした。
この状況に対して、AI利用者としてどのような対応が考えられますか?

解答例
考えられる対応はいくつかあります。

1. プロンプトの修正と再生成:
まず、プロンプトをより具体的に、多様性を意識したものに修正して再生成を試みます。例えば、「世界中の様々なお祭りを楽しんでいる、多様な文化背景を持つ人々のグループ」や「日本の伝統的な夏祭りで、老若男女様々な浴衣姿の人々が屋台を楽しんでいる様子」のように、どのような「多様性」を求めているのかをAIに伝えます。
2. 複数の画像を生成し、選択する:
一度の生成で完璧な結果が得られなくても、複数回生成を試みることで、よりイメージに近い、あるいはバイアスの少ない画像が得られることがあります。その中から最も適切と思われるものを選択します。
3. 生成された画像の用途を再考する:
もし、生成された画像が特定の文化に偏っている場合、その画像をそのまま広範な文脈で使用すると、誤解を招いたり、他の文化を軽視していると受け取られたりする可能性があります。画像の利用シーンや目的に照らし合わせて、本当にその画像が適切かどうかを再検討します。場合によっては、AI生成画像の利用を見送るという判断も必要です。
4. AIサービスへのフィードバック:
AIが特定の文化や属性に偏った画像を生成しやすい傾向があると感じた場合、その旨をAIサービスの提供元にフィードバックすることも考えられます。具体的なプロンプトと生成結果を伝えることで、AIモデルの改善に役立つ可能性があります。
5. 手動での修正・加工(可能な場合):
もし画像編集スキルがあれば、生成された画像を元に、手動で多様な要素を加えたり、偏りを修正したりすることも一つの方法です。ただし、これには手間と技術が必要です。

重要なのは、AIの出力をそのまま受け入れるのではなく、利用者自身が「どのような表現が望ましいのか」という明確な意図を持ち、AIをコントロールしようと試みることです。

【4-2】AIの「悪用」リスク

目安の学習時間:10分

生成AIの能力は非常に高く、正しく使えば大きな恩恵をもたらしますが、残念ながら悪意を持って利用された場合、社会に深刻な悪影響を及ぼす可能性も秘めています。

フェイクニュースとプロパガンダ

生成AIを使えば、本物と見分けがつかないほど巧妙なフェイクニュース(偽情報)の記事や、特定の思想・意見に誘導するためのプロパガンダ(政治的宣伝)コンテンツを、短時間で大量に作成することが可能です。

信憑性の高い偽記事:AIは、過去のニュース記事のスタイルや構成を学習し、もっともらしい文体で、架空の事件や出来事に関する記事を生成できます。これらがSNSなどで拡散されると、多くの人が誤った情報を信じてしまい、社会的な混乱やパニックを引き起こす可能性があります。
世論操作:特定の政治家や政策に対する肯定的な意見や、逆に否定的なデマ情報をAIで大量に生成し、SNSのボットアカウントなどを通じて組織的に拡散することで、世論を特定の方向に誘導しようとする動きも懸念されています。
選挙への影響:選挙期間中に、候補者に関する偽のスキャンダル情報や、支持を訴える偽の口コミをAIで大量生成し、有権者の投票行動に影響を与えようとする試みも考えられます。

これらの偽情報やプロパガンダは、社会の分断を煽り、民主主義の健全な機能を脅かす危険性があります。

ディープフェイクと詐欺

ディープフェイク(Deepfake)とは、AI技術(特に深層学習:Deep Learning)を使って、人物の顔や声を別人のものと入れ替えたり、本人が言ってもいないことを言わせたりする偽の動画や音声のことです。
重要語句:ディープフェイク

ディープフェイクは、AIを用いて人物の画像や動画、音声を非常にリアルに合成・加工する技術、またはその技術によって作られた偽のコンテンツを指します。

そのリアルさゆえに、悪用された場合の被害が深刻化しやすいという特徴があります。

ディープフェイク技術の悪用例としては、以下のようなものが挙げられます。

誉毀損、プライバシー侵害:有名人や一般人の顔をアダルトビデオに合成したり、差別的な発言をしているかのような偽動画を作成したりして、その人の社会的信用や名誉を著しく傷つける。
詐欺(オレオレ詐欺など):家族や知人の声や顔をディープフェイクで再現し、本人になりすまして金銭をだまし取ろうとする。近年では、企業のCEOになりすました偽のビデオ会議で送金を指示するような巧妙な詐欺事件も報告されています。
なりすましによる機密情報の窃取:社員になりすまして社内システムにアクセスしようとしたり、機密情報を聞き出そうとしたりする。

ディープフェイク技術は進化を続けており、見破ることがますます困難になっています。安易に動画や音声を信じ込まず、不自然な点がないか注意深く観察するリテラシーが求められます。

私たちが持つべき「責任あるAI利用」の心構え

生成AIという強力なツールを手にした私たちは、その力を社会にとって良い方向に活かす責任があります。AIの悪用を防ぎ、倫理的な問題を最小限に抑えるために、以下の3つの心構えを持つことが重要です。

1. 他者を尊重し、傷つけない
AIを使って、他人を誹謗中傷したり、プライバシーを侵害したり、差別を助長したりするようなコンテンツを生成・公開することは絶対に許されません。常に、自分のAI利用が誰かを傷つける可能性はないか、倫理的に問題はないかを自問自答する姿勢が必要です。
2. 偽情報を拡散しない、加担しない
インターネット上で目にする情報が、AIによって作られた偽情報である可能性を常に念頭に置きましょう。少しでも疑わしいと感じる情報や、感情を煽るような過激な情報に接した場合は、安易に「いいね」や「シェア」をせず、立ち止まって情報の真偽を確認する(ファクトチェックする)習慣をつけましょう。自分が偽情報の拡散に加担してしまうことを避けるためです。
3. 社会への影響を考える
自分のAI利用が、社会全体にどのような影響を与える可能性があるかを考える視点も大切です。例えば、AIで生成したコンテンツが著作権を侵害していないか、特定の集団に対する偏見を助長していないか、環境に過度な負荷をかけていないか(AIの学習や運用には大量の電力が必要となる場合があります)など、より広い視野でAIとの関わり方を見つめ直すことが求められます。

AI技術は日進月歩で進化しており、それに伴う倫理的な課題や社会的なルール作りも常に変化していきます。私たちAI利用者は、技術の進展に関心を持ち続け、新しい知識や倫理観を学び続ける姿勢が不可欠です。
「責任あるAI(Responsible AI)」の考え方

近年、AIの開発や利用において、「責任あるAI」という考え方が重視されています。これは、AIが人間の価値観や倫理観に沿って、公平性、透明性、説明可能性、安全性、プライバシー保護などを担保しながら開発・利用されるべきだという原則です。

私たち利用者も、この「責任あるAI」の実現に向けた当事者の一人であるという意識を持つことが大切です。

【4-3】4章-章末課題- 倫理的ジレンマについて考える

目安の学習時間:5分

問題

あなたは、ある地域活性化プロジェクトの広報担当者です。プロジェクトの認知度向上のため、地域の魅力を伝えるPR動画を制作することになりました。予算と時間の制約から、動画の一部に生成AIで作成した映像素材(風景や人々の賑わいなど)を使用することを検討しています。

AIで生成した映像は非常にリアルで、コストも抑えられますが、以下の点が懸念されています。

・生成された映像に登場する「地域の人々」は、AIが作り出した架空の人物であり、実際の地域住民ではありません。
・AIが生成した「美しい風景」の中には、実際にはその地域に存在しない、あるいは実物よりも誇張された景観が含まれている可能性があります。

この状況で、AI生成映像を利用することには、どのような倫理的な問題が潜んでいる可能性があるでしょうか? また、もし利用する場合、どのような点に配慮すべきでしょうか?あなたの考えを説明してください。

解答解説

考えられる倫理的な問題点:

1. 誤解や欺瞞(ぎまん)の可能性:
AIが生成した架空の人物や誇張された風景を、視聴者が「実際の地域住民の姿」や「現実の景観」であると誤解してしまう可能性があります。これは、PR動画の目的である「地域のありのままの魅力を伝える」という点から逸脱し、一種の欺瞞にあたるのではないかという問題です。
特に、地域住民の姿がAIによって理想化・均質化されて描かれた場合、実際の地域の多様性や個性が伝わらなくなる恐れがあります。
2. 地域住民の感情への配慮不足:
実際の地域住民が、自分たちの姿や故郷の風景がAIによって「代用」されたり「改変」されたりすることを知った場合、不快感や疎外感を覚える可能性があります。「私たちの地域は、本物で勝負できないのか?」といった感情を抱かせるかもしれません。
3. 信頼性の低下:
もし後から「あのPR動画の映像はAIで作られたものだった」という事実が広く知られた場合、プロジェクト全体の信頼性や、発信元である自治体・団体の信頼性が低下するリスクがあります。「嘘の映像で人を集めようとした」と批判される可能性も否定できません。
4. 「本物」の価値の軽視:
AIで簡単にリアルな映像が作れるからといって、実際の地域に足を運んで撮影したり、地域の人々とコミュニケーションを取ったりする努力を怠ることは、地域が持つ「本物の価値」を軽視することに繋がりかねません。

利用する場合に配慮すべき点:

1. 透明性の確保(ディスクロージャー):
動画のどこかに、AI生成映像を使用している旨を明記する(例:エンドロールや概要欄に「一部の映像にはAI生成素材を使用しています」など)。これにより、視聴者に対して正直な情報提供を心がけ、誤解を避ける努力をします。
2. AI生成映像の利用範囲の限定:
全ての映像をAIで置き換えるのではなく、あくまで補助的な利用に留める。例えば、実際の風景や住民のインタビュー映像をメインとし、AI生成映像はイメージカットやトランジションなど、限定的な部分で使用することを検討します。
3. 誇張表現の抑制:
AIで風景を生成・加工する際には、現実離れした過度な誇張は避け、できるだけ実際の地域の雰囲気を損なわないように配慮します。
4. 地域住民への説明と理解:
可能であれば、プロジェクトに関わる地域住民に対して、AI利用の目的や範囲、メリット・デメリットなどを事前に説明し、理解と協力を得る努力をします。
5. 最終的な目的との整合性:
AIを利用することが、本当に地域活性化という最終目的に貢献するのか、費用対効果だけでなく、倫理的な側面や長期的な信頼関係の構築という視点からも慎重に検討します。
倫理的な判断は常に難しい

AI利用に関する倫理的な問題には、多くの場合、唯一の「正解」が存在しません。状況や立場によって、何が最善の判断かは変わってきます。

重要なのは、「誰にとって、どのような影響があるのか?」を多角的に考え、可能な限り誠実で責任ある選択をしようと努める姿勢です。

この章末課題で考えた内容や、普段AIを利用する上で感じる倫理的な悩みなどを、ぜひ担当のコーチと話し合ってみてください。多様な意見に触れることで、より深い洞察が得られるはずです。

これで「4章 【倫理と公平性】忘れてはいけないAI利用者の責任」の解説を終わります。
次の章に進みましょう。
WEBCOACH | キャリアチェンジまでの全てを学ぶマンツーマンWEBスクール
© 2020 by WEBCOACH