AI利用で注意すべき3つの問題を「問題形式」で理解する

AI利用で注意すべき3つの問題を「問題形式」で理解する

近年、生成AIをはじめとするAIの利用が急速に広がっています。
一方で、便利だからといって無条件に活用すると、思わぬリスクを招くことがあります。

応用情報処理試験でも、AIそのものの仕組みだけでなく、AI利用に伴う問題点や統制の考え方が問われやすくなっています。

この記事では、AI利用に関する代表的な問題として次の3つを取り上げます。

  • ハルシネーション
  • 情報漏えい・プライバシー侵害
  • バイアスと公平性

それぞれについて、問題 → 解答 → 解説の流れで確認していきましょう。


1. ハルシネーション

生成AIに関する代表的な問題の一つが、ハルシネーションです。
これは、AIが事実ではない内容を、もっともらしく出力してしまう現象を指します。

たとえば、存在しない規程や誤った手続を、あたかも正しい情報であるかのように回答してしまうことがあります。

問題1

ある企業では、生成AIを利用して社内FAQの回答案を自動作成している。
運用開始後、AIが実在しない社内規程や誤った手続を回答に含める事例が発生した。

この問題に関する記述として、最も適切なものを選べ。

生成AIは学習済みモデルを用いているため、出力内容は常に正確である。
生成AIは自然な文章を生成できるが、事実と異なる内容をもっともらしく出力することがある。
ハルシネーションは、通信回線の障害によってだけ発生する。
ハルシネーションを防ぐには、AIの出力結果を人が確認しない運用にするのがよい。

解答

解説

ハルシネーションとは、AIが事実ではない内容をもっともらしく生成する問題です。
生成AIは、入力に対して自然な文章を作ることは得意ですが、その内容が事実と一致するとは限りません。

そのため、AIの出力をそのまま業務に使うのは危険です。
特に、社内規程、契約、法務、医療、会計など、正確性が求められる場面では、人による確認やファクトチェックが欠かせません。

試験対策のポイント

応用情報処理試験では、
「AIは常に正しいとは限らない」
「最終確認は人間が行う必要がある」

という点を押さえておくことが重要です。


2. 情報漏えい・プライバシー侵害

AIを利用するときには、入力するデータの扱いにも注意が必要です。
特に、外部のAIサービスに個人情報や機密情報をそのまま入力すると、情報漏えいやプライバシー侵害のリスクがあります。

たとえば、顧客名、住所、契約内容、社外秘資料などを無加工で入力することは、非常に危険です。

問題2

あるシステム部門では、業務効率化のために外部の生成AIサービスを利用して文書要約を行っている。
担当者Aは、顧客の氏名、住所、契約内容が記載された文書を、そのまま生成AIに入力して要約させた。

この行為に関する記述として、最も適切なものを選べ。

要約が目的であれば、個人情報をそのまま外部サービスへ入力しても問題ない。
個人情報や機密情報を含むデータを外部AIサービスへ入力する際は、利用条件を確認し、必要に応じて匿名化やマスキングを行うべきである。
外部AIサービスは自動的に全ての個人情報を削除するので、利用者が対策を講じる必要はない。
情報漏えいの対策としては、出力結果の日本語表現を修正することが最も重要である。

解答

解説

この問題のポイントは、個人情報保護情報セキュリティ管理です。
外部のAIサービスに入力したデータがどのように扱われるかは、サービスの利用条件や設定によって異なります。
そのため、利用者側で適切な対策を取らなければなりません。

具体的な対策としては、次のようなものがあります。

  • 個人情報や機密情報を入力しない
  • 必要に応じて匿名化マスキングを行う
  • 利用規約やデータ利用方針を確認する
  • 社内の情報セキュリティポリシーに従う

試験対策のポイント

応用情報処理試験では、
機密性の確保
個人情報保護
外部サービス利用時のリスク管理

といった観点と結び付けて理解しておくとよいです。


3. バイアスと公平性

AIの出力や判断には、バイアスが含まれることがあります。
これは、学習データに偏りがあると、その偏りをAIが反映してしまうためです。

たとえば、採用支援AIが過去の採用実績をもとに学習している場合、過去データに偏りがあれば、その偏りを引き継いでしまう可能性があります。

問題3

ある企業が採用選考の効率化を目的として、過去の採用実績データを学習したAIを導入した。
その結果、特定の属性を持つ応募者の評価が継続的に低くなる傾向が確認された。

この問題への対応として、最も適切なものを選べ。

AIは過去データを学習しているので、評価結果は常に公平である。
学習データに偏りが含まれている可能性があるため、データや評価結果を点検し、人による監督を行う必要がある。
AIの評価結果に偏りが見られても、処理速度が速ければ業務上問題ない。
バイアスを防ぐ最も確実な方法は、AIの学習データ量を増やせばよく、内容の点検は不要である。

解答

解説

この問題の論点は、AIの公平性です。
AIは学習データに基づいて判断を行うため、元データに偏りがあれば、結果にも偏りが現れるおそれがあります。

そのため、AIの利用にあたっては、

  • 学習データの偏りを確認する
  • 出力結果や判断結果を検証する
  • 必要に応じてモデルや評価基準を見直す
  • 人間が最終的に監督する

といった対応が必要です。

試験対策のポイント

応用情報処理試験では、
バイアス
公平性
説明可能性
人間による統制

といった用語と関連付けて整理すると理解しやすくなります。


まとめ

AI利用に関して注意すべき代表的な問題は、次の3つです。

1. ハルシネーション

AIは、もっともらしい誤情報を出力することがある。
したがって、出力結果の検証が必要である。

2. 情報漏えい・プライバシー侵害

AIに入力した情報の扱いによっては、個人情報や機密情報が漏れる危険がある。
したがって、匿名化、マスキング、利用条件の確認が必要である。

3. バイアスと公平性

学習データの偏りにより、AIが不公平な判断を行うことがある。
したがって、データ点検と人による監督が必要である。

応用情報処理試験では、これらを単独で覚えるだけでなく、
情報セキュリティ, ガバナンス, 説明責任, 統制
といった周辺テーマと結び付けて理解することが大切です。


おわりに

AIは非常に便利な技術ですが、正確性・安全性・公平性の面で課題があります。
試験対策では、単に「AIは便利」と覚えるのではなく、利用時にどのような問題が起こり、どのような対策が必要かまで整理しておくことが重要です。