学校でAIを安全に使うためのセキュリティガイドライン
教育現場でAIを導入する際に必要なセキュリティ対策とガイドライン作成のポイントを解説します。個人情報保護とデータ管理の実践的な方法をご紹介。
生成AIを教育現場で活用する際、最も重要な課題の一つがセキュリティとプライバシー保護です。生徒の個人情報や学習データを適切に管理し、安全な環境でAIを活用するためには、明確なガイドラインと運用体制が必要です。
本記事では、学校でAIを安全に使うためのセキュリティガイドライン作成のポイントと、具体的な対策方法をご紹介します。
なぜセキュリティガイドラインが必要か
一般的なChatGPTなどの生成AIサービスでは、入力されたデータがサービス提供者のサーバーに送信され、場合によってはモデルの学習に使用される可能性があります。これは、以下のようなリスクを伴います。
個人情報の漏洩リスク
生徒の氏名、住所、成績などの個人情報を入力した場合、それらの情報が外部に流出する可能性があります。また、入力した内容が他のユーザーの回答に反映される可能性もあります。
著作権侵害のリスク
教材や生徒の作品をAIに入力した場合、それらが無断で学習データとして使用され、著作権が侵害される可能性があります。
不適切な利用のリスク
生徒が不適切な内容を生成したり、カンニングに使用したりするなど、教育的に望ましくない使い方をする可能性があります。
これらのリスクを最小限に抑えるため、学校としての明確なガイドラインが必要です。
ガイドライン作成の5つのステップ
ステップ1: 現状の把握
まず、学校で現在どのようにAIが使われているか、または使われようとしているかを把握します。教員による授業準備での利用、生徒による学習支援での利用など、様々な場面を想定します。
また、学校が保有する個人情報の種類や、既存の情報セキュリティポリシーを確認します。
ステップ2: リスクの評価
想定される利用場面ごとに、どのようなリスクがあるかを評価します。個人情報漏洩、著作権侵害、不適切な利用など、具体的なリスクをリストアップします。
ステップ3: 対策の検討
リスクに対する具体的な対策を検討します。技術的な対策(プライベートGPTの導入など)、運用的な対策(利用ルールの策定など)、教育的な対策(情報リテラシー教育など)を組み合わせます。
ステップ4: ガイドラインの作成
検討した対策をもとに、具体的なガイドラインを作成します。誰が、何を、どのように使ってよいか、使ってはいけないかを明確にします。
ステップ5: 周知と運用
作成したガイドラインを教員、生徒、保護者に周知し、実際の運用を開始します。定期的に見直しを行い、必要に応じて更新します。
ガイドラインに含めるべき項目
学校のAI利用ガイドラインには、以下の項目を含めることをお勧めします。
1. 利用目的
AIをどのような目的で使用するかを明確にします。学習支援、授業準備、校務効率化など、認められる利用目的を具体的に記載します。
例: 「本校では、生徒の学習支援と教員の業務効率化を目的として、生成AIの利用を認めます。」
2. 利用可能なサービス
学校として推奨または許可するAIサービスを明記します。セキュリティが確保されたサービスのみを使用するよう指定します。
例: 「学校が契約するプライベートGPTのみを使用してください。個人アカウントでの一般的なChatGPTの使用は禁止します。」
3. 入力してはいけない情報
個人情報やその他の機密情報を入力しないよう、具体的に指定します。
例:
- 生徒の氏名、住所、電話番号などの個人情報
- 成績や評価などの機密情報
- 他者の著作物をそのまま入力すること
- 学校の内部情報や未公開の情報
4. 禁止事項
不適切な利用を防ぐため、明確に禁止事項を定めます。
例:
- AIが生成した文章をそのまま自分の作品として提出すること
- 他者を傷つける内容や不適切な内容を生成すること
- テストやレポート課題で不正にAIを使用すること
- 他者のアカウントを使用すること
5. 適切な利用方法
どのような使い方が推奨されるかを具体例とともに示します。
例:
- アイデアのブレインストーミングに使用する
- 分からない概念の説明を求める
- 文章の構成を考える際の参考にする
- 英語の対話練習に使用する
6. 教員の責任
教員がAIを使用する際の責任と注意事項を明記します。
例:
- 授業でAIを使用する際は、事前に管理職に報告する
- 生徒の個人情報を入力しない
- AIの回答の正確性を確認する
- 生徒に適切な使用方法を指導する
7. 生徒の責任
生徒がAIを使用する際の責任と注意事項を明記します。
例:
- 個人情報を入力しない
- AIの回答を鵜呑みにせず、必ず確認する
- 不適切な使用をしない
- 問題があれば教員に報告する
8. 保護者の役割
家庭でのAI利用について、保護者に協力を求める内容を記載します。
例:
- 家庭でAIを使用する際も、学校のガイドラインに準じる
- 子どもの利用状況を見守る
- 疑問や問題があれば学校に相談する
9. 違反時の対応
ガイドラインに違反した場合の対応を明記します。
例:
- 初回は注意指導を行う
- 繰り返す場合は保護者に連絡し、利用を制限する
- 重大な違反の場合は懲戒の対象とする
10. 見直しと更新
ガイドラインを定期的に見直し、必要に応じて更新することを明記します。
例: 「本ガイドラインは年1回見直しを行い、必要に応じて更新します。」
技術的なセキュリティ対策
ガイドラインに加えて、技術的なセキュリティ対策も重要です。
プライベートGPTの導入
学校専用の生成AI環境を構築することで、入力されたデータが外部に流出するリスクを最小限に抑えることができます。プライベートGPTでは、以下のような機能が提供されます。
- データが学習に使用されない
- アクセス制限とユーザー管理
- 利用ログの記録と監視
- 学校のネットワーク内での利用
アクセス制限
誰がどのようにAIにアクセスできるかを制限します。学校のアカウントでのみアクセス可能にし、個人アカウントの使用を禁止します。
利用ログの記録
誰が、いつ、どのような質問をしたかを記録し、不適切な利用を早期に発見できるようにします。ただし、プライバシーに配慮し、詳細な内容ではなく、利用時間や頻度などの統計情報を記録します。
フィルタリング
不適切な内容の生成を防ぐため、入力や出力にフィルタリングを適用します。暴力的な内容、差別的な内容などを自動的にブロックします。
運用体制の整備
技術的な対策に加えて、運用体制の整備も重要です。
AI利用責任者の設置
学校内でAI利用を統括する責任者を設置します。情報科の教員や情報管理担当者が適任です。責任者は、ガイドラインの作成、教員への研修、利用状況の監視などを行います。
教員研修の実施
教員がAIを適切に使用できるよう、定期的な研修を実施します。セキュリティリスク、適切な使用方法、生徒への指導方法などを学びます。
生徒への指導
情報の授業や総合的な学習の時間を活用して、生徒にAIの適切な使用方法を指導します。セキュリティリスク、情報リテラシー、倫理的な問題などを扱います。
保護者への説明
保護者会や学校通信を通じて、学校のAI利用方針を説明します。家庭での協力を求めるとともに、質問や懸念に答えます。
定期的な見直し
AIの技術は急速に進化しているため、ガイドラインや運用体制を定期的に見直します。新しいリスクが発見された場合は、速やかに対策を追加します。
他校の事例
A中学校の事例
A中学校では、プライベートGPTを導入し、以下のようなガイドラインを策定しました。
- 授業での使用は教員の指導のもとでのみ許可
- 個人情報は絶対に入力しない
- AIの回答は必ず複数の情報源で確認する
- 不適切な使用を発見した場合は速やかに報告する
導入後、教員向けの研修を3回実施し、生徒向けには情報の授業で2時間の指導を行いました。保護者向けには説明会を開催し、質問に答えました。
運用開始から半年後、利用状況を調査したところ、大きな問題は発生しておらず、生徒の学習意欲が向上したという報告がありました。
B高校の事例
B高校では、既存の情報セキュリティポリシーにAI利用に関する項目を追加する形でガイドラインを作成しました。
特に、レポート課題でのAI利用について詳細なルールを定めました。AIを使ってアイデアを得ることは許可するが、生成された文章をそのまま使用することは禁止し、必ず自分の言葉で書き直すことを求めました。
また、教員が課題を出す際に、「この課題ではAIの使用を認める」または「この課題ではAIの使用を禁止する」と明記することを義務付けました。
まとめ
学校でAIを安全に使うためには、明確なセキュリティガイドラインと適切な運用体制が不可欠です。技術的な対策、運用的な対策、教育的な対策を組み合わせることで、リスクを最小限に抑えながら、AIの利点を最大限に活用することができます。
ガイドライン作成は一度で完成するものではなく、継続的な見直しと改善が必要です。教員、生徒、保護者が協力し、安全で効果的なAI活用を実現しましょう。
本記事で紹介した内容を参考に、貴校の状況に合わせたガイドラインを作成してください。