1.「AIと自己推定」授業を実施
本校のDX情報数理科「データサイエンス」では、10月15日、高校3年生を対象に「AIと自己推定 — 大規模言語モデル(LLM)の判断基準を体験する」をテーマとした授業を実施しました。これは、情報化社会の基盤となるAI技術の仕組みを、生徒自らが体験的に理解し、その限界と倫理的課題について考察することを目的とした探究型の学習です。

今回の授業では、生徒一人ひとりが大規模言語モデル(Google Geminiなど)と20分間にわたる対話を行い、その会話データに基づきAIに自分の性格を推定させました。
2.活動のポイント:AIは「感情」ではなく「パターン」を読み解く
授業の核となったのは、以下の2つの活動です。
(1) 質の高いデータ収集への挑戦
生徒たちは、AIに正確に分析させるため、単なる回答ではなく、「具体性」「感情」「エピソード」の3つのルールを意識して対話データを生成しました。この活動を通じて、AIの分析精度は「インプットされるデータの質」に依存するという、データサイエンスの基本原則を体感しました。

(2) AIの思考プロセスを分解
AIが出力した推定レポートを確認した後、生徒たちは、AIが感情ではなく、対話の中の特定のキーワードの「頻度」を「特徴量」として抽出し、それを数値化・分類している仕組みを理論的に学びました。
ワークシートより(AIの判断プロセス)
AIは私たちの「感情」や「真意」を理解しているわけではありません。AIは、私たちが発した単語の頻度を拾い、それを数値化し、分類しているだけなのです。
3.生徒の学び:「ギャップ」から倫理を考える
授業の終盤、生徒たちはAIの推定結果と、自身が考える自己像との間に生じた「ギャップ(ズレ)」に焦点を当てて考察を行いました。
「なぜAIの推定は完璧ではないのか?」
生徒たちは、「対話時間が短くデータ量が不足していた」「意識的に話した言葉に偏り(バイアス)があった」といった、データサイエンス的な根拠に基づき、その限界を論理的に学習しました。
この考察を通じて、生徒たちは、社会でAIによる分析結果が利用される場合に、データの限界やバイアスを理解せず鵜呑みにすることの危険性、すなわちデータ倫理の重要性へと、思考を深めることができました。
本校では、今後も生徒が情報社会の担い手として、技術を「使う側」と「評価する側」の両方の視点を養えるよう、実践的かつ探究的な学習を推進してまいります。