学習端末でのデータ活用、新たな見守りツールか過剰な監視か…プライバシーや人権を考える

教育現場では1人1台のタブレットなどが配布されている(写真はイメージ)
全国の小中学生に1人1台のコンピューターを配備する政府の「GIGAスクール構想」が進み、今や子どもに関する多様なデータが収集可能になった。閲覧・検索履歴のほか、端末の内蔵カメラを通じて子どもの感情を分析するなど、教育現場での活用も広がっている。データの活用は子どもの見守りや効率的な学習に役立つかもしれない。だが、プライバシーやAI活用などのリスクは十分に検証されているのだろうか。(編集委員・若江雅子)
「透明性を欠く」有識者が批判
「透明性に欠けた対応ではないか」
3月22日に開催された文部科学省の「教育データの利活用に関する有識者会議」。委員の石井 夏生利かおり ・中央大教授(情報法)がまず批判の矛先を向けたのは、事務局のパブリックコメント(パブコメ=意見公募)に対する姿勢だった。
文部科学省は、学校や教育委員会が教育データを利活用する場合に注意すべき点を「留意事項(案)」として約60ページの文書にまとめ、2月28日から2週間、パブコメを実施、17日に確定版を公表した。
留意事項案では、主に(1)個人情報保護(2)プライバシー保護(3)セキュリティー対策が整理されたが、記述の多くは個人情報保護法の説明で、プライバシーについての記載は約2ページのみ。データに基づく分析・推測(プロファイリング)のリスクにも触れていなかった。
パブコメには21件の意見が寄せられた。だが、文部科学省は、提出者については団体名さえ非公表で、内容も一部の意見だけを選んで概要を公表しただけ。これではどのような意見が寄せられ、対応したのか外部からは検証できない。事務局は「有識者会議の構成員や、個人情報保護委員会などのオブザーバーにも教えていない」という。
パブコメの本来の目的は、行政運営の公正さと透明性確保だ。政省令の改正などで新たに国民の権利を制限したり、義務を課したりする場合には、行政手続法に基づく必須の手続きとなるが、今回の「留意事項」のように任意で行われるパブコメも多い。その場合でも多くの省庁は、各意見に対して事務局の考え方を示す「パブコメ返し」などを行った上で、パブコメ結果を踏まえた修正案を有識者会議などにはかって透明性を確保することが一般的だ。
石井教授は「締め切りからわずか4日後には確定版を公表し、意見をちゃんと検討しようというスケジュールになっていない」と指摘する。形だけ国民の声に耳を傾けたという「ポーズ」のようにも見えるのだ。
閲覧履歴や危険な検索ワードも分析
石井教授がパブコメの適正な取り扱いにこだわったのは、この「留意事項」が扱う教育データ利活用は、「憲法で保障された内心の自由や、プライバシー、個人情報保護などの子どもの権利にかかわる重要な内容で、本来、国民の意見に耳をしっかり傾ける必要があるテーマ」と考えているからだ。

例に挙げるのが、東京都渋谷区教育委員会の「教育ダッシュボード」事業。区教委では、小中学生に配布した学習端末の閲覧・検索履歴や学力テスト、意識調査などのデータを昨秋から統合し、多面的な分析を始めた。一人一人の子どもの状態が一覧できるページも用意され、学外で端末を利用している時間帯も含め、どんなサイトを見ているのかも、「自殺」などの危険なキーワードをいつ何回検索していたのかもすぐわかる仕組みだ。
目的は「児童生徒の指導・支援や学校運営の改善など」。実際、表面上は異変が読み取れない子どもが、何千回も自殺に関する言葉を検索しているケースもあり、「これまで救えなかった子どもを、データによって救うことができるかもしれない」と区教委は期待する。
ただ、閲覧履歴などを全て把握することは、心の奥底に踏み込むことに近い。石井教授は「データが子どもの見守りに有効なことは疑いようもないが、閲覧履歴などは非常に機微性の高い情報で、網羅的に収集すれば子どものプライバシー侵害にあたる恐れが否定できない」と懸念する。
そもそも渋谷区個人情報保護条例は7条で「思想、信条及び宗教に関する事項」を原則として収集してはならないとしており、網羅的な閲覧履歴や検索履歴はこれに当たると解される可能性もある。また、改正法の施行で4月から自治体に適用される個人情報保護法では、利用目的の達成のために「必要」な範囲を超える保有は認めていない。
たとえ児童生徒の指導や支援という正当な目的のためでも、やり過ぎれば「必要な範囲」を超えていると判断される恐れもある。自宅でも利用する端末の閲覧履歴などをすべて取得することは、「必要な範囲」といえるのだろうか。
子どものデータへのアクセス、担任以外の教員や区教委も
問題は個人情報保護法だけではない。プライバシー侵害の有無を判断する上で必要となる様々な要素は考慮されたのだろうか。例えば、データにアクセスできる範囲はどうだろう。同区では子どものデータへのアクセス権を担任だけでなく、その学校の他の教員や区教委にも与えているが、その範囲は適切だろうか。
また、保護者や子どもが正しく理解し納得しているかどうかも重要だろう。区教委は昨年9月に保護者連絡用アプリで通知したと説明するが、気づいていない保護者は少なくない。プライバシー対策を専門とする渋谷区在住の弁護士さえ「毎日、何通もくる通知の中に埋もれて気づかなかった」というほどだ。
生体情報による感情センシングも
滋賀県東近江市の市立小学校1校で行われている文科省の実証事業も、データ利活用と子どもの権利の悩ましい関係を考えさせる。

昨年11月から、同校の児童約80人について端末内蔵カメラで脈波や瞳孔の動きなどを測定し、「感情センシング」という手法でリアルタイムに感情を分析しているという。
「どんな教材や教え方に接した時にわくわくし、あるいは興味を失うかが分かれば、その子に最適な学びを実現でき、授業改善にも役立つ。いじめや不登校の早期発見にもつながる」。プロジェクトリーダーの藤村裕一・鳴門教育大教授は意義を語る。
特筆されるのがデータの正確性だ。「これまで、子どもの心理状態を把握するには本人にその日の気分などを記入させてきたが、子どもは不安や恥じらいなどから正直に記載できないことがある」と藤村教授。だが、生体情報は偽装が不可能だ。
保護者が利用目的や意義を正しく理解して、納得してくれることが大切だと考え、運用前には保護者説明会も開いたという。利用目的を定め、その達成に必要な範囲でデータを使うなら、個人情報保護法上は適法といえるかもしれない。それでも石井教授は、「憲法上保護される思想・良心の自由に踏み込むことにならないか」と懸念する。
パブコメでも指摘はあった
実は、同様の懸念は「留意事項」に対するパブコメの中でも上がっていた。文科省は明らかにしなかったが、意見提出団体のうち少なくとも2団体が自らのウェブサイトなどで提出意見を公表している。
このうち一般社団法人マイデータ・ジャパンは、プライバシー保護に関する検討が欠落している点などを批判している。個人情報保護委員会が公表した「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会報告書」を引き合いに出しつつ、同報告書が14の裁判例をもとに、カメラ画像の利活用で想定されるプライバシー侵害のおそれについて検討しているのに比べ、教育データの利活用では裁判例を参照した具体的な検討がなされていないと指摘している。
「留意事項」にAIによるプロファイリングについて記載がないことも問題視し、〈どのようなプロファイリングが許容されるのかを、プライバシーの観点から検討すべきであった〉と指摘。具体的に(1)利用目的については、学習能力の向上は許容されるが、逸脱行為の可能性測定は許容されないのではないか、(2)利用可能なデータについては、脈波や瞳孔などの生体情報の利用には制限があるべきではないか、(3)進路やクラス分けに関するプロファイリングの結果の適用については、児童生徒に強制するのではなく、児童生徒本人の希望を優先させるべき場合があるのではないか――などと提言している。
滋賀大学の加納圭教授がプロジェクトリーダーを務める研究グループも6点の意見を公表した。同グループは、憲法学や教育学、倫理学、情報工学など様々な分野の専門家が参画し、教育データの利活用で生じうるELSI(Ethical, Legal and Social Issues:倫理的・法的・社会的課題)やその対策を研究している。
今回のパブコメでは(1)憲法上の教育を受ける権利や教育の自由の観点からの議論が不足している、(2)AIを用いたプロファイリングはプライバシー権との関係で重大な問題であり、検討を深めるべきだ、(3)本格導入の前にまずは予見的アセスメントを行うべきだ――などと指摘した。
メンバーの一人で憲法学が専門の堀口悟郎・岡山大准教授は「教育データを巡る問題には『児童生徒』のほか、『保護者』『教師』『学校設置者』『研究機関』『民間事業者』『府省庁』など様々なステークホルダーが存在するが、まずは児童生徒の個人の便益と不利益を第一に考えるべきだ。いまは児童生徒や教員を蚊帳の外に置いたまま、技術主導での議論が先行している印象がある」と危惧する。
両団体のパブコメから伝わってくるのは、「利活用を急ぐあまり、子どもの人権保護や社会の進む方向性など、本来検討すべき点が置き去りになっているのではないか」という危機感である。
何が「子どものため」か、整理が必要
データ駆動型社会を築く上で、利活用と保護のバランスをどうとるかは永遠の課題といっていいほどで、医療、労働、治安対策など、どの分野でも調整は難航している。だが、中でも教育は、子どもや教育そのものの特性上、特に慎重な検討が求められる分野ではないか。
子どもは未成熟な存在だ。一般的に成人に比べ判断能力が劣るとして、一定の権利が制限される一方、特別な保護が必要になると考えられてきた。だが、何が「子どものため」の保護といえるのかは整理が必要だ。
特に日本では、教育におけるパターナリズム(父権主義)が強く、子ども本人の自由や自律は軽視されがちだった。パターナリズムとは、強い立場にある者が、弱い立場にある者の利益のためとして、本人の意志は問わずに介入・支援することを指す。行き過ぎた例として分かりやすいのが、「ブラック校則」だろう。子どもを逸脱行動から守ろうとするあまり、髪の黒染めや地毛証明書の提出などの理不尽な校則を生み出した。
データ利用でも同様の傾向はないだろうか。虐待やいじめから子どもを守ろうとするあまり、閲覧履歴や検索履歴を常時取得することは、子どもの人格や人生への姿勢にどのような影響を与えるだろうか。常に監視されていることを意識することで、余計なことは何も調べようとしない子どもを生み出さないとも限らない。
子どもや保護者が拒否できる?
「日本型学校教育」とも呼ばれる日本の公教育の特性も考慮する必要がある。学習のみならず、給食や掃除、部活など生活全般に指導が及び、生活共同体のようになった日本の学校が子どもや保護者に与える影響力は他国とは比較にならないほど大きい。データを処理されることがたとえ嫌でも、子どもや保護者が拒否することは難しいだろう。子ども本人または保護者の「同意」をとっていたとしても、その有効性は疑わしい。

(写真はイメージ)
この点、欧州をはじめ海外では子どもや教育の特性に配慮した法制度整備が進むが、日本には一般法である個人情報保護法しか存在していない。一部の要配慮個人情報への対応をのぞき、すべての個人情報に一律に対応する同法では、子どもに対する特別な保護も、教育の特性に配慮した対応も難しいだろう。
教育をどうデザインするかは、私たちの社会の未来をどうデザインするかに等しい。子どもをもたない者や、これから生まれてくる子どもも含め、社会のすべての構成員にとっての重要な問題になる。教育をAIやデータにどの程度ゆだねるのかも、私たちの社会の性格を決定づける大きな論点だろう。
AIが考える「優等生」が再生産される
AIとデータによって個別最適化された教育は、学力向上に役立つ可能性は十分にある。他方で、データとAIを過度に重視した結果、AIの考える優等生、すなわち現時点での「成功者」を学習モデルとして考えられた「優等生」が再生産され続ける可能性もある。それが新しい時代を託す人材として望ましいのかどうかは検討の余地がある。
非常にさじ加減の難しい問題である。だが、2020年7月から始まり、今回で17回にも及んだ文科省のこの有識者会議で、子どもの人権や社会の未来へのリスクが正面から議論されたことはほとんどなかった。
事務局では、有識者会議を改組して仕切り直すことも検討しているという。教育データを利用する立場の教育工学の専門家や利活用に取り組む学校関係者ばかりでなく、憲法や社会学の専門家など幅広い専門家をまじえた議論に期待したい。
読売新聞オンライン