cafe.jilis.org/2022/12/29/582/?utm_source=pocket_reader
1 Users
0 Comments
22 Highlights
0 Notes
Top Highlights
マイナンバーのときに、全部(巨大なデータベース一つに)まとめると、まとめて流出したら全部出ていっちゃうじゃないかっていうことに対する反論として、それぞれは持ったまんま必要な時だけ連携しますよっていう意味で分散管理って言ったわけです。データ保護との関係のリスクは、必要な時だけ連携するのが自由だったら、それぞれが持ってたって一緒なんですよ(笑)。物理的に別々のところに保存していたらセキュリティのリスクは下がりますよ。そうじゃないですからね。データの取り扱いのリスクの話をしてるわけですから。セキュリティ面の担保にしかならんわけですよ。
今回の問題は、データによってどういう評価が行われるのか、それは妥当なのかっていうことや、どんなデータを使うかっていうところに問題の本質があるんですよね。
今まで紙で書いてあっただけの情報までデータ化するっていう話ですからね。それこそが「データの一元化」だと思うんですよ。この「一元化」っていうのは、データがどこにあるかっていう話じゃなくて、同じ規格でデータ項目化して、一律に評価ができるようになるっていうこと。それこそが、教育データの一元化なんですよね。だから「一元化しない」って言われても、「いや一元化ですよ、これは。」って言い返さないといけない。どうです?
教育データというのは、担任の先生と馬が合わなくて、通知票に変なことを書かれてもまあまあね、1~2年経てば担任の先生も変わるし、塾に行けば違う見方をしてくれる。違うペルソナをそれぞれに持って、子ども側でもそれなりに折り合いを付けて居場所を見つけて、生きて行くんだというようなことを大前提として、おそらくやってたんですよ。それが小学校3年生のときの先生に超嫌われた結果、大学に入っても、就職になっても、こいつ1回超×つけられてるみたいなのが、永久に残ったら地獄じゃないですか。 医療データとは違います。医療というのはだいたい亡くなる前の何年間かに集中的にお世話になる。その結果、医療データも亡くなる前の何年かに溜まるんでしょう。医療データは,誤解を恐れずいえば,亡くなる方のデータを使わせてもらうわけです。 でもね、教育データはね。これから生きていく子たちのデータなわけですよ。
自治体とか学校って書いてあるじゃないですか。これね。自治体っていうのは、おそらく首長部局(県知事、市長等)のことが言いたいんだと思いますけど、高校はおおむね県ですよね。小、中学校までは大体、市区町村でしょ。学校っていうのは個人情報保護法制的には学校じゃなくて、「教育委員会」になります。「家庭」っていうのもね。誰が同意権者かっていうところ、なんとなく親だと思ってるから「家庭」って書いてあるんだと思うんですけど、そこの根本の議論は全くやってないんです。そこはほんと足りないですね。
「教育データを利活用してふるい分けを行ったりしません」と言ってるけども、いやいや、個別最適化するって書いてあるじゃないですか。個別化最適化ってことはふるい分け、選別するってことですよ。
こういう教育現場ってね。すべての人が基本的に善意なんですよね。ある意味ね、善意がもたらす悪行を問題にしているわけですよ。善意悪意、法律用語のそれとは違いますけれども、ここでは主観的には、関係者は倫理的に善なるものとして取り組まれている。それが、無自覚に悪行になってしまうっていうところをどう法が規律するか。個人情報保護法を守ると言ってるのであれば、例えば、利用目的の制限について、適正な利用目的ってなんですか?っていうふうに問いかける必要がありますが、その前提として、個人データで選別すると、そこは自覚して言っていただかないと。
過去の就活生の閲覧履歴と内定辞退の実績を機械学習にかけることによって、こういう閲覧傾向の人はこの会社は辞退するかもねっていう、そういうことが昨今できるようになってきちゃったと。 それの何が問題なの?って話は、あの時たくさん言われました。同意なくやったのガーとか、そういうことではなくてですね、その時に私が言ってたのはですね、不当に評価されることは避けられないだろうということです。確かに、機械学習にかけると、大きな単位では、統計的には正しいのかもしれないけれども、個別の一人ひとりにとっては、なんかよくわかんない原因でどこ行っても落とされるっていうような、どうせお前は辞退するんだろうって思われちゃうみたいなことが起きるっていうか、防げないんですよってことを、あの時、私は「マイクロ差別」っていう言葉を発明して言いました。
このQ&Aでは多分、「選別」を何か独特の狭い意味で捉えていると思うんですよね。どういうのでしょうか、昔のナチがやったような、そういう選別を考えているんでしょうかね。べつにそういうのに限らず、学習の最適化のために、「あなたにはこういう教材が向いてますよ」っていうリコメンドするだけでも、選別ですよ。誘導している。それが当たっているのか外れているのか、それは介入ですよね。研究には観察研究と介入研究ってありますけど、教育データで児童生徒に介入していくわけですよ。その推定が正しかったのかどうかっていうのは、誰が責任持つんだっていうことになってきますよね。そういうことは何も考えてませんと自白しちゃってるQ&Aですよねこれ。
これ、「教員にとっては課題のある児童生徒早期発見したり」っていうのは、パターナリスティックにやるわけじゃないですか。教員側にとって、あ、この子助けなきゃダメだなっていう子を、目視だけでは発見できないか、見落とすことが多いけども、データ分析の結果で教えてもらえて、対処ができる。この「課題のある」っていうのも多義的な言葉で、チューリングのような人があたるかもしれないですよね。チューリングはコミュニケーション能力は極度に悪かったようですから。でも、数学的才能が天才的だったわけでしょう。ギフテッドを発見するのか、落ちこぼれを発見するのか、「課題のある」っていうのはいろんな意味がありますし、それをどう理解するかも多様ですし、その対応のあり方もいろいろです。しかし、「教員にとって」が基準なんですよね?
Q1の目的のところに教員にとって課題のある児童の発見みたいなこと書いてあったんですね。「教員にとって」っていうのちょっと引っかかったんですけど。これ「生徒本人にとって」で一貫すべきなんじゃないですかね。
今回、なんで悉皆データを研究目的で利用しようって話になってるかっていうと、アメリカでの先行事例でWWCっていうのがあって、コクラン共同計画みたいな、公にリファレンスできるそのデータ群っていうのを用意しなきゃいけないんですけれども、教育経済学っていう非常に変わった感じの学問です。例えば65%の児童は教員に褒められてのびましたと。で、学級経営においては、子どもを褒めましょうみたいなことがメソッドとして出るわけです。全体としては子どもを誉めれば学級全体の成績が伸びるのであれば65%の子どもに達適合しているものなんだから、おそらく全体の成績が上がるはずだというフィードバックになるわけですよね。ただ、悉皆データなんで、子どもを預けている親の側からすると、我が子は褒めても別に伸びない性格を持つ残りの35%に入る可能性があって、これはこの学級では担保されないんですか?
一応、個人情報保護法の法目的はプライバシーの保護ですっていう先生方いっぱいいらっしゃいます。じゃあプライバシーって多義的なんで、もう少し詳しく言ってくれませんか?っていうと、自己情報コントロール権ですっていうのが多いですよね。そうすると、やっぱりこれも武雄図書館の頃からずっとつまっちゃうと本人同意って言いますよね。
で、理論的根拠は、自己情報コントロール権って言いますけども。その説明だと個人情報保護法の条文解釈としては矛盾するところがかなり出てきます。ここでは逐一言いませんけども。でもここでは仮にその理論に乗っかるとしてですね。その帰結として児童生徒の同意の意思表示が一番重要ということになりますよね。そこでNoって言った場合、どうなるの?っていうところが明確にされなきゃならないのに、Noって言った場合の児童生徒の教育プログラムっていうのですかね?Yesって言った人の教育システムと同等なものが用意されているの、どうなるのというところがわからない。Noっていった人の利用目的はどうなるの?ってところもわからない。母集団のデータから切り放たれた私たちはどういう教育を受けるのっていう、そこもなかったら、それは任意ってことにならないんですよね。
人格の形成過程において児童生徒の自由と自己決定の範囲は成長に従い段階的に広がっていくということころもあるようにも思うので、今回義務教育を考えているとしたら、低学年にはちょっとしばくというか、体罰はあかんですが、少しは強制の契機も必要じゃないですか?
結局、クソ教師問題から、学校の機能論で、学校は教えるだけじゃなくて、子どもの居場所を作って、地域の安全も支えて、さらに子どもの生活態度から家庭の問題まで入り込む可能性がやっぱりあるんで、そこはもうちょっと学校教育の現場で背負わせるものを、もうちょっと減らしてあげたほうがいいんじゃないかなとは思いますね。
OECDガイドラインの2つ目の原則にあるんですが、「Data Quality Principle」、「データ内容の原則」などと訳されているんですけど、これが何を言ってるかというと、personal dataはその利用目的に対して「relevant」でなければならないと。「Personal data should be relevant to the purposes for which they are to be used」ってなってるんですね。これが日本語に訳されると「個人データはその利用目的に沿ったものであるべきであり」などとなるわけですが、どういう意味なのか、よくわかんないですよね。これが巷では、「データ最小化」と捉えられちゃって、漏えい対策みたいに受け止められているんですね。余計なものを持っていると漏えいするからリスク減らせみたいな。そういうことじゃないんだってことを今日、言いたいんですよ。
中国の信用スコアなんかはまさにそういう世界で、関係のない、relevantじゃない、普段の生活で評価されて、直接関係ないことに関連付けられると。これこそが1970年代に問題にされた出発点なんですね。データ保護制度が始まる出発点は最初にそこがあったと。そのことはしっかりとこの「データ内容の原則」のところに書いてあると。ところが日本法にはこれが一切ないんですよね。しかも誰もわかってない。ほとんどの先生わかってないでしょ? だから、「こういうことをやりたい」って言えば、「必要な」データってことになっちゃうわけですよね。今回の、教育データ使って分析したい、目的は「教育のため」とか「個別最適化のため」とかって言っちゃえば、あらゆるデータ使っていいっていうのが日本法なんですよ。それ、誰も止められないんですよ。
最新の公的な文書としてはEUのAI規則案ですよ。EUのAI規則案で、4つの種類のAIだけは絶対禁止ってしてるんです(shall be prohibited,5条1項(a)-(d))。まだ欧州委員会が案として出してるだけで法律になってないですけど、4つの種類だけは絶対やめようっていう中に、「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」scoringという類型があります(5条1項(c))。コンテキストと関係がないっていうのが、今のrelevancyの現在地ですよ。そういうscoringはやめようっていうのが、そのAI規則案が4つだけ禁止している、絶対ダメなものひとつなんです。教育ログは、そこにちょっとね、一歩入りかけとるわけですよ。気をつけないといけない。欧州が絶対ダメって言ってるんですからね。それをね、ニコニコして入れたらね。お前らバカなのかってなるじゃないですか。だから欧州に従えという話ではないですが,絶対禁止になっている4つのところぐらいは見ながらやっぱやらないとまずいですよね。だって他に禁止されてるのって、サブリミナルで自殺に追い込むAIとかそんなやつですよ?(5条1項(a))。それと同等程度にダメだっていうふうに言ってるわけです。
例えば、一連の教育データ利活用で悪名高き先進事例となった大阪府箕面市の子ども見守り事業では、自治体が市内の公立学校から出る教育データを取ってきて、納税状況などと同じダッシュボードで管理して、子どもの成績や気分の変遷を見ながらきめ細かい児童福祉を実現するとしている。しかし、教育学の基本として子どもの成績急落や生活態度の悪化の主な原因のひとつは確かに家庭にあるとはいえ、そのかなりの割合は両親の「離婚」や「病気」「失業」がマジョリティです。これこそ、個人に関する情報である子どもの教育データ利活用の観点からすれば、OECDが口を酸っぱく言っている必要最低限でrelevantなデータ活用なのかと言われると、当然否定されるべきものだと言えます。
Glasp is a social web highlighter that people can highlight and organize quotes and thoughts from the web, and access other like-minded people’s learning.