comment.org/trust-without-teachers/
1 Users
0 Comments
11 Highlights
0 Notes
Tags
Top Highlights
教師の主な責任の 1 つは、どのテキストを読み、どのテキストを無視するかを決定することでした。
人文主義教育は、生徒の人間性、つまりその限界と発展の可能性の両方を認識しました。ブルーニ氏は、「自由に使える」時間は限られているので、本を読んで「最も重要で最も役立つこと」だけに専念するようにとモンテフェルトロ夫人に警告した。
認識論的信頼とは、Google が確率、冗長性、反復という計算的および統計的な用語で定義している概念です。Google はデジタル時代に向けて信頼を再構築しています。
デジタル技術のもう 1 つの影響は、認識上の権威と正当性が徐々に失われていくことである可能性があります。
デジタルの事実と虚偽をフィルタリングしようとする Google の試みは、民主主義秩序の維持に役立つ根本的かつ本質的に分散型メディアとしてのウェブの初期の賛美が時期尚早であったことを認めている
したがって、私たちに共通の課題は、情報過多の時代において、知り、信頼し、行動することが何を意味するのかを理解するために、どのようにしてテクノロジーを連携し、相互に連携するかということです。
権威ある知識、広く信頼されている知識がこれほど崩壊した場合、いかなる民主主義も生き残ることはできません。
最初の「知識ベースの信頼」記事を書いた Google のエンジニアは、序文で 18 世紀のイギリスの神学者であり論理学者であるアイザック ワッツの言葉を引用しました。「信頼することを学ぶことは、人生で最も困難な課題の 1 つです。」
私たちはこれを、新しいマシンやアルゴリズム、そしてそれらを所有する数十億ドルの会社を信頼することを学ばなければならないという脅迫的な約束として読み取ることができます。
これらは、信頼を自動化する試みの問題は、非人間的な機械に思考や決定を委任するという想定ではないことを理解するのに役立ちます。むしろ、それは、閉鎖的または不透明なシステム内での意思決定、つまり思考と判断の行為が覆い隠される可能性があるということです。自動化は人間性を曖昧にし、したがって知識の有限性を曖昧にする可能性があります。自動化の危険性は、あまりにも人間的なものになる可能性があります。
有限性に対する人道主義の主張は、テクノロジーの助けを借りて知ろうとする私たちの最近の試みの約束と危険性を理解するのに役立ちます。
Glasp is a social web highlighter that people can highlight and organize quotes and thoughts from the web, and access other like-minded people’s learning.