教育テクノロジーと子どものデジタル権利について行動を起こす時が来ました
エリカ・サウスゲート博士著
オーストラリアは 1990 年以来、国連子どもの権利条約 (CRC) に署名しています。
史上最も広く批准された人権条約として、CRC は、すべての子供たち (18 歳未満) が差別のない健康で安全な子供時代を過ごし、十分な成長の機会が熟すことを可能にする基礎となる 54 の条項または原則を定めています。発達。
子どもの権利には教育を受ける権利が含まれます。 自分たちに害を及ぼさない情報を持ち、共有すること。 信頼できる情報にアクセスできること。 そしてプライバシー。
CRC は、政府がこれらの権利を子どもたちに提供すべきであると規定しています。
2021年、国連はデジタル時代における子どもの権利を強調した重要な文書を発表しました。 それは、デジタル環境に関連した子どもの権利に関する一般的意見 No. 25 と呼ばれるものでした。
一般的なコメント番号第 25 条では、デジタル世界におけるすべての子どもの権利を実現するための機会と課題の広範な概要を示し、次のように述べています。
デジタル環境…[含まれる]デジタル ネットワーク、コンテンツ、サービスとアプリケーション、接続されたデバイスと環境、仮想現実と拡張現実、人工知能、ロボット工学、自動システム、アルゴリズムとデータ分析、生体認証とインプラント技術…[それは]ますます増加していますこれは、教育を含む社会機能がデジタル技術に徐々に依存するようになっており、危機の時も含め、子どもたちの生活のほとんどの側面にわたって重要です。 これは、子どもの権利を実現するための新たな機会をもたらしますが、子どもの権利侵害や虐待のリスクももたらします。 協議の中で、子どもたちは、デジタル環境が子どもたちの安全で公平な取り組みを支援、促進、保護すべきであるという意見を表明しました。
新しいタイプのテクノロジーは、センサー、地理位置情報装置、人工知能を使用して、人に関する情報 (人口統計、位置、好みと所属) および人に関する情報 (声、心拍数、指、手足、目などの身体的属性と行動) を迅速に収集します。動きや瞳孔の拡張さえも)。
この情報は、機械学習アルゴリズムによって使用され、私たちに関するプロフィールを作成し、私たちが何をするかを予測し、私たちの知らないうちに私たちを特定の方向に誘導することさえあります。
これは私たちのオンライン生活に限った話ではありません。 また、これらの分析プロファイルは、どのような機会が利用可能か、またはどのような機会が利用できないかについての決定を自動化するために、あらゆる種類の組織によって使用されるため、より一般的に利用可能な機会にも影響を与える可能性があります。
これは子供たちの余暇生活にも影響を与え、教育にもますます影響を及ぼします。
自動化とアルゴリズムによる意思決定のこの新しい世界において、ChatGPT は、これから起こることを初めて目に見える形で表現したものです。
しかし、教育管理者や教育テクノロジーのメーカーは、自動個別指導システムや教育用チャットボットの形で学習を提供する方法を形作る技術的および教育的決定を導くための情報 (または、現在そう呼ばれているデータ) を長い間収集して使用してきました。 学習管理システムを介した配信の構造。 そして適応的な評価。
傾向としては、学生がアクセスできる学習機会と、分析ダッシュボードを通じて学習者自身がどのように表現されるかを自動化することです。
高等教育の教育者も現在この対象となっているため、学校教師のパフォーマンスも、間違いなくそのようなダッシュボードを通じて表され、評価されることになるでしょう。
私たちの人権と子供の権利を保護する規制、政策、製品設計がある場合、これは必ずしも否定的な傾向ではありません。
残念ながら、これはオーストラリアには当てはまりませんが、連邦プライバシー法は現在見直し中であり、有用なガイドラインとある程度の監視を提供する委員会、オンブズマン、人権機関が存在します。
生徒とその家族、そして多くの教師の観点からすると、教育管理者がどのような情報を収集しているのか、それが誰と共有されているのか、どのような目的と結果をもたらすのかが不明瞭であることが多いのは間違いありません。
この透明性の欠如は、データ収集を考慮するとさらに大きくなります。 使用と共有。 教育テクノロジー製品における意思決定の自動化。
教師が新しいアプリをクラスに導入するとき、これらの問題を考慮しますか?
製品の利用規約やプライバシーに関する声明は、生徒や教師のデータに何が起こっているのかを明確に説明するのではなく、曖昧にすることが多く、教育製品が日常の学習に組み込まれる場合、オプトアウトは実際には選択肢になりません。
教育テクノロジーを含むテクノロジーを強化するアルゴリズムは、「ブラック ボックス」と表現されることがよくあります。 これは 2 つのことを意味します。
1 つ目は、分析プロセスが非常に複雑で、人工知能を設計するコンピューター科学者ですら機械の意思決定プロセスを理解できないような、特定のタイプの機械学習の使用を指します。
2 つ目は、商業および政府の利益によるアルゴリズムの所有権の保護を指します。
いずれにせよ、私たちは、教育テクノロジー製品で使用されるアルゴリズムのレベルでも、より一般的な教育政策のレベルでも、「ブラックボックス」規範によって透明性と説明可能性の欠如が生じている状況にあります。
教育テクノロジー企業との契約は秘密裏に締結されることが多く、公開されません。
これに加えて、教育テクノロジーに起因する、生徒に関する自動決定や学習者としての生徒の表現に対して、生徒とその家族が異議を申し立てるメカニズムは、標準的な苦情手続きを除いて実際には存在しません。
問題は、彼らが意思決定において自動化が果たす役割を認識していない可能性や、アルゴリズムの透明性や不正行為の防止と修正に取り組み、提唱できるような的を絞った教育が不足しているため、意思決定がどのように行われたのかを理解していない可能性があることです。危害。
私が共著した「学校における AI レポート」は、オーストラリアの状況において学校、教育管理者、政策立案者、産業界が何をする必要があるかを詳しく説明しています。
しかし今、私たちはこれまで以上に、子どものデジタル権利が確実に守られるようにするための規制と法律を必要としています。
これには、生徒とその家族が真の方法で会話に参加できるようにすることや、教育管理者が倫理的で透明性のあるポリシーと手順の開発を主導して、教師が新しい機械時代で何が危機に瀕しているのかを理解できるようにすることが含まれます。エリカ・サウスゲート博士は、教育のための新興技術の准教授です (ニューカッスル大学)。 彼女は株式擁護者であり、読み書き能力を高めるためのコンピューター ゲームのメーカーであり、テクノロジー倫理学者であり、教室への没入型仮想現実に関する最長の研究である VR School Study の主任研究者でもあります。 彼女の最新の著書は『カリキュラムと教育学の仮想現実』 (Routledge) です。 教育における新しい機械時代に関する彼女の考えは、彼女の Web サイトでご覧いただけます。
エリカ・サウスゲート博士は、教育のための新興技術の准教授です (ニューカッスル大学)。 彼女は株式擁護者であり、読み書き能力を高めるためのコンピューター ゲームのメーカーであり、テクノロジー倫理学者であり、教室への没入型仮想現実に関する最長の研究である VR School Study の主任研究者でもあります。 彼女の最新の著書は『カリキュラムと教育学の仮想現実』 (Routledge) です。 教育における新しい機械時代に関する彼女の考えは、彼女の Web サイトでご覧いただけます。