Schulen stellen Erlaubnisscheine aus, um die Zustimmung der Eltern einzuholen, damit Schüler Exkursionen unternehmen, sich über sexuelle Gesundheit informieren oder Sport treiben dürfen.
Einige Experten sagen jedoch, dass Schulleiter darüber nachdenken sollten, ein technologiegetriebenes Anliegen zu dieser Liste hinzuzufügen: den Einsatz von chatgpt und ähnlichen Tools, die auf künstlicher Intelligenz basieren.
Schulbezirke, die ChatGPT zuvor verboten hatten – darunter New York City, der größte des Landes –, rätseln nun, wie sie das Tool nutzen sollen um den Schülern zu helfen, die Vorteile und Grenzen der KI besser zu verstehen.
Aber wenn jede Frage, die ein ChatGPT-Benutzer stellt, in das KI-Trainingsmodell des Softwareprogramms integriert wird, kommen Datenschutzbedenken ins Spiel, sagen Experten. Und das gilt auch für andere generative KI-Produkte, die Studierenden zur Verfügung stehen.
ChatGPT zu gestatten, Informationen von Studenten zu sammeln, die dann zur Entwicklung des Tools selbst verwendet werden, würde offenbar gegen den Family Educational Rights and Privacy Act (besser bekannt als FERPA) verstoßen, der die Sammlung oder Analyse identifizierbarer Studentendaten für andere Zwecke als … verbietet Bildung, sagte David Sallay, Direktor für Jugend- und Bildungsdatenschutz beim Future of Privacy Forum, einer gemeinnützigen Organisation.
Und Datenschutzrichtlinie von ChatGPT gibt an, dass das Tool nicht für die Verwendung durch Personen unter 13 Jahren gedacht ist und dass Personen zwischen 13 und 18 Jahren die Erlaubnis eines Elternteils einholen sollten.
Dennoch geht er davon aus, dass viele Bezirke nicht den Schritt unternommen haben, eine formelle Genehmigung der Eltern einzuholen. „Ich denke viel [of schools] „Sie nutzen es nur und erzählen es niemandem“, sagte Sallay. „Das passiert bei vielen Bildungstechnologien.“
Im vergangenen Schuljahr sammelte der Schulbezirk Peninsula School in der Nähe von Seattle Erlaubnisscheine, um Schülern die Verwendung von KI-Tools wie ChatGPT im Klassenzimmer zu ermöglichen, sagte Kris Hagel, der Geschäftsführer des Bezirks für digitales Lernen, während eines Webinars der Education Week zum Thema KI am 1. November.
Aber dieses Schuljahr „waren wir etwas lockerer“, sagte Hagel.
Anstatt für jeden Schüler eine Einverständniserklärung zu verlangen, „teilen wir den Eltern zu Beginn des Jahres mit, dass unsere Schüler ab der 8. Klasse höchstwahrscheinlich KI verwenden würden“, sagte er. „Ich denke, es ist eine gute Idee, die Eltern einfach darüber zu informieren, was im Klassenzimmer vor sich geht und welche Tools Sie verwenden.“
Es sei ein kluger Schachzug, die Zustimmung der Eltern für die Nutzung von KI-Tools bei Schülern einzuholen, sagte Tammi Sisk, Spezialistin für Bildungstechnologie an den Fairfax County Public Schools in Virginia, die auch als Diskussionsteilnehmerin beim Webinar „Education Week“ fungierte. Ihr Schulbezirk entwickelt noch seine KI-Richtlinie.
„Ich sehe keinen Weg, wie wir die Erlaubnis der Eltern umgehen können, insbesondere wenn es sich um ein Verbraucherprodukt wie ChatGPT handelt“, sagte Sisk. Das Tool sei „auch nicht besonders transparent, was das angeht [it’s] einnehmen.“
Studierende nutzen ein KI-Tool, das speziell für den Bildungsbereich entwickelt wurde– denken Sie zum Beispiel an den Khanmigo-Chatbot der Khan Academy – könnte eine eher geschützte Umgebung erleben, aber Lehrer und Schulleiter sollten die Datenschutzrichtlinien jedes Tools überprüfen, bevor sie entscheiden, was zu tun ist, sagen Experten.
Erlaubnisscheine bieten einen weiteren Vorteil für Schulen: Sie helfen Eltern, besser zu verstehen, wie KI im Klassenzimmer eingesetzt wird, sagte Stacey Hawthorne, die akademische Leiterin von Learn21, einer gemeinnützigen Organisation, die mit Schulen beim Einsatz von Bildungstechnologie zusammenarbeitet.
„Dies ist eine wirklich, wirklich gute Gelegenheit, mit Eltern Gespräche über KI zu führen“, sagte Hawthorne während des Webinars der Education Week.
Bei Genehmigungsscheinen bestehen weiterhin potenzielle Datenschutzprobleme
Aber Schulen sollten sich nicht einfach die Erlaubnis holen und Schluss machen, sagte Amelia Vance, die Präsidentin des Public Interest Privacy Center, einer gemeinnützigen Organisation, die sich mit Fragen des Datenschutzes von Kindern und Schülern beschäftigt.
Unabhängig vom Alter der Schüler ist es für Pädagogen „aus Sicht der tatsächlichen Sicherheit und des Wohlbefindens am besten, den Kindern beizubringen, wie sie die Menge an persönlichen Daten, die sie in den Dienst stellen, begrenzen oder minimieren können“, so Vance sagte.
Vance empfiehlt den Schulen, den Schülern zu raten, „ihre Geschichte auszuschalten“, a Funktion ChatGPT im Frühjahr hinzugefügt Dadurch können Benutzer Fragen stellen, ohne dass die Konversation später als Trainingsdaten für das Tool verwendet wird.
Schüler sollten auch davor gewarnt werden, Aufsätze über persönliche Traumata oder auch nur einfache Informationen wie den Namen ihrer Schule, ihr Alter, ihren Wohnort oder ihr Geburtsdatum einzugeben, fügte Vance hinzu.
Sie verglich diese Art von Ratschlägen mit den Warnungen, die viele Erwachsene – die jetzt in den Zwanzigern und Dreißigern sind – in der Mittel- und Oberstufe hörten, Fremden, mit denen sie in Chatrooms sprachen, nicht zu viele Einzelheiten preiszugeben.
„Es wird wichtig sein, sicherzustellen, dass Kinder wissen, was persönlich identifizierbar sein könnte und was sie wahrscheinlich auch dann nicht eingeben sollten [ChatGPT] sagt, dass sie die Informationen nicht behalten werden“, sagte Vance.