Seit der Veröffentlichung von chatgpt vor fast einem Jahr haben Lehrer darüber diskutiert, ob sie das Tool verbieten sollen (aus Angst, dass Schüler es zum Betrügen verwenden) oder es als Lehrmittel nutzen sollen (mit der Begründung, dass das Tool das Lernen fördern könnte und zum Schlüsselelement werden wird). Arbeitsplatz).
Die meisten Schüler an K-12-Schulen sind jedoch nicht alt genug, um ChatGPT ohne Erlaubnis eines Elternteils oder Erziehungsberechtigten zu verwenden, gemäß den eigenen Regeln des Tools.
Als OpenAI a veröffentlichte Neue FAQ für Pädagogen Im September überraschte ein Detail einige Beobachter. Darin heißt es, dass sich Kinder unter 13 Jahren nicht anmelden dürfen (was ziemlich typisch ist, in Übereinstimmung mit den Bundesgesetzen zum Datenschutz für Kleinkinder), aber es hieß auch weiter, dass „Benutzer im Alter zwischen 13 und 18 Jahren für die Nutzung der Plattform die Erlaubnis eines Elternteils oder Erziehungsberechtigten benötigen.“
Das bedeutet, dass die meisten Schüler an US-amerikanischen Mittel- und Oberschulen ChatGPT nicht einmal ohne Zustimmung der Eltern ausprobieren können, selbst wenn ihre Schulen oder Lehrer die Technologie nutzen möchten.
„In meinen achtzehn Jahren, in denen ich im Bildungswesen tätig bin … bin ich noch nie auf eine Plattform gestoßen, die eine so bizarre Einverständniserklärung erfordert“, schrieb Tony DePrato, Chief Information Officer der St. Andrew’s Episcopal School in Mississippi ein Aufsatz früher in diesem Jahr.
In einem Folgeinterview diese Woche stellte DePrato fest, dass ein wahrscheinlicher Grund für die ungewöhnliche Richtlinie darin besteht, dass „die Daten in OpenAI noch nicht einfach gefiltert oder überwacht werden können, welche Wahl haben sie also?“ Er fügte hinzu, dass viele Schulen Richtlinien haben, die sie dazu verpflichten, von Schülern gesehene Informationen zu filtern oder zu überwachen, um Schimpfwörter, altersbeschränkte Bilder und Videos oder Material zu blockieren, das möglicherweise gegen das Urheberrecht verstößt.
An Derek Newton, einen Journalisten, der schreibt ein Newsletter über akademische Integritätdie Richtlinie scheint ein Versuch von OpenAI zu sein, Bedenken auszuweichen, dass viele Studenten ChatGPT verwenden, um bei Aufgaben zu betrügen.
„Es scheint, als ob ihr einziger Hinweis auf akademische Integrität unter einer elterlichen Einwilligungsklausel verborgen ist“, sagte er gegenüber EdSurge.
Er verweist auf einen Abschnitt der OpenAI-FAQ, in dem es heißt: „Wir verstehen auch, dass einige Studenten diese Tools möglicherweise für Aufgaben verwendet haben, ohne ihre Verwendung von KI offenzulegen.“ Solche Fälle stellen möglicherweise nicht nur einen Verstoß gegen den Ehrenkodex der Schule dar, sondern können auch gegen unsere Nutzungsbedingungen verstoßen.“
Newton argumentiert, dass das Dokument letztlich nur wenig konkrete Anleitung für Pädagogen gibt, die Schülern, die nicht minderjährig sind (wie beispielsweise die meisten College-Studenten), beibringen, wie sie den Einsatz von ChatGPT zum Betrügen bekämpfen können. Dies gilt umso mehr, als in dem Dokument weiter darauf hingewiesen wird, dass sich Tools zur Erkennung, ob eine Hausaufgabe von einem Bot geschrieben wurde, als unwirksam erwiesen haben oder, schlimmer noch, dazu neigen, Schüler fälschlicherweise zu beschuldigen, die ihre Hausaufgaben selbst geschrieben haben. In den FAQ des Unternehmens heißt es: „Selbst wenn diese Tools KI-generierte Inhalte genau identifizieren könnten (was sie noch nicht können), können Studierende kleine Änderungen vornehmen, um einer Entdeckung zu entgehen.“
EdSurge hat OpenAI um einen Kommentar gebeten. Niko Felix, ein Sprecher von OpenAI, sagte in einer E-Mail: „Unser Publikum ist breiter als nur Edtech, weshalb wir die Einholung der Zustimmung der Eltern für 13- bis 17-Jährige als bewährte Vorgehensweise betrachten.“
Felix zeigte darauf Ressourcen, die das Unternehmen für Pädagogen erstellt hat um das Tool effektiv zu nutzen, einschließlich einer Anleitung mit Beispielaufforderungen. Er sagte, dass die Beamten bei Redaktionsschluss nicht für ein Interview zur Verfügung standen.
ChatGPT prüfe nicht, ob Nutzer im Alter zwischen 13 und 17 Jahren über die eingeholte Erlaubnis ihrer Eltern verfügen, bestätigte Felix.
Nicht jeder hält es für eine schlechte Idee, die Zustimmung der Eltern für die Nutzung von KI-Tools durch Minderjährige zu verlangen.
„Ich halte es tatsächlich für einen guten Rat, bis wir besser verstehen, wie sich diese KI tatsächlich auf unsere Kinder auswirken wird“, sagt James Diamond, Assistenzprofessor für Pädagogik und Fakultätsleiter des Digital Age Learning and Educational Technology-Programms an der Johns University Hopkins-Universität. „Ich bin ein Befürworter dafür, dass jüngere Schüler das Tool gemeinsam mit jemandem nutzen, der sie anleiten kann – entweder mit einem Lehrer oder jemandem zu Hause.“
Seit dem Aufstieg von ChatGPT haben viele andere Technologiegiganten ähnliche KI-Chatbots veröffentlicht. Und einige dieser Tools erlauben es Minderjährigen überhaupt nicht, sie zu verwenden.
Googles Bard beispielsweise ist für Minderjährige tabu. „Um Bard nutzen zu können, müssen Sie mindestens 18 Jahre alt sein“, heißt es google.com/faq“ target=“_blank“ rel=“noopener nofollow“>seine FAQund fügte hinzu: „Sie können nicht auf Bard zugreifen, wenn Sie ein Google-Konto haben, das von Family Link verwaltet wird, oder wenn Sie ein Google Workspace for Education-Konto haben, das als unter 18 Jahre alt eingestuft ist.“
Ungeachtet der genannten Regeln scheinen jedoch Teenager die KI-Tools zu nutzen.
A aktuelle Umfrage Das Finanzforschungsunternehmen Piper Sandler hat herausgefunden, dass 40 Prozent der Teenager angaben, ChatGPT in den letzten sechs Monaten genutzt zu haben – und viele tun dies wahrscheinlich, ohne die Erlaubnis eines Erwachsenen einzuholen.