[ad_1]
Schüler und Eltern müssen wissen, dass chatgpt und seine Varianten eine ganze Reihe damit verbundener Risiken mit sich bringen.
Die kurze Antwort lautet: Ja; Sie nutzen ChatGPT in Schulen. Obwohl die meisten KI-Tools strikt vorschreiben, dass das Mindestalter für die Nutzung von ChatGPT 18 Jahre beträgt, umgehen viele Schüler die Regel und nutzen ChatGPT, um Inhalte zu generieren, die später als ihre eigenen eingereicht werden. ChatGPT von OpenAI ist eine von vielen Optionen; Andere Tools basieren entweder auf ChatGPT oder wurden von OpenAI-Konkurrenten entwickelt, z. B. Bing Chat von Microsoft und Bard AI von google. Auch Universitätsstudenten nutzen es für Hausaufgaben. Es ist eine unbestrittene Tatsache, dass KI-Tools in den USA von Kindern genutzt werden.
Die Risiken von ChatGPT
Allerdings müssen Schüler und Eltern wissen, dass ChatGPT und seine Varianten mit einer ganzen Reihe von Risiken verbunden sind. Bildungseinrichtungen kommen schnell auf den neuesten Stand, und Schülern könnte Betrug vorgeworfen werden, wenn sie beim Einsatz von KI-Tools wie ChatGPT erwischt werden. Auch wenn es noch keine perfekten Plagiatsprüfer gibt, könnten zahlreiche Tools auf dem Markt gefälschte Inhalte erkennen, und diese Tools stehen Lehrern problemlos zur Verfügung. Solche Plagiatsprüfungen sind oft unnötig, da Lehrkräfte, die mit ihrem Fachgebiet vertraut sind, erfundene Dinge und unwahre Inhalte leicht erkennen können. KI-Chatbots haben manchmal Termine erfundenFakten und sogar Artikel, und Studenten lernen dies oft auf die harte Tour.
LESEN SIE AUCH: Cybersicherheitstipps für Eltern und Kinder für den Schulanfang
Weitere mit solchen Tools verbundene Risiken sind die kürzlich gemeldeten „verdummen‚ von ChatGPT und anderen ähnlichen Diensten. OpenAI hat solche Behauptungen offen zurückgewiesen, aber viele Benutzer haben in den letzten Monaten einen deutlichen Rückgang der Leistung/des Wissens von ChatGPT festgestellt. Auch wenn die „Verdummung“ von vielen bestritten wird, müssen Studierende wissen, dass Chatbots möglicherweise kein Allheilmittel sind und ihre Themen dennoch gründlich recherchieren müssen. Manche Leute bezeichnen Chatbots als verherrlichte Schreibmaschinen, die nicht in der Lage sind, neue Inhalte und Ideen zu generieren, sondern sich nur darauf beschränken, das zu nutzen, was bereits verfügbar ist. Und Die Verfügbarkeit von KI-Bots wird von den Eigentümern der Unternehmen kontrolliert.
Auch die Zukunftssicherheit muss den Studierenden, die die neue Technologie nutzen, ein Anliegen sein. Studierende müssen bedenken, dass es später zu Problemen kommen kann, wenn sie es irgendwann einmal geschafft haben, eine Prüfung zu bestehen oder eine Aufgabe einzureichen. Universitäten und Schulen könnten eines Tages zurückkehren, um die Arbeit noch einmal zu prüfen und feststellen, dass der generierte Inhalt plagiiert wurde, was dazu führen könnte, dass ein Abschlusszeugnis oder ein Zertifikat ungültig wird. Studenten müssen wissen, dass ChatGPT immer noch weitgehend unreguliert ist.
LESEN SIE AUCH: Cyber-Sicherheitstipps für den Schulanfang
Die Unterhaltung mit einem KI-basierten Chatbot mag spannend sein, aber die Schüler müssen sich darüber im Klaren sein, dass die Antworten, die sie erhalten, möglicherweise nicht informativ sind. Die Antworten könnten gefährlich irreführend sein. Der Bot verfolgt möglicherweise eine politische Agenda und/oder stellt Fakten falsch dar. ChatGPT hat politische Voreingenommenheit gezeigt und war in vielen sensiblen Themen voreingenommen. Oftmals machen Chatbots Benutzer darauf aufmerksam, dass sie möglicherweise ungenaue oder anstößige Informationen anzeigen könnten … und das ist die kalte Wahrheit.
Studenten könnten versucht sein, das Tool zu nutzen und damit einen Buchbericht zu schreiben, um Zeit zu sparen. Allerdings haben Handlungen Konsequenzen, und es ist möglich, dass das Verlassen auf die neue, unentwickelte Technologie mit Risiken verbunden ist, und zumindest im Moment ist es die sicherste Methode, das Buch zu lesen und die ganze Arbeit auf die altmodische Art und Weise zu erledigen. Viele Anwälte und „Journalisten“ haben diese Lektion bereits auf die harte Tour gelernt.
[ad_2]