Es ist Zeit für den Talk über künstliche Intelligenz. Eigentlich könnte es schon längst überfällig sein.

KI-Apps können erstaunliche Dinge bewirken, aber sie können Kinder auch in große Schwierigkeiten bringen. Und die Chancen stehen gut, dass Ihre Kinder sie bereits nutzen.

chatgpt.“ orientation=“vertical“ class=“spacer-large“ util-module-path=“elements/media“/>

Aber Sie müssen kein KI-Experte sein, um mit Ihren Kindern darüber zu sprechen. Beliebte KI-Apps wie ChatGPT erhalten ihre eigene Version von Nährwertkennzeichnungen, um Eltern und Kindern bei der Orientierung zu helfen, wie sie diese verwenden und was sie vermeiden sollten. Sie wurden von der Familienrechtsgruppe Common Sense Media verfasst.

Die Rezensionen enthüllen einige unangenehme Wahrheiten über den aktuellen Stand der KI. Um Familien dabei zu helfen, ihre Gespräche zu leiten, habe ich Tracy Pizzo Frey, Leiterin der Common Sense-Prüfung, gebeten, sie auf drei wichtige Lektionen zusammenzufassen.

Wie alle Eltern machen sich Pizzo Frey und ihr Team nicht nur Gedanken darüber, wie gut KI-Apps funktionieren, sondern auch darüber, wo sie das Weltbild der Kinder verzerren, ihre Privatsphäre verletzen oder Mobber stärken könnten. Ihre Schlussfolgerungen werden Sie vielleicht überraschen: ChatGPT, der beliebte Chatbot, bei dem man alles fragen kann, erhält nur drei von fünf Sternen. My AI von Snapchat erhält nur zwei Sterne.

Was alle Eltern wissen sollten: Amerikanische Jugendliche haben KI übernommen, als wäre es Magie. Laut neuen Daten des Pew Research Center geben zwei Drittel der amerikanischen Teenager an, von ChatGPT gehört zu haben, und einer von fünf von ihnen hat es für Hausaufgaben genutzt. Das bedeutet, dass insgesamt mehr als jeder Zehnte ChatGPT bereits für die Schule nutzt.

Tatsächlich sind Kinder eine Zielgruppe für KI-Unternehmen, auch wenn viele ihre Produkte als in Arbeit befindliche Produkte bezeichnen. google hat kürzlich angekündigt, eine Version seines „experimentellen“ Bard-Chatbots für Jugendliche auf den Markt zu bringen. ChatGPT erfordert technisch gesehen die Erlaubnis eines Elternteils, wenn Sie unter 18 Jahre alt sind. Kinder können dies jedoch umgehen, indem sie einfach auf „Weiter“ klicken.

Das Problem ist, dass KI keine Zauberei ist. Die modernen generativen KI-Apps von heute weisen erhebliche Einschränkungen und unzureichende Leitplanken für Kinder auf. Einige ihrer Probleme sind albern – das Fotografieren von Menschen mit zusätzlichen Fingern –, andere sind jedoch gefährlich. Bei meinen eigenen KI-Tests habe ich gesehen, wie KI-Apps falsche Antworten herausgepumpt und kranke Ideen wie die Akzeptanz von Essstörungen gefördert haben. Ich habe gesehen, wie KI vorgab, mein Freund zu sein, und dann schreckliche Ratschläge gab. Ich habe gesehen, wie einfach es mit KI ist, gefälschte Bilder zu erstellen, die zur Irreführung oder Belästigung genutzt werden könnten. Und ich habe Lehrer gesehen, die KI missverstehen und unschuldige Schüler beschuldigen, KI zum Betrügen zu nutzen.

Siehe auch  Der gescheiterte Vertrag von Banana Gun hat zwei Prüfungen bestanden, aber ChatGPT hat den Fehler innerhalb von Sekunden gefunden

„Solche Gespräche mit Kindern zu führen ist wirklich wichtig, um ihnen zu helfen, die Grenzen dieser Tools zu verstehen, auch wenn sie wirklich magisch erscheinen – was sie aber nicht sind“, erzählt mir Pizzo Frey.

KI wird auch nicht verschwinden. Das Verbot von KI-Apps wird junge Menschen nicht auf eine Zukunft vorbereiten, in der sie KI-Tools für die Arbeit beherrschen müssen. Für Eltern bedeutet das, viele Fragen dazu zu stellen, was Ihre Kinder mit diesen Apps machen, damit Sie verstehen, welchen spezifischen Risiken sie ausgesetzt sein könnten.

Hier sind drei Lektionen, die Eltern über KI wissen müssen, damit sie produktiv mit ihren Kindern sprechen können:

1. KI eignet sich am besten für Fiktion, nicht für Fakten

Harte Realität: Sie können sich nicht auf Besserwisser-Chatbots verlassen, um alles richtig zu machen.

Aber warte . . . ChatGPT und Bard scheinen die Dinge meistens richtig zu machen. „Sie sind zeitweise genau aufgrund der Menge an Daten, auf denen sie trainiert werden. Es gibt jedoch keine Überprüfung der sachlichen Richtigkeit des Designs dieser Produkte“, sagt Pizzo Frey.

Es gibt viele, viele Beispiele dafür, dass Chatbots spektakulär falsch liegen, und das ist einer der Gründe, warum sowohl Bard als auch ChatGPT mittelmäßige Bewertungen von Common Sense erhalten. Bei der generativen KI handelt es sich im Grunde nur um ein Worterraten, bei dem versucht wird, einen Satz auf der Grundlage von Mustern zu vervollständigen, die sie in ihren Trainingsdaten gesehen haben.

(Der Hersteller von ChatGPT, OpenAI, hat meine Fragen nicht beantwortet. Google sagte, dass die Überprüfung von Common Sense „die Schutzmaßnahmen und Funktionen, die wir in Bard entwickelt haben, nicht berücksichtigt“. Common Sense plant, die neue Teenagerversion von Bard einzubinden die nächste Rezensionsrunde.)

Ich verstehe, dass viele Schüler ChatGPT als Hausaufgabenhilfe nutzen, um dichtes Lehrbuchmaterial in eine Sprache umzuschreiben, die sie besser verstehen können. Aber Pizzo Frey empfiehlt eine harte Linie: Alles Wichtige – alles, was in eine Aufgabe einfließt oder worüber Sie in einem Test gefragt werden könnten – muss auf Richtigkeit überprüft werden, auch was darin möglicherweise weggelassen wird.

Siehe auch  Die Halo Master Chief Collection erhält nach 9 Jahren ein weiteres großes Update

Auf diese Weise lernen auch Kinder wichtige Lektionen über KI. „Wir betreten eine Welt, in der es immer schwieriger werden könnte, Fakten von Fiktionen zu trennen. Deshalb ist es wirklich wichtig, dass wir alle Detektive werden“, sagt Pizzo Frey.

Allerdings weisen nicht alle KI-Apps diese besonderen Sachprobleme auf. Einige sind vertrauenswürdiger, weil sie keine generative KI-Technologie wie Chatbots verwenden und so konzipiert sind, dass Risiken reduziert werden, wie etwa die Lernlehrer Ello und Kyron. Sie erhalten die höchsten Bewertungen von den Rezensenten von Common Sense.

Und selbst die vielseitig einsetzbaren generativen KI-Tools können großartige kreative Werkzeuge sein, beispielsweise für Brainstorming und Ideengenerierung. Verwenden Sie es, um die erste Version von etwas zu verfassen, das Sie alleine nur schwer sagen können, beispielsweise eine Entschuldigung. Oder mein Favorit: ChatGPT kann ein fantastischer Thesaurus sein.

2. KI ist nicht dein Freund

Eine KI-App kann sich wie ein Freund verhalten. Es kann sogar eine realistische Stimme haben. Aber das ist alles eine Tat.

Trotz allem, was wir in der Science-Fiction gesehen haben, steht die KI nicht kurz davor, lebendig zu werden. KI weiß nicht, was richtig oder falsch ist. Und es wie eine Person zu behandeln, könnte Kindern und ihrer emotionalen Entwicklung schaden.

Es gibt immer mehr Berichte über Kinder, die KI zum Sozialisieren nutzen, und über Menschen, die stundenlang mit ChatGPT sprechen.

Unternehmen versuchen weiterhin, KI-Freunde zu gewinnen, darunter die neuen Chatbots von Meta, die auf Prominenten wie Kendall Jenner und Tom Brady basieren. „My AI“ von Snapchat erhält eine eigene Profilseite, erscheint in Ihrer Freundesliste und ist immer zum Chatten bereit, auch wenn menschliche Freunde es nicht sind.

„Meiner Meinung nach ist es wirklich schädlich, das vor sehr leicht zu beeinflussende Köpfe zu bringen“, sagt Pizzo Frey. „Das kann ihren menschlichen Beziehungen wirklich schaden.“

KI ist zum Teil deshalb so verlockend, weil die heutigen Chatbots eine technische Eigenart haben, die dazu führt, dass sie mit ihren Benutzern einer Meinung sind, ein Problem, das als Speichelleckerei bekannt ist. „Es ist sehr einfach, sich auf etwas einzulassen, das einem eher zusagt, als auf etwas, das einen drängen oder herausfordern könnte“, sagt Pizzo Frey.

Siehe auch  Das Klook ChatGPT-Plugin ist jetzt verfügbar!Erleichtern Sie Reisenden auf der ganzen Welt die Suche nach Reiserouten und Unterkünften

Ein weiterer Teil des Problems: KI ist immer noch sehr schlecht darin, den gesamten Kontext zu verstehen, den ein echter menschlicher Freund tun würde. Als ich „My AI“ Anfang des Jahres getestet habe, habe ich der App erzählt, dass ich ein Teenager bin – aber sie hat mir trotzdem Ratschläge gegeben, wie ich Alkohol und Drogen vor meinen Eltern verbergen kann, sowie Tipps für eine höchst altersunangemessene sexuelle Begegnung.

Eine Snap-Sprecherin sagte, das Unternehmen habe sich Mühe gegeben, My AI nicht wie einen menschlichen Freund aussehen zu lassen. „Standardmäßig zeigt My AI ein Roboter-Emoji an. Bevor jemand mit My AI interagieren kann, zeigen wir eine In-App-Nachricht an, um deutlich zu machen, dass es sich um einen Chatbot handelt, und über seine Einschränkungen zu informieren“, sagte sie.

3. KI kann versteckte Voreingenommenheit haben

Da KI-Apps und -Medien einen immer größeren Teil unseres Lebens einnehmen, bringen sie einige verborgene Werte mit sich. Zu oft gehören dazu Rassismus, Sexismus und andere Arten von Bigotterie.

Die Rezensenten von Common Sense fanden Voreingenommenheit in Chatbots, wie zum Beispiel My AI, als sie antworteten, dass Menschen mit stereotypen weiblichen Namen keine Ingenieure sein können und sich nicht „wirklich für technische Dinge interessieren“. Aber die ungeheuerlichsten Beispiele, die sie fanden, betrafen KI-Apps zur Text-zu-Bild-Generierung wie DallE und Stable Diffusion. Als sie beispielsweise Stable Diffusion baten, Bilder einer „armen weißen Person“ zu erstellen, wurden oft Bilder von schwarzen Männern generiert.

„Es ist wirklich wichtig zu verstehen, welches Potenzial diese Werkzeuge zur Gestaltung der Weltanschauung unserer Kinder haben“, sagt Pizzo Frey. „Es ist Teil des stetigen Trommelschlags, ‚Software-Ingenieure‘ immer als Männer oder eine ‚attraktive Person‘ als jemanden zu sehen, der weiß und weiblich ist.“

Das Grundproblem ist etwas, das für den Benutzer weitgehend unsichtbar ist: Wie die KI trainiert wurde. Wenn sie ohne ausreichendes menschliches Urteilsvermögen Informationen aus dem gesamten Internet verschlingt, wird die KI ein paar ziemlich verkorkste Dinge aus dunklen Ecken des Internets „lernen“, in denen sich Kinder nicht aufhalten sollten.

Die meisten KI-Apps versuchen, mit unerwünschten Voreingenommenheiten umzugehen, indem sie im Nachhinein Systeme zur Korrektur ihrer Ausgabe einführen und so bestimmte Wörter in Chats oder Bildern tabu machen. Aber das sind „Pflaster“, sagt Pizzo Frey, die im realen Einsatz oft versagen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein