Snapchat führt neue Tools ein, darunter einen Altersfilter und Erkenntnisse für Eltern, um seinen KI-Chatbot zu verbessern.
Tage nachdem Snapchat seinen GPT-basierten Chatbot für Snapchat+-Abonnenten gestartet hatte, hob ein Bericht der Washington Post hervor, dass der Bot geantwortet hatte eine unsichere und unangemessene Weise.
Snap sagte, es habe erfahren, dass Leute versuchten, „den Chatbot dazu zu bringen, Antworten zu geben, die nicht unseren Richtlinien entsprechen“, und die neuen Tools sollen die Antworten der KI in Schach halten.
Der neue Altersfilter teilt dem Chatbot die Geburtsdaten seiner Benutzer mit und stellt sicher, dass er altersgerecht reagiert, so das Unternehmen.
In den kommenden Wochen plant Snap außerdem, Eltern oder Erziehungsberechtigten mehr Einblicke in die Interaktionen von Kindern mit dem Chatbot in seinem Familienzentrum zu geben, das im vergangenen August eingeführt wurde. Die neue Funktion teilt Eltern oder Erziehungsberechtigten mit, wie ihre Kinder mit dem Chatbot kommunizieren und wie oft diese Interaktionen stattfinden. Sowohl der Erziehungsberechtigte als auch die Teenager müssen sich für die Nutzung des Familiencenters entscheiden, um diese Kindersicherungsfunktionen nutzen zu können.
In ein Blogbeitragerklärte Snap, dass der My AI-Chatbot kein „echter Freund“ sei, und erklärte, dass er sich auf den Gesprächsverlauf verlasse, um seine Antworten zu verbessern.
Das Unternehmen gab an, dass der Bot nur 0,01 % der Antworten in „nicht konformer“ Sprache gegeben habe. Snap zählt jede Antwort, die Verweise auf Gewalt, sexuell explizite Begriffe, illegalen Drogenkonsum, sexuellen Missbrauch von Kindern, Mobbing, Hassreden, abfällige oder voreingenommene Äußerungen, Rassismus, Frauenfeindlichkeit oder die Ausgrenzung unterrepräsentierter Gruppen enthält, als „nicht konform“.
Das Unternehmen sagte, dass unangemessene Antworten in den meisten Fällen darauf zurückzuführen seien, dass der Bot alles nachgeplappert habe, was die Benutzer gesagt hätten. Es hieß auch, dass die Firma den Zugriff auf KI-Bots vorübergehend für Benutzer blockieren wird, die den Dienst missbrauchen.
„Wir werden diese Erkenntnisse weiterhin nutzen, um My AI zu verbessern. Diese Daten werden uns auch dabei helfen, ein neues System bereitzustellen, um den Missbrauch von „Meine KI“ einzuschränken. Wir fügen unserem bestehenden Toolset die Moderationstechnologie von OpenAI hinzu, die es uns ermöglichen wird, die Schwere potenziell schädlicher Inhalte einzuschätzen und den Zugriff von Snapchattern auf My AI vorübergehend einzuschränken, wenn sie den Dienst missbrauchen“, sagte Snap.
Snap ist immer noch ziemlich optimistisch in Bezug auf generative KI-Tools. Neben dem Chatbot hat das Unternehmen vor einigen Wochen einen KI-gestützten Hintergrundgenerator eingeführt, der durch Eingabeaufforderungen für Snapchat+-Abonnenten funktioniert.
Angesichts der Verbreitung von KI-gestützten Tools sind viele Menschen um ihre Sicherheit und Privatsphäre besorgt. Letzte Woche rief eine Ethikgruppe an das Center for Artificial Intelligence and Digital Policy schrieb an die US Federal Trade Commissionund forderte die Agentur auf, die Einführung des GPT-4-Modells von OpenAI zu unterbrechen, und sagte, die Technologie sei „voreingenommen, irreführend und ein Risiko für die Privatsphäre und die öffentliche Sicherheit“.
Letzten Monat auch US-Senator Michael Bennet (Demokrat von Colorado). schrieb einen Brief an OpenAI, Meta, Google, Microsoft und Snap, die Bedenken hinsichtlich generativer KI-Tools äußern, die von Teenagern verwendet werden.
Es ist offensichtlich, dass diese KI-Modelle anfällig für schädliche Eingaben sind und manipuliert werden können, um unangemessene Antworten auszugeben. Während Technologieunternehmen diese Tools möglicherweise schnell einführen möchten, müssen sie sicherstellen, dass genügend Leitplanken vorhanden sind, um deren Missbrauch zu verhindern.