Die Marketingabteilung von OpenAI, dem amerikanischen Unternehmen, das chatgpt vermarktet, hat gerade einen weiteren schweren Schlag versetzt. In einer Pressemitteilung, die sofort in alle Ecken des Planeten weitergeleitet wurde, gab das Unternehmen bekannt, dass sein Konversationsroboter nun mit ausgestattet ist “ Vision „ und von “ die Rede „.
ChatGPT: Warum fürchten Presseverleger „GPTBot“, den OpenAI-Roboter?
Die ersten Beispiele erscheinen auf den ersten Blick harmlos: Nutzer werden es können „Machen Sie ein Foto von einem Denkmal und unterhalten Sie sich mit ChatGPT über seine Geschichte.“ oder zeig es ihm „Was ist in ihrem Kühlschrank, damit sie ihnen ein Rezept geben können“. Letztere sind erschreckend: Die Software wird dazu in der Lage sein „Kindern bei den Hausaufgaben helfen (z. B. indem Sie ein Foto einer Matheaufgabe machen) » und selbst „Erzähl ihnen eine Geschichte, bevor sie schlafen gehen“…
Wir beginnen uns vor der nächsten Ankündigung der Kommunikatoren von OpenAI zu fürchten: Wird die Software bald in der Lage sein, Kinder zurechtzuweisen, den Klang eines abendlichen Kusses zu simulieren und sie nach einem nächtlichen Albtraum zu beruhigen? Diese aufeinanderfolgenden Pressemitteilungen spielen mit der Neuheit und Faszination, die jede dieser technologischen Innovationen in uns auslöst, hinter denen – erinnern wir uns – nur Ingenieure und Codezeilen stehen.
Künstliche Intelligenz: Wird sie mich lieben oder manipulieren?
Jedes Mal kommt der Anthropomorphismus mit voller Wucht ins Spiel, um die Grenze zwischen Maschine und Mensch weiter zu verwischen. Eine Gefahr, vor der das Nationale Pilotkomitee für digitale Ethik weiterhin warnt und daran erinnert, dass eine Person – selbst wenn sie darüber informiert ist, dass sie mit einer Maschine spricht – sich mit ihr beschäftigt „ein emotionaler Dialog“. Welche Auswirkungen wird ein solcher Austausch, der Empathie nutzt und in Wirklichkeit ausschließlich auf Statistiken basiert, auf ein Kind haben? Ist ein Wort ohne Gewissen, ohne Begründung, ohne Absicht noch ein Wort?