Der Einsatz von KI wird immer weiter verbreitet und hat zunehmende Auswirkungen auf unser tägliches Leben
Maschinelles Lernen: einer der Motoren von chatgpt
In der Informatik bezieht sich „maschinelles Lernen“ auf Programme, die lernen können, ohne dass Änderungen an ihnen vorgenommen werden. Maschinelle Lernprogramme stehen somit im Gegensatz zu herkömmlichen Programmen, die Eingaben verwenden, um Ausgaben zu erzeugen.Ein Skript für maschinelles Lernen verwendet Eingaben und Ausgaben, um eine Methode oder ein Verfahren zu erstellen, um genauere Antworten aus zuvor erstellten Ergebnissen zu erhalten.
Maschinelles Lernen nutzt Techniken und Zweige der angewandten Mathematik, wie etwa Optimierung, numerische Methoden oder Statistik. ChatGPT basiert auf maschinellen und Deep-Learning-Techniken.
Wie KI unser tägliches Leben beeinflussen wird
KI beeinflusst bereits jetzt unser tägliches Leben und wird auch weiterhin erhebliche Auswirkungen haben. ChatGPT ermöglicht beispielsweise die Erstellung von Inhalten (Texte, Computerprogramme etc.) unterschiedlicher Qualität in Rekordzeit. ChatGPT ist oft genau und schnell. Darüber hinaus ermöglicht künstliche Intelligenz mittlerweile die Erbringung bekannter technisch aufwändiger Dienste, beispielsweise die Erstellung und Gestaltung von Websites. Darüber hinaus nutzen immer mehr Entwickler KI-Tools, um Algorithmen zu erstellen und die Produktivität zu steigern. Ganz allgemein werden Unternehmen mit Sicherheit künstliche Intelligenz nutzen, um in verschiedenen Bereichen effizienter zu sein: Kundenservice, Prozessautomatisierung, Kostensenkung usw.
Tech-Giganten wie Snap, Instacart, Quizlet, Shopify und Speak haben ChatGPT über APIs oder Chatbots mit dem OpenAI-Tool eingeführt.
Viele Forscher und Intellektuelle sind sich einig, dass die Entwicklung dieser künstlichen Intelligenz exponentiell voranschreitet und welche Auswirkungen dies auf unser tägliches Leben haben wird. So können wir schnell hochentwickelte Assistenten gewinnen, die unsere E-Mails schreiben, unsere Tagebücher programmieren und immer innovativere Inhalte generieren können. Einige Studierende haben das Potenzial dieser künstlichen Intelligenzen erkannt und nutzen sie in ihren Präsentationen und Arbeiten. Obwohl diese Intelligenzen heute noch nicht vollständig entwickelt sind, führen sie zu erheblichen Fehlern in den formulierten Ergebnissen.
Rivalität zwischen google und offener KI
Angesichts des harten Wettbewerbs im Bereich der künstlichen Intelligenz herrscht eine Rivalität zwischen Google und Open AI, der Alphabet-Konzern hat die Veröffentlichung von Artikeln zum Thema KI reduziert. Aus gutem Grund kann die Weiterentwicklung der generativen Intelligenz, die durch Lernen die Erstellung neuer Inhalte unter Verwendung vorhandener Informationen ermöglicht, dem Konkurrenten helfen. Beachten Sie, dass große Namen im Technologiebereich wie Meta oder Google früher regelmäßig Forschungsartikel über KI veröffentlichten.
Die Einschränkungen und Mängel des ChatGPT-Tools
Das ChatGPT-Tool ist zwar beeindruckend (sogar revolutionär), weist jedoch relativ erhebliche Mängel auf. Beispielsweise wird die verwendete Datenbank im September 2021 eingestellt, im Gegensatz zu Bard, der von Google eingesetzten und in Echtzeit mit dem Internet verbundenen KI.
ChatGPT scheint auch in seinen Antworten zu bestimmten akademischen Themen begrenzt zu sein. Wenn man ihn beispielsweise nach dem Beweis des Primzahlsatzes des ungarischen Mathematikers Paul Erdős fragt, lautet seine Antwort wie folgt:
Ein weiterer limitierender Faktor; Mangel an Quellen, die seine Antworten stützen könnten. Möglicherweise erfindet er sogar nicht existierende akademische Quellen oder Referenzen.Dies stellt ein echtes Problem hinsichtlich der Zuverlässigkeit der vom Tool bereitgestellten Antworten dar. Darüber hinaus reagiert ChatGPT empfindlich auf die Verzerrungen der Daten, auf denen es trainiert. Wenn also die Eingaben eine Verzerrung aufweisen, wird diese systematisch in die Antworten des Chatbots übertragen. Diese Vorurteile können erhebliche Auswirkungen auf KI-Entscheidungen haben; zum Beispiel im Bereich Personalbeschaffung und Personalwesen, wo es bei der Auswahl der Algorithmen zu diskriminierenden Vorurteilen kommen kann; Es ist wichtig, Elemente einzubeziehen, die Transparenz gewährleisten, um diese Vorurteile so weit wie möglich zu minimieren.
Als künstliche Intelligenz mangelt es ChatGPT daher an Sensibilität und es fällt ihm schwer, bestimmte Formen von Humor, Sarkasmus oder bestimmte Ausdrücke und Wendungen zu interpretieren. In diesem Sinne lässt sich auch ein Mangel an kritischem Denken beobachten.
Darüber hinaus weist der OpenAI-Chatbot bei komplexen Anfragen mit erheblichem Aufwand teilweise lange Reaktionszeiten auf. In einigen Fällen antwortet der Roboter nicht und wir sehen Fehlermeldungen wie: „ChatGPT ist gerade voll ausgelastet“ oder „Netzwerkfehler“.
KI-Bedrohungen
KI hat bereits erste Opfer gefordert; Das in Kalifornien ansässige Hausaufgabenunternehmen Chegg verlor durch die Konkurrenz von ChatGPT mehr als die Hälfte seines Börsenwerts. Während der Präsentation seiner Quartalsergebnisse in der Nacht von Dienstag auf Mittwoch erklärte Dan Rosensweig, Chef des Edtech-Unternehmens, dass er „seit März einen deutlichen Durchbruch beim Studenteninteresse an ChatGPT festgestellt“ habe. Bevor wir hinzufügen: „Wir glauben jetzt, dass dies Auswirkungen auf unsere Neukundengewinnungsrate hat.“ Fachleute gehen davon aus, dass KI den Menschen nach und nach ersetzen wird, selbst in hochqualifizierten Berufen. Aktuellen Studien zufolge könnten in Europa und den USA relativ schnell mehr als ein Viertel der Arbeitsplätze durch Roboter ersetzt werden, die generative künstliche Intelligenz nutzen.
Eine Bedrohung und gleichzeitig eine Schwäche von KIs besteht darin, dass sie Ziel von Cyberangriffen sein können und daher angreifbar und potenziell anfällig für Manipulationen sind. Zum Beispiel die Raffinesse von Phishing-E-Mails in Betrugsversuchen. Noch gravierender: Stellen Sie sich ein autonomes Fahrzeug vor, das mit künstlicher Intelligenz fährt und das Ziel eines Cyberangriffs ist, dann wird uns schnell klar, dass der Schaden äußerst groß ist. Wir können auch Roboter nennen, die künstliche Intelligenz in Krankenhäusern einsetzen. Daher ist es notwendig, die Sicherheitssysteme der künstlichen Intelligenz drastisch zu stärken.
Wenn im militärischen Bereich intelligente Roboter im Einsatz oder im Krieg Opfer von Cyberangriffen werden, ist das Leben von Soldaten und Zivilisten eindeutig in Gefahr. Man könnte sich hochentwickelte Kriege in Jahrzehnten vorstellen, sonst hätte derjenige, der über die ausgefeilteste künstliche Intelligenz verfügt, einen enormen Vorteil.
Bedrohungen, die den Milliardär Elon Musk beunruhigen, und Hunderte Experten, die in einer Petition auf die erheblichen Risiken der KI für die Menschheit aufmerksam machen. Sie wollen ein Moratorium für die Weiterentwicklung der KI verhängen und die Forschung für sechs Monate einstellen, um Sicherheitssysteme einzurichten. In einer am 29. März 2023 auf der Website Futureoflife.org veröffentlichten Petition fordern diese Experten Techniken, die dabei helfen, das Reale vom Künstlichen und die Instanzen zu unterscheiden, die das eindämmen können „dramatische wirtschaftliche und politische Störungen (insbesondere für die Demokratie), die KI verursachen wird“.
KI: die Dringlichkeit eines Regulierungsrahmens?
Der Einsatz von KI wird immer weiter verbreitet und hat zunehmende Auswirkungen auf unser tägliches Leben. Wie oben gesehen, gibt es Abweichungen in Bezug auf diese Technologie und die Festlegung globaler Vorschriften für ethische KI ist notwendig, sogar dringend. Im April 2022 stimmte die Europäische Kommission der Entscheidung zu, den ersten Rechtsrahmen (eine Weltneuheit) zur Regulierung des Einsatzes künstlicher Intelligenz einzuführen. Dieser Verordnungsentwurf wurde erstmals im April 2021 vorgeschlagen. Ein Gesetzentwurf wird ganz ähnlich bald das Licht der Welt erblicken.
Dieser Regulierungstext sollte Bestimmungen enthalten, die es generativen KIs verbieten, urheberrechtlich geschützte Inhalte offenzulegen. Darüber hinaus soll dieses Gesetz KIs verbieten, gesellschaftsschädlichen Code zu generieren; zum Beispiel, die bei Cyberangriffen oder allgemeiner für illegale Zwecke verwendet werden können.
Wenn Europa den Regulierungsball eröffnet hat, stellt sich die Frage, ob andere Regulierungsbehörden diesem Beispiel folgen werden.
Von Charaf Louhmadi, Finanzingenieur, Berater, Kolumnist und Autor
Und Mariem Brahim, Lehrerin und Forscherin an der Paris School of Business, Paris, Frankreich