chatgpt, das aktuelle Symbol der generativen künstlichen Intelligenz, war in den letzten Wochen Gegenstand schwerer Angriffe, die seinen Dienst unterbrachen. Genug, um die tatsächlichen Risiken dieser Technologie für Ihr Unternehmen in Frage zu stellen.

Niemand ist unfehlbar. Und kein Technologieunternehmen, nicht einmal das größte, ist vor Cyberangriffen sicher. ChatGPT, das aktuelle Technologiephänomen, ist der Beweis dafür. Das auf generative künstliche Intelligenz spezialisierte Unternehmen wurde vor zwei Wochen Opfer schwerer Angriffe, die seinen Service lahmlegten. Es kam zu „regelmäßigen Ausfällen“, die auf „ungewöhnlichen Datenverkehr“ zurückzuführen waren, was eindeutig auf einen Hackerangriff hindeutete.

Und kurz, ChatGPT wurde Opfer einer massiven Versendung von Anfragen, deren einziger Zweck darin bestand, seine Algorithmen zu überlasten und den Zugriff darauf zu verhindern. Es muss gesagt werden, dass das Unternehmen mit der Begeisterung, die OpenAI seit mehreren Monaten genießt, und seinem riesigen Publikum (100 Millionen Menschen nutzen es jede Woche) genug hat, um Piraten aller Art anzulocken. Dieser Angriff machte ChatGPT für Benutzer unzugänglich. An sich sieht es nicht wirklich ernst aus, außer der Frage nach der Verfügbarkeit des Dienstes.

Mehr Dieser von OpenAI zugegebene groß angelegte Angriff war dennoch eine gute Mahnung zur Vorsicht. Denn wenn das Tool unzählige Möglichkeiten zur Effizienzsteigerung und erhebliche Produktivitätssteigerungen für Unternehmen bietet, ist es besser, sich der möglichen Risiken und Vorsichtsmaßnahmen bei der Nutzung bewusst zu sein. Hier finden Sie einen Überblick über einige Gefahren, auf die Sie im Zusammenhang mit ChatGPT und generativer KI im Allgemeinen achten sollten.

Verwendung sensibler Daten

Generative künstliche Intelligenz (wie ChatGPT und andere) beantwortet Ihre Fragen auf atemberaubende Weise. Um dies zu erreichen, wurde es auf Milliarden von Informationen trainiert. Und wenn Sie den Eindruck haben, dass die Antworten immer relevanter sind, liegt das daran, dass das Training insbesondere dank der von den Benutzern kodierten Daten, ihrer Fragen, Unterfragen usw. fortgesetzt wird.

Wenn die von den Nutzern eingegebenen Informationen es ermöglichen, immer präzisere Antworten zu erhalten, „kann dies auch eine der größten Gefahren im Zusammenhang mit ChatGPT für Unternehmen sein“, analysiert Ivan Westerhof, Mitbegründer von Campfire.IA, einem darauf spezialisierten Start-up die Integration von KI in Unternehmen. In der Tat, Der Einsatz dieser künstlichen Intelligenz ist in Unternehmen weit verbreitet. Und das nicht unbedingt strukturiert oder transparent.

Siehe auch  ChatGPT-3 vs. ChatGPT-4: Ein Leistungsvergleich

Viele Mitarbeiter nutzen ChatGPT bereits, ohne es ihren Vorgesetzten oder Kollegen unbedingt mitzuteilen, fährt Ivan Westerhof fort. Dies könnte zum Beispiel das Zusammenfassen einer E-Mail oder das Generieren von Inhalten sein. Dazu kopieren sie Daten, die das Unternehmen betreffen, und fügen sie ein, manchmal sind es anekdotische und nicht sehr sensible Inhalte, aber manchmal verwenden sie auch streng vertrauliche Informationen.“

Und um die Funktionen von ChatGPT zu besprechen, die über die reine Textgenerierung hinausgehen. „ChatGPT ist ein leistungsstarkes Tool zur Analyse von Dateien voller Zahlen“, fährt er fort. Geben Sie einfach die Rohinformationen ein und fragen Sie nach Antworten. Obwohl der Nutzen außer Zweifel steht, geht es in den meisten Fällen darum, ChatGPT Zugriff auf die Daten zu gewähren … In manchen Fällen ist es aus Sicht der DSGVO nicht einmal legal. Bei vielen anderen wirft das Fragen auf.“ Das konkrete Risiko? Diese sensiblen Informationen, die von Benutzern im Rahmen ihrer Anfragen kodiert werden, werden zur Beantwortung von Fragen anderer Benutzer verwendet. Auch wenn Angriffe auf die Server es ermöglichen, die Diskussionen des „intelligenten“ Chatbots mit Internetnutzern wiederherzustellen…

Die Gefahr von Hacking

Laurent Alexandre, Autor und Experte für künstliche Intelligenz, hat jedoch keine große Angst vor der Verschlüsselung sensibler Daten in ChatGPT. „Wir können davon ausgehen, dass Microsoft, ein Investor von OpenAI, dem Unternehmen hinter ChatGPT, durch die Verwendung der in ChatGPT übertragenen Daten kein Reputationsrisiko eingeht. Dies ist eine wichtige Frage, die Microsoft nicht dem Zufall überlassen wird. Darüber hinaus verspricht OpenAI in seiner kostenpflichtigen Version, keine verschlüsselten Daten aufzubewahren. Auf kleineren KI-Plattformen kann das Risiko größer sein.“

Ivan Westerhof bleibt seinerseits vorsichtig. „Wenn wir uns vorstellen können, dass OpenAI sein Bestes gibt, um seinen Zugriff zu sichern, kann jeder mit dem Web verbundene Dienst gehackt werden, er sagt. Einige schwieriger als andere. Darüber hinaus stellt sich auch die Frage, inwieweit OpenAI ein Unternehmen ist, dem man vollkommen vertrauen kann, auch wenn Microsoft dahinter steht. Das Unternehmen verfügt über einen phänomenalen Zugriff auf eine Vielzahl von Daten, und seitdem Facebook von der Cambridge-Analytica-Affäre betroffen ist, ist es leider immer besser, vorsichtig zu sein. Große Unternehmen wie Facebook waren den Internetnutzern gegenüber nicht immer vertrauenswürdig.“

Daher bleibt Vorsicht geboten. Darüber hinaus hatten sowohl Amazon als auch Microsoft vor einigen Monaten die Nutzung von ChatGPT intern streng reglementiert. Deshalb schlägt der Experte vor, lokale und integrierte Versionen von ChatGPT auf europäischen Servern zu hosten, auf denen die Daten gespeichert werden und auf denen die ChatGPT-Algorithmen laufen. Außerdem ist es notwendig, die Mitarbeiter zu schulen und ihnen den richtigen Umgang mit generativer KI beizubringens, möglicherweise indem man ihnen sagt, dass sie die Informationen nicht weitergeben sollen …

Siehe auch  Amerikanische Anwälte nutzen ChatGPT, um Fälle zu finden, und werden als von ChatGPT fabrizierte Fälle entlarvt

Identitätsdiebstahl

Künstliche Intelligenz geht bei der Content-Generierung immer weiter. Einfache Textübersetzungen gehören bereits zum Alltag. KI ermöglicht es heute, Videos von Sprechern in anderen Sprachen zu erstellen. Möglicherweise haben Sie in den sozialen Medien ein Video gesehen, in dem ein Freund Japanisch oder Deutsch spricht, obwohl er diese Sprachen überhaupt nicht beherrscht. Vielen Dank, Heygen, die Video-KI-Software, mit der Sie einen Videoclip von Ihnen (oder Ihrem Chef) auf Französisch hochladen und eine Version in anderen Sprachen anfordern können. Die Bewegung der Lippen wird ebenso perfektioniert wie der Einsatz der Stimme. Bluffen. Aber zunehmend wird es die KI ermöglichen, diese Technologien mit der Spracherkennung und deren Interpretation zu kombinieren.

Laurent Alexandre
© Dann

„Das eigentliche Problem ist Identitätsdiebstahl durch künstliche Intelligenz.“ LAURENT ALEXANDRE

Wir gehen immer weiter und es beginnt, dies zu erreichen … live. Mit anderen Worten: Es kann der Eindruck entstehen, dass man mit jemandem live spricht und interagiert, auf Französisch oder in anderen Sprachen. Und für Laurent Alexandre, Fachautor und Zukunftsforscher für KI, „stellt dies heute wahrscheinlich die größte Gefahr der KI dar.“ Von nun an können wir beim Ansehen eines Videos nicht mehr behaupten, dass das, was wir sehen, tatsächlich die Realität ist. Das eigentliche Problem ist der Identitätsdiebstahl mithilfe künstlicher Intelligenz. DER Wallstreet Journal erlebte dies mit einem manipulierten Video, in dem ein Journalist mit seinen Eltern und seinem Bankier sprach. Die KI hat alle getäuscht. Wenn diese Art von Betrug bereits in der Vergangenheit durchgeführt werden könnte, würde die Einrichtung Tage und Tage dauern. Heute ist es extrem schnell.“ Und das mit einem besonders gelungenen Ergebnis, dank der unzähligen Foto- und Videoinhalte, die wir finden online.

„Das ist die neue, übermächtige Art von Betrug gegen den Präsidenten“, befürchtet Laurent Alexandre. Anekdotisch oder distanziert? Nicht so sicher. Es ist auf jeden Fall besser, auf eine solche Entwicklung vorbereitet zu sein. Sicher ist, dass wir in Zukunft die Zahl der Identifikations- und Authentifizierungsverfahren erhöhen müssen. Aber Unternehmen können Risiken auch wiederum minimieren, indem sie ihre Teams ordnungsgemäß (un-)schulen und Verfahren zur Anforderungsüberprüfung implementieren …

Siehe auch  Hacker haben auch ihr ChatGPT: WormGPT

Die KI halluziniert!

Wenn sich die KI immer schneller verbessert, bleiben die Risiken bestehen und es ist besser, ihnen nicht völlig zu vertrauen. Voreingenommenheit und Halluzinationen bleiben eine der Hauptgefahren.

Der Begriff „Halluzinationen“ ist in den letzten Monaten rund um die KI populär geworden: Er bezieht sich auf die Ergebnisse von KI-Algorithmen, die nicht real sind und keinen Daten entsprechen, auf denen die Intelligenz trainiert wurde. Keine Daten, keine Programmierung kann die fehlerhafte Reaktion der künstlichen Intelligenz erklären.

ChatGPT funktioniert beispielsweise, indem es vorhersagt, welche Wörter am wahrscheinlichsten zur Beantwortung Ihrer Frage verwendet werden. „Ein bisschen wie die automatische Eingabe am Telefon“, erklärt Ivan Westerhof, „aber auf eine viel fortschrittlichere Art und Weise.“ Das bedeutet, dass er sich irren könnte. Wir hatten einen Chatbot entwickelt, der es uns ermöglicht, auf Kandidaten für eine Stelle zu antworten. Auf die Frage, wie man sich bewirbt, schlug er vor, eine E-Mail an karriere@… zu senden. Diese E-Mail-Adresse existierte nicht. Der Roboter hatte aufgrund der untersuchten Daten angenommen, dass dies die wahrscheinlichste Antwort sei. Aber es war falsch.“

Rassistisch und sexistisch

Der Experte besteht darauf Lassen Sie nicht zu, dass die KI alle Fragen ohne Überprüfung beantwortet. Und erst recht, wenn Ihr Unternehmen sie für den Dialog mit externen Kunden nutzt. Aber „auch intern, wenn es darum geht, über sensible Themen zu sprechen, zum Beispiel im HR-Bereich, wie Gehälter, freie Tage etc.“ Immer mehr große Unternehmen entwickeln interne KI-gestützte Bots zur Unterstützung von HR-Teams. Es ist also besser, es mit Vorsicht zu tun.

Die Vorurteile sind real. Generative KI wie ChatGPT, aber auch bilderzeugende Algorithmen wie midjourney, Dall-E 3 und andere reproduzieren unsere Vorurteile. Studien von Bloomberg oder Rest of The World zu 5.000 bzw. 3.000 von KI erstellten Bildern zeigen, dass KIs rassistisch und sexistisch sind und Vorurteile in Bezug auf soziale Klassen und Rassen zeigen. Tatsächlich werden sie anhand von Datenbanken geschult, die die ihnen übermittelten menschlichen Vorurteile enthalten. KI ist (leider?) ein Vergrößerungsspiegel unserer Gesellschaft.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein