15. August 2023

Als sich der Chefredakteur einer Tageszeitung in Georgia an chatgpt wandte, um eine in Washington, D.C. anhängige Klage wegen des zweiten Verfassungszusatzes zu recherchieren, lieferte es einen berichtenswerten Nugget.

ChatGPT, ein auf KI-Technologie basierendes Tool zur Verarbeitung natürlicher Sprache, gab an, dass in der Rechtsbeschwerde ein syndizierter Radio-Talkshow- und Podcast-Moderator des Betrugs und der Veruntreuung von Geldern der Second Amendment Foundation beschuldigt werde. Es schien skandalös, aber ChatGPT erfand einfach Fakten, die überzeugend klangen, ein Phänomen, das als „Halluzination“ bekannt ist. Der Chefredakteur veröffentlichte die erfundenen Informationen nie, teilte sie jedoch dem Talkshow-Moderator mit, der eine Verleumdungsklage gegen den ChatGPT-Entwickler Open AI einreichte.

In New York verhängte ein Bundesrichter Geldstrafen gegen zwei Anwälte und eine Anwaltskanzlei, weil sie fiktive Rechtsrecherchen eingereicht hatten, die von ChatGPT in einem Anspruch auf Flugunfälle erstellt worden waren. Der Richter sagte, die Anwälte und ihre Kanzlei hätten „ihre Verantwortung aufgegeben, als sie nicht existierende Rechtsgutachten mit gefälschten Zitaten und Zitaten einreichten, die mit dem künstlichen Intelligenztool ChatGPT erstellt wurden, und dann weiterhin an den gefälschten Gutachten festhielten, nachdem Gerichtsbeschlüsse ihre Existenz in Frage gestellt hatten.“

Dies sind nur zwei aktuelle Beispiele dafür, wie ChatGPT, seit seinem Debüt im November das beliebteste Spielzeug des Internets, eine Bedrohung für unseren Ruf, unsere Arbeitsplätze, unsere Privatsphäre – und sogar die Wahrheit selbst – darstellt. Experten der Arizona State University sagen, dass eine weitere Bedrohung groß ist, die uns jedoch oft entgeht: dass ChatGPT und andere Chatbots ein Risiko für die nationale Sicherheit darstellen.

Ein echter Game-Changer

„ChatGPT ist ein echter Game Changer. „Dies ist das erste Mal in der Geschichte der Menschheit, dass wir mit der Wahl 2024 vor einem demokratischen Prozess stehen, bei dem eine unglaublich mächtige künstliche Intelligenz möglicherweise eingesetzt wird, um den Prozess auf eine Weise zu untergraben, die wir noch nie zuvor gesehen haben“, sagt er Andrew Maynardein Wissenschaftler, Autor und Professor an der ASU Schule für die Zukunft der Innovation in der Gesellschafteine Einheit des College of Global Futures.

Maynards Arbeit konzentriert sich darauf, wie die Gesellschaft erfolgreich in eine Zukunft übergehen kann, in der transformative Technologien die Macht haben, jeden Aspekt des Lebens grundlegend zu verändern. Er schreibt über neue Technologien und verantwortungsvolle Innovation in „Die Zukunft des Menschseins” auf Substack.

„Menschen können generative KI verwenden, um Inhalte zu erstellen, die legitim aussehen und von Menschen stammen. Das ist die eine Seite der Dinge“, sagt er. „Auf der anderen Seite steht soziales oder menschliches Hacking. Wie können Sie überzeugende Inhalte nutzen, um die Abwehrmechanismen und das kritische Denken von Menschen zu durchbrechen und sie auf bestimmte Weise anzustoßen?

„Das ist es, was geschickte Manipulatoren und geschickte Politiker tun: Sie verwenden Rhetorik auf eine Art und Weise, die es für uns viel schwieriger macht, uns auf kritisches Denken einzulassen, und es viel einfacher macht, einfach mit dem Strom ihrer Ideen zu schwimmen.“ Sie tun dies durch einen unglaublich cleveren Sprachgebrauch, der auf unsere inneren Vorurteile eingeht. Und jetzt haben wir Maschinen beigebracht, wie sie unser Denken, Fühlen und Verhalten auf eine noch nie dagewesene Weise manipulieren können.“

Siehe auch  Forscher bewerten die Auswirkungen von ChatGPT auf die Arbeitsproduktivität

Da Hunderte – wenn nicht Tausende – von Chatbots mit sozialen Medien und Medienkanälen zusammenarbeiten, ist das im Vorfeld der Wahlen 2024 eine große politische Überzeugungsarbeit.

Der heilige Gral der Desinformationsforschung

„Der heilige Gral der Desinformationsforschung besteht darin, nicht nur Manipulationen, sondern auch Absichten aufzudecken. Es steht im Mittelpunkt vieler Fragen der nationalen Sicherheit“, sagt er Joshua Garlandaußerordentlicher Forschungsprofessor und Interimsdirektor an der ASU Zentrum für Erzählung, Desinformation und strategischen Einfluss (NDSI), Teil der Global Security Initiative.

NDSI führt Untersuchungen zu strategischer Kommunikation, Einfluss, Datenanalyse und mehr durch, um umsetzbare Erkenntnisse, Tools und Methoden für Sicherheitsexperten zu generieren, die ihnen helfen, sich im heutigen (Des-)Informationszeitalter zurechtzufinden. Ein Beispiel ist das Programm Semantic Forensics (SemaFor), das von der US Defense Advanced Research Projects Agency (DARPA) finanziert wird und darauf abzielt, innovative Technologien zur Erkennung, Zuordnung und Charakterisierung von Desinformationen zu entwickeln, die unsere nationale Sicherheit und unser tägliches Leben bedrohen können.

ASU nimmt im Rahmen eines Bundesvertrags mit Kitware Inc., einem internationalen Software-Forschungs- und Entwicklungsunternehmen, am SemaFor-Programm teil. Ihr Projekt Semantic Information Defender (SID) zielt darauf ab, eine neue Technologie zur Erkennung gefälschter Medien zu entwickeln. Das Multi-Algorithmen-System wird erhebliche Mengen an Mediendaten erfassen, gefälschte Medien erkennen, deren Herkunft zuordnen und böswillige Desinformation charakterisieren.

„Desinformation ist eine direkte Bedrohung für die US-Demokratie, weil sie zu Polarisierung und einem Mangel an gemeinsamer Realität zwischen den Bürgern führt. Dies wird höchstwahrscheinlich durch generative KI-Technologien wie große Sprachmodelle erheblich verschärft“, sagt Garland.

Auch die Desinformation und Polarisierung rund um das Thema Klimawandel könnte sich verstärken.

„Das Verteidigungsministerium hat den Klimawandel als Bedrohung für die nationale Sicherheit erkannt“, sagt er. „Wenn also KI falsche Informationen produziert und falsche Vorstellungen über die Klimapolitik verschärft, ist das eine Bedrohung für die nationale Sicherheit.“

Garland fügt hinzu, dass die Auswirkungen der Technologie auf das Klima über Desinformation hinausgehen.

„Es ist wirklich interessant, die tatsächlichen Klimaauswirkungen dieser beliebten großen Sprachmodelle zu betrachten“, sagt er.

Programme wie ChatGPT von Open AI und Bard von google sind energieintensiv und erfordern riesige Serverfarmen, um genügend Daten zum Trainieren der leistungsstarken Programme bereitzustellen. Auch die Kühlung dieser Rechenzentren verbraucht große Mengen Wasser.

Forscher der University of California, Riverside und der University of Texas at Arlington veröffentlichten Schätzungen zum KI-Wasserverbrauch in einem vorab gedruckten Artikel mit dem Titel „Making AI Less ‚Thirsty‘“. Die Autoren berichteten, dass dafür 185.000 Gallonen Wasser (oder etwa ein Drittel davon) benötigt wurden das Wasser, das zum Füllen eines olympischen Schwimmbeckens benötigt wird), um allein GPT-3 zu trainieren. Anhand dieser Zahlen wurde festgestellt, dass ChatGPT für jeweils 20 bis 50 beantwortete Fragen eine Standard-Wasserflasche mit 16,9 Unzen benötigen würde. Angesichts der beispiellosen Popularität des Chatbots befürchten Forscher wie Garland, dass er angesichts historischer Dürren in den USA einen besorgniserregenden Tribut an die Wasserversorgung fordern könnte

Siehe auch  Was unternehmen hawaiianische Schulen mit ChatGPT?

Das Versprechen (und die Fallstricke) einer schnellen Einführung

„Im Moment erleben wir eine schnelle Einführung einer unglaublich hochentwickelten Technologie, und es besteht eine erhebliche Kluft zwischen den Menschen, die diese Technologie entwickelt haben, und den Menschen, die sie nutzen. Wenn so etwas passiert, gibt es in der Regel erhebliche Auswirkungen auf die Sicherheit“, sagt er Nadya GlückseligkeitGeschäftsführer der ASU Globale Sicherheitsinitiative Er ist außerdem Vorsitzender der DARPA Information Science and Technology Study Group.

Sie sagt, dass ChatGPT ausgenutzt werden könnte, um Phishing-E-Mails und -Nachrichten zu erstellen, die ahnungslose Opfer ins Visier nehmen und sie dazu verleiten, vertrauliche Informationen preiszugeben oder Malware zu installieren. Die Technologie kann ein großes Volumen dieser E-Mails erzeugen, die schwerer zu erkennen sind.

„Es besteht das Potenzial, recht komplexe Phishing-Angriffe zu beschleunigen und gleichzeitig ihre Kosten zu senken“, sagt Bliss.

ChatGPT stellt auch eine Bedrohung für die Cybersicherheit dar, da es in der Lage ist, schnell bösartigen Code zu generieren, der es Angreifern ermöglichen könnte, neue Bedrohungen schneller zu erstellen und einzusetzen, was die Entwicklung von Sicherheitsgegenmaßnahmen übersteigt. Der generierte Code könnte schnell aktualisiert werden, um der Erkennung durch herkömmliche Antivirensoftware und signaturbasierte Erkennungsmechanismen zu entgehen.

ChatGPT in eine Kraft des Guten verwandeln

Bei GSI Zentrum für menschliche, künstliche Intelligenz und Roboter-Teaming (CHART)Direktor Nancy Cooke und ihr Team untersuchen die potenziellen rechtlichen und ethischen Probleme, die entstehen, wenn Robotern und KI zunehmend Autonomie zugesprochen wird. Sie untersuchen auch, wie Teams aus Menschen und synthetischen Agenten effektiv zusammenarbeiten können, von der verbalen und nonverbalen Kommunikation bis hin zur Schaffung des angemessenen Maßes an menschlichem Vertrauen in die KI.

„In meinen Experimenten, bei denen ich Teilnehmer ins Labor bringe, ihnen eine Aufgabe beibringe und ihnen sage, dass sie mit KI arbeiten werden, vertrauen die Teilnehmer der KI oft zu sehr“, sagt sie. „Wenn die KI anfängt, Fehler zu machen, denken die Teilnehmer oft: ‚Ich weiß einfach nicht, was ich tue, weil ich neu in dieser Aufgabe bin.‘ KI muss besser sein als ich.‘“

Wenn Menschen vermuten, dass KI Aufgaben besser erledigen kann als sie selbst, ist es nur natürlich, dass Fachkräfte wie Computerprogrammierer, Finanzberater, Schriftsteller und andere um ihre Arbeitsplatzsicherheit fürchten.

Während es wahrscheinlich – wenn nicht sogar unvermeidlich – ist, dass ChatGPT Arbeitsplätze vernichtet, glaubt Cooke, dass es möglich ist, dass Menschen durch KI gestärkt und nicht bedroht werden. Sie nennt das Beispiel Schachspielen.

„Die Bildung von Teams, die zur Hälfte aus Menschen und zur Hälfte aus Maschinen bestehen (bekannt als „Zentauren“), passiert im Schach, wo man einen ziemlich guten Schachspieler mit einem ziemlich guten Schachprogramm zusammenbringt und gemeinsam den berühmtesten Großmeister, Garry Kasparov, besiegt sowie das allerbeste Schachprogramm. Durch den Einsatz zweier verschiedener Arten von Intelligenz können Sie das Beste, was die KI zu bieten hat, mit dem Besten, was der Mensch zu bieten hat, kombinieren. Bei CHART nennen wir es die Schaffung von Menschen mit übermenschlichen Fähigkeiten“, sagt Cooke.

Siehe auch  KI-Tools wie ChatGPT werden von Cyberkriminellen für Phishing verwendet, warnen Experten

Damit die Technologie uns in Menschen mit übermenschlichen Fähigkeiten verwandeln kann, müssen wir laut Cooke zunächst Leitplanken errichten, um sicherzustellen, dass sie auf unserer Seite funktioniert.

„Was wäre, wenn wir es so regulieren würden, dass KI-Entwickler ein Zeugnis vorlegen müssten, aus dem hervorgeht, in welcher Hinsicht die Technologie für das menschliche Wohlbefinden gut und schlecht wäre?“ Sie fragt.

Entwicklung der ChatGPT-Kenntnisse

Der von Ronald Reagan während seiner Präsidentschaft populär gemachte Satz „Vertrauen, aber überprüfen“ trifft heute angesichts der wachsenden Beliebtheit von ChatGPT besonders zu. Laut einer UBS-Studie ist ChatGPT die am schnellsten wachsende Verbraucheranwendung in der Geschichte, nachdem es weniger als ein Jahr nach seiner Einführung mehr als 100 Millionen aktive Nutzer erreicht hat.

Bliss empfiehlt, bei der Verwendung dieser Anwendung, die eher oberflächlich als genau ist, eine gesunde Portion Skepsis aufrechtzuerhalten. Das Auslösen von Emotionen ist das Herzstück erfolgreicher Desinformationskampagnen, und Bliss empfiehlt, innezuhalten, wenn Sie etwas lesen, das eine starke Reaktion auslöst.

„Wenn ich etwas lese, das mich traurig, glücklich oder wütend macht, gehe ich normalerweise zurück und recherchiere, ob es eine zuverlässige Quelle gibt, die eine Geschichte zu einem ähnlichen Thema hat“, sagt sie. „Ich bin ein großer Fan davon, Quellen zu überprüfen und sicherzustellen, dass diese Quellen zuverlässig sind.“

Um Menschen dabei zu helfen, mit Chatbots bessere Ergebnisse zu erzielen, lehrt Maynard eine neue Lösung ASU Online Kurs aufgerufen Grundlegendes Prompt Engineering mit ChatGPT: Einführung. Der Kurs steht Studierenden aller Hauptfächer offen und handelt trotz seines Namens nicht wirklich von Ingenieurwissenschaften. Maynard sagt, es sei wie ein Führerschein für ChatGPT-Benutzer.

„Ein Auto zu haben ist toll, aber wenn Leute es fahren, ohne die Verkehrsregeln zu kennen oder grundlegende Fahrkenntnisse zu haben, führt das nicht zu sicheren Straßen“, sagt er. „Mit ChatGPT ist es dasselbe. Je mehr Menschen verstehen, wie man es auf sichere und verantwortungsvolle Weise nutzt, desto wahrscheinlicher werden wir die Vorteile erkennen.“

Die Global Security Initiative der ASU wird teilweise vom Technology and Research Initiative Fund (TRIF) von Arizona unterstützt. Die TRIF-Investitionen haben eine praktische Ausbildung für Zehntausende Studenten an den Universitäten Arizonas, Tausende wissenschaftliche Entdeckungen und patentierte Technologien sowie Hunderte neue Start-up-Unternehmen ermöglicht. TRIF wird durch die Zustimmung der Wähler öffentlich unterstützt und ist eine wesentliche Ressource für das Wachstum der Wirtschaft Arizonas und bietet den Bewohnern Arizonas Möglichkeiten zum Arbeiten, Lernen und Gedeihen.

Geschrieben von Lori Baker

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein