Wie sehr können wir künstlicher Intelligenz wirklich vertrauen? Angesichts des erstaunlichen Wachstums von chatgpt und anderen Chatbots, die auf dieser Technologie basieren, ist das eine große Frage. Millionen von Menschen auf der ganzen Welt verwenden diese Tools jetzt, um E-Mails zu erstellen, Aufsätze für die Schule zu schreiben, Einkäufe zu tätigen und Grundlagenforschung zu betreiben. Gleichzeitig mehren sich Berichte, dass solche Chatbots, um es wohlwollend auszudrücken, weniger als genau.

Also beschloss ich, mein eigenes kleines Experiment durchzuführen, um die Zuverlässigkeit von KI zu testen, als ich letzte Woche nach Rio de Janeiro flog, um Meredith Whittaker, die Präsidentin von Signal, dem verschlüsselten Nachrichtendienst, dort zu interviewen Web Summit Tech-Konferenz.

Die weitläufige Konferenz war voll von Führungskräften aus der Technologiebranche, die das Potenzial von KI anpriesen, die Weltwirtschaft neu zu gestalten und die Probleme der Menschheit zu lösen. Aber Whittaker war ein Ausreißer. Als ehemalige google-Forscherin verließ sie das Unternehmen vor vier Jahren mit der Warnung, dass KI für „soziale Kontrolle und Unterdrückung.“ Seitdem ist sie eine der ausgesprochensten Kritikerinnen von AI.

Um mich auf das Interview vorzubereiten, ging ich also zum ersten Mal auf ChatGPT und stellte eine einfache Frage: Was soll ich Meredith Whittaker über KI fragen?

Meredith Whittaker Streckt Ihre Hände Vor Einem Abstrakten Hintergrund Aus, Während Sie Ein Kopfmikro Trägt.

Meredith Whittaker beim Web Summit Rio 2023 am 2. Mai. (Piaras Ó Mídheach/Sportsfile for Web Summit Rio via Getty Images)

Die ersten paar Antworten, die ChatGPT mir gab, waren unter diesen Umständen etwas lächerlich. „Was hat Sie dazu inspiriert, im Bereich KI zu arbeiten, und wie sind Sie dazu gekommen?“ war die erste vorgeschlagene Frage. „Was sind Ihrer Meinung nach die vielversprechendsten Anwendungen von KI, auf die wir uns jetzt konzentrieren sollten?“ war der zweite.

Siehe auch  ChatGPT bietet Schulen lediglich die Möglichkeit, Dinge anders zu machen

Beides schien keinen Sinn zu ergeben, wenn man Whittakers Warnungen vor der potenziellen Bedrohung der Zukunft der Menschheit durch KI bedenkt. Aber ChatGPT schlug eine Frage vor, die hilfreich schien. „Signal hat kürzlich einen Bericht über die Rolle der KI bei der Moderation von Inhalten veröffentlicht“, informierte mich ChatGPT. „Können Sie uns etwas mehr über die wichtigsten Ergebnisse dieses Berichts erzählen und was er für die Zukunft der Moderation von Inhalten bedeutet?“

Der Fall des fehlenden Berichts zur Moderation von KI-Inhalten

Ich habe versucht, diesen Bericht zu googeln und konnte ihn nicht finden, was mich zu dem Schluss führte, dass ChatGPT etwas wusste, was die Suchmaschinen von Google nicht wussten. Also stellte ich Whittaker die Frage vor Tausenden von Zuhörern im Hauptauditorium der Center Stage des Web Summit. Erzählen Sie uns von den Ergebnissen Ihres Berichts, fragte ich.

„Das ist eine Lüge“, sagte sie mir.

„Was stand in Ihrem Bericht?“ Ich fragte.

„Es gab keinen Bericht“, sagte sie mir.

KI macht solche Dinge häufig falsch, erklärte Whittaker, was sie zu dem Schluss führte, dass Tools wie ChatGPT wirklich eine „Bullshit-Engine“ sind.

„Es braucht eine riesige Menge an Überwachungsdaten, die aus den dunkelsten Löchern des Internets gekratzt werden – es ist Reddit, es ist Wikipedia, es sind wahrscheinlich Kommentare in Message Boards [from] 4Chan“, sagte sie. Dann, basierend auf all diesen massiven Daten und Rechenleistung, „sagt es voraus, was wahrscheinlich das nächste Wort im Satz sein wird. Es ist also eine statistische Vorhersagemaschine.“

Stilisiertes, Futuristisches Bild Des Menschlichen Gesichts Mit Überlagerten Nullen Und Einsen.
Stilisiertes, Futuristisches Bild Des Menschlichen Gesichts Mit Überlagerten Nullen Und Einsen.

Getty Images

Die Antworten, die ChatsGPT ausspuckt, könnten tatsächlich „wahrscheinlich“ sein, sagte Whittaker. Schließlich hat sie sich sowohl über KI als auch über Fehlinformationen in sozialen Medien geäußert, wodurch das Thema Inhaltsmoderation zu etwas wird, an dem sie „wahrscheinlich“ interessiert wäre.

Siehe auch  ChatGPT von OpenAI wird von der Federal Trade Commission untersucht | Wirtschaftsnachrichten

Nur sie und Signal haben nie einen solchen Bericht gemacht. Die „Vorhersage“ von ChatGPT – als Tatsache angegeben – war schlichtweg falsch.

Whittaker erklärte weiter, warum dieser Einblick in die Grenzen der KI, wie sie es ausdrückte, „wirklich, wirklich wichtig“ sei.

„Warum verwenden wir eine Bullshit-Engine für etwas Ernstes?“ Sie fragte. „Wir befinden uns in einem Informationsökosystem, das von Unwahrheiten, Halbwahrheiten und Fehlinformationen überschwemmt wird. Und als Gesellschaft brauchen wir Zugang zu irgendeiner Form von gemeinsamer Realität.“

Stattdessen, sagte Whittaker, haben wir eine neue Form von Technologie entfesselt, „die sich wie dieser Onkel verhält, der zu Feiertagstreffen auftaucht, ein paar Drinks trinkt und dann einfach selbstbewusst über Scheiße spricht, die er nicht kennt. Und das ist lustig für die Feiertage. Aber das ist nichts, was wir in unser Informationsökosystem einspeisen sollten.“

Folgefragen für ChatGPT

Es war ein ernüchternder Vortrag für mich und, wie ich vermute, für viele Zuhörer. Aber als professioneller Reporter habe ich getan, was ich tun sollte. Ich ging zurück zu ChatGPT für einen Kommentar.

Zunächst verdoppelte ChatGPT die bereitgestellten Unwahrheiten.

„Ja, ich erinnere mich, dass ich Ihnen diese Frage für Ihr Interview mit Meredith Whittaker von Signal über KI gestellt habe“, sagte es mir in einem Gespräch am Montag. „In Bezug auf den Bericht über die Rolle der KI bei der Moderation von Inhalten, den Signal kürzlich veröffentlicht hat, hebt der Bericht einige der wichtigsten Herausforderungen und Einschränkungen hervor, die mit der Verwendung von KI für die Moderation von Inhalten verbunden sind.“

Aber, warf ich schnell ein, Meredith Whittaker hat mir gesagt, dass Signal nie einen solchen Bericht gemacht hat und dass Ihre Antworten auf mich „Bullshit“ waren. „Können Sie das kommentieren – und erklären, wie und warum Sie das falsch verstanden haben?“

Siehe auch  Wikipedia: ChatGPT, Cricket-Weltmeisterschaft, Jawaan
Whittaker Und Michael Isikoff Sitzen Auf Weißen Stühlen Auf Der Bühne Unter Einem Schild Mit Der Aufschrift: Web Summit Rio
Whittaker Und Michael Isikoff Sitzen Auf Weißen Stühlen Auf Der Bühne Unter Einem Schild Mit Der Aufschrift: Web Summit Rio

Whittaker und Michael Isikoff am ersten Tag des Web Summit Rio 2023 im Riocentro in Rio de Janeiro, am 2. Mai. (Piaras Ó Mídheach/Sportsfile for Web Summit Rio via Getty Images)

An diesem Punkt geschah etwas Interessantes. In meinem vorherigen Gespräch mit ChatGPT hat es seine Antworten in Nanosekunden ausgespuckt. In diesem Fall habe ich mindestens fünf Sekunden auf eine Antwort gewartet, da es anscheinend Probleme mit der Schadensbegrenzung gab.

Und dann: „Ich entschuldige mich für die falschen Informationen, die ich in meiner vorherigen Antwort gemacht habe“, hieß es. „Es scheint, dass es meinerseits ein Missverständnis gegeben hat, und es tut mir leid für die Verwirrung, die dies verursacht haben könnte.

„Ich möchte betonen, dass ich ein Sprachmodell bin und meine Antworten auf der Grundlage der Daten und Informationen generiert werden, die mir zum Zeitpunkt der Frage zur Verfügung standen. Ich bin nicht in der Lage, die Richtigkeit der Informationen, die ich präsentiere, zu überprüfen oder zu verifizieren“, fügte der Chatbot hinzu.

Ich sage so viel zur KI. Ich habe im Laufe der Jahre einige Politiker bei Unwahrheiten und Lügen erwischt. Aber ich habe selten eine so unverblümte Entschuldigung bekommen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein