Amaral empfiehlt nicht, KI zu verwenden, um etwas Oberflächlicheres als ein Arbeitsmemo zu schreiben, umzuschreiben oder zu bearbeiten, so wie Sie es mit einer Rechtschreibprüfung tun würden, und selbst dann empfiehlt er, mit Vorsicht vorzugehen. Es ist tabu, es für ein Kündigungsschreiben zu verwenden. Ebenso wie eine E-Mail mit der Bitte um eine Gehaltserhöhung (wie oben).
„Man sollte nicht erwarten, dass es irgendetwas versteht oder etwas produziert, das zuverlässig oder wahrheitsgetreu ist, weil es einfach Dinge aufs Geratewohl aufnimmt“, sagte er. Wie bei einem autonomen Auto kann es manchmal oder meistens richtig sein, aber wenn Sie ihm die volle Kontrolle überlassen (oder über Sie herrschen), müssen Sie mit Unfällen rechnen
Sollte ein Finanzberater KI zur Aktienauswahl einsetzen? „Nein! Das solltest du nicht tun“, sagte Amaral. „Man würfelt darüber, welche Aktien man kaufen soll. Es geht nicht darum, verlässliche Informationen zu sammeln und es werden keine Dokumente erstellt, die ein Verständnis für die Welt vermitteln.“
Sollten Sie als Berater chatgpt nutzen, um Ratschläge zu erteilen? Oder überhaupt eine Ratgeberkolumne? Oder wie wäre es mit wissenschaftlicher Forschung? Seine Antwort ist nein, nein und nein. „Die Konsequenzen, wenn man diese stochastischen Papageien dazu auffordert, wichtige Funktionen zu übernehmen, sind ziemlich schlimm“, sagte Amaral.
Es gibt noch ein weiteres großes Risiko beim Einsatz von KI am Arbeitsplatz oder anderswo – von der Personalabteilung, die Kandidaten für eine Stelle auswählt, oder von einem Chef, der sein Leitbild darlegt, bis hin zu einem Vertriebsmitarbeiter, der seinen Pitch verfeinert: Im Internet wimmelt es von bewussten und unbewussten Vorurteilen .
KI funktioniert wie Social-Media-Algorithmen auf Steroiden und speist Ihre Informationen und Fehlinformationen einer unvollkommenen Menschheit. „Diese Systeme sind aufgrund der zugrunde liegenden Politik des maschinellen Lernens grundsätzlich voreingenommen“, sagte Sinnreich.
„Daher führt der Austausch der KI-Generierung gegen den menschlichen Ausdruck zu immer wiederkehrenden Vorurteilen und verstärkt diese“, fügte er hinzu. „Es ist wie eine Rückkopplungsschleife, als würde man ein Mikrofon neben einen Verstärker stellen. Eine einzige Note übertönt alles andere.“
„Aus einer kleinen Voreingenommenheit wird schnell eine große Voreingenommenheit, so wie aus einem kleinen Geräusch ein riesiges Kreischen wird. Ich habe KI verschiedene Arten von Geschichten über verschiedene Ethnien schreiben lassen, und Junge, oh Mann, gehen diese Geschichten unterschiedlich aus?“ “ er sagte. „Die Algorithmen erzeugen einen hässlichen Funhouse-Spiegel.“
Unsere Vorurteile werden in das System zurückgeführt und erzeugen noch größere Vorurteile. Tatsächlich würden Social-Media-Algorithmen und computergenerierte Umfragen bereits in Politik, Werbung und Verbraucherforschung eingesetzt, sagte Sinnreich. Wenn Sie es nicht bei der Arbeit verwenden, nutzen andere es bereits.
„Wir treten in eine Ära ein, in der jegliche vermittelte Kommunikation vermutlich KI-generiert sein wird“, sagte er. „Die ganze Welt wird zum Captcha. Sie identifizieren eine Treppe, damit sie besser gefälschte Treppen generieren kann. ChatGPT füllt die Lücken in echtem Fachwissen mit glaubwürdigem Bullshit, und das wird so schnell nicht aufhören.“
Das bringt uns zurück zu der Entschuldigung des New Yorker Anwalts in einem Gerichtssaal in Manhattan am vergangenen Donnerstag, weil er KI zur Erstellung eines 10-seitigen Rechtsbriefs eingesetzt hatte. „Das Gericht wird mit einem beispiellosen Umstand konfrontiert“, schrieb der Bundesrichter von Manhattan, P. Kevin Castel, am 4. Mai in einem Gerichtsdokument. Schwartz steht nun vor einer Gerichtsverhandlung am 8. Juni, um mögliche Sanktionen zu besprechen.
-Quentin Fottrell
Dieser Inhalt wurde von MarketWatch erstellt, das von Dow Jones & Co. betrieben wird. MarketWatch wird unabhängig von Dow Jones Newswires und The Wall Street Journal veröffentlicht.
(ENDE) Dow Jones Newswires
31.05.23 2024ET
Copyright (c) 2023 Dow Jones & Company, Inc.