Brandon Southern ist der ehemalige Leiter der Analytik bei Amazon.
Brandon Southern
  • Brandon Southern ist der ehemalige Leiter der Analytik bei eBay, Amazon und GameStop.
  • Er sagt, dass die Verwendung von chatgpt für die Datenanalyse ein riskantes Unterfangen sei.
  • KI könne die Arbeit eines Datenanalysten nicht übernehmen, sagt er, weil es mehrere Wahrheitsquellen gebe.

Ich sehe häufig Beiträge von Leuten, die vorschlagen, dass ChatGPT problemlos für die Datenanalyse verwendet werden kann. Ich höre auch täglich Kommentare, die darauf hinweisen, dass ChatGPT die Jobs von Datenanalysten ersetzen wird.

Als ehemaliger Leiter der Analyseabteilung bei Amazon und 20-jähriger Technik- und Analyseveteran mache ich mir keine allzu großen Sorgen darüber, dass ChatGPT die Jobs von Datenanalysten ersetzen könnte.

Was mich jedoch beunruhigt, ist, dass Führungskräfte glauben, dass dies die Jobs von Datenanalysten ersetzen kann oder sollte.

Angesichts des aktuellen Stands der Analyseumgebungen und der Funktionsweise von ChatGPT wäre dies eine katastrophale Entscheidung. Der Einsatz von ChatGPT als Ersatz für Datenanalysten wird die fehlerhafte Entscheidungsfindung beschleunigen und schlechte Daten in einem noch nie dagewesenen Tempo über Unternehmensnetzwerke verbreiten.

Um die Entscheidungsqualität zu gewährleisten, müssen Führungskräfte vermeiden, das Pferd von hinten aufzuzäumen, wenn es um KI-Tools und -Modelle wie ChatGPT geht.

Sie müssen sich zunächst darauf konzentrieren, die Herausforderungen in ihren Analyseumgebungen vollständig zu verstehen und diese Herausforderungen zu lösen, bevor sie automatisierte Tools auf der Grundlage dieser Umgebungen entwickeln. Geschieht dies nicht, führt dies mit ziemlicher Sicherheit zu Fehlentscheidungen, Unternehmens- und Finanzrisiken sowie einem Vertrauensverlust bei Mitarbeitern und Kunden.

Siehe auch  ChatGPT-Recherchetechniken, mit denen Sie Zeit und Geld sparen

ChatGPT ist im Grunde ein Prädiktor

ChatGPT ist ein großes Sprachmodell, das schick klingt, und die Antworten, die es liefert, geben den Benutzern das Gefühl, es sei ein intelligentes Wesen. Aber davon ist es weit entfernt. Auf einer grundlegenden Ebene nimmt das Modell eine Reihe von Informationen als Eingabe und sagt dann ein Ergebnis basierend auf diesen Eingaben voraus.

Um eine genaue Vorhersage zu liefern, muss das Modell aus mehreren verschiedenen Szenarien lernen und genaue Informationen erhalten. Das Modell antwortet mit einer Antwort, die je nach Trainingsart richtig oder falsch sein wird. Wenn Sie dem Modell beibringen, zu glauben, dass 2 + 2 = 10, erhalten Sie diese Antwort, auch wenn sie falsch ist.

Aus diesem Grund stellt die Verwendung solcher Modelle ein großes Problem für Analyseteams dar.

Das Problem ist, dass wir mehrere Wahrheitsquellen haben

Ich habe in den letzten 20 Jahren bei Amazon, eBay, GameStop, VMWare und einer Handvoll Start-up-Unternehmen gearbeitet. Ich habe auch vielen anderen im Analytics-Bereich Beratungs- und Beratungsdienste angeboten. Was ich gelernt habe ist, dass unabhängig von der Unternehmensgröße, dem Alter oder der Branche alle mit den gleichen Problemen konfrontiert sind, und eines dieser Probleme hat mit mehreren Wahrheitsquellen zu tun.

Ein Bericht, den das Finanzteam verwendet, besagt beispielsweise, dass das Unternehmen 10.000 neue Kunden hat. Doch ein Bericht, den das Marketingteam heranzieht, besagt, dass das Unternehmen 12.000 neue Kunden hat. Wer hat Recht? Ist eine dieser Zahlen richtig? Gibt es für jede dieser Zahlen einen unterschiedlichen Kontext, in dem beide Berichte korrekt sein könnten?

Wir wissen es nicht, zumindest nicht ohne umfangreiche Untersuchungen.

Siehe auch  ChatGPT muss dies darüber sagen, dass DOGE im Jahr 2024 ein neues ATH erreichen wird

Und das ist der aktuelle Stand der Analyseteams, ohne zu versuchen, Modelle für maschinelles Lernen auf die aktuelle Umgebung anzuwenden.

ChatGPT kann nicht die Arbeit eines Datenanalysten übernehmen

Heutzutage verfügen Datenanalysten nicht über genaue und konsistente Daten sowie den richtigen Kontext für diese Daten in ihren vorhandenen Berichten, Dashboards und Datenbanken.

Wenn sich Datenanalysten nicht einigen können und mehrere Wahrheitsquellen zum Trainieren von ChatGPT oder anderen großsprachigen Modellen verwendet werden, können wir nicht erwarten, dass das Modell genaue Ergebnisse liefert.

Leider nutzen Stakeholder diese inkonsistenten Informationen bereits über Self-Service-Dashboards und Berichte, oft ohne die Hilfe von Datenanalysten. Die Rettung im heutigen Umfeld ist der Schutz, den Datenanalysten bieten. In der aktuellen Umgebung stellen Datenanalysten zusätzlichen Kontext zur Datenausgabe bereit und steuern diese Datenprobleme in Echtzeit, während sie ihre Datenanalyse erstellen.

Da die Self-Service-Funktionen zunehmen, sind Datenanalysten immer weniger damit beschäftigt, Stakeholder bei der Dateninterpretation zu unterstützen.

Dies hat für das Unternehmen zu einem gefährlichen Abgrund geführt, da immer mehr Stakeholder Fakten aus verschiedenen Dashboards übernehmen, ohne dass ein Analyst den Kontext bereitgestellt hat oder ohne zusätzliche Qualitätssicherungsprüfungen. Diese Situation wird durch die Benutzerfreundlichkeit von Tools wie chatGPT und das blinde Vertrauen in die Ergebnisse noch beschleunigt, ohne die Herausforderungen zu verstehen, denen sich datengesteuerte Unternehmen heute gegenübersehen.

Führungskräfte sollten sich des Risikos bewusst sein, das sie eingehen

Wenn Führungskräfte davon ausgehen, dass ChatGPT eine praktikable interne Analyselösung für ihr Unternehmen ist, ohne zuvor die Herausforderungen innerhalb ihrer Analyseorganisationen zu lösen, gefährden sie das Unternehmen.

So würde sich die Situation voraussichtlich entwickeln:

  1. Einzelne oder unternehmensweite Teams würden glauben, dass chatGPT eine gültige Lösung ist, und ChatGPT implementieren.
  2. Sie würden das Modell heute mit den internen Daten trainieren, auch wenn der richtige Kontext fehlt und die aktuellen Berichte inkonsistente Ergebnisse liefern. Dies würde wahrscheinlich passieren, ohne dass die Teammitglieder überhaupt erkennen würden, dass es sich hierbei um aktuelle Probleme handelt.
  3. Auf ChatGPT würde ein einfacher Zugriff gewährt, ähnlich wie es Teammitglieder bereits mit Tableau- und Power BI-Dashboards getan haben.
  4. Der Stakeholder würde wie heute ChatGPT-Fragen stellen, jetzt jedoch ohne die klärenden Folgefragen der Datenanalysten. Diese Fragen sind von entscheidender Bedeutung, um die richtige Antwort zu erhalten, werden jedoch häufig als selbstverständlich angesehen und in den ersten Anfragen der Stakeholder übersehen.
  5. Stakeholder würden wahrscheinlich den effizientesten Weg wählen – eine nicht ausführliche Aufforderung –, ohne sich der Möglichkeit ungenauer Ergebnisse bewusst zu sein.
Siehe auch  Tipps für Architekten, um mit ChatGPT 100 US-Dollar zu verdienen

Die Öffentlichkeit hat hinreichend nachgewiesen, dass sie keine langen E-Mails lesen oder schreiben möchte. Stattdessen verwenden sie lieber schnelle Chatnachrichten und gehen sogar so weit, Emojis zu verwenden, anstatt eindeutige Wörter anzugeben.

Dies gilt auch für mündliche Gespräche, die ich in den letzten 20 Jahren direkt mit Stakeholdern geführt habe, und für die Gespräche meiner Teammitglieder mit Stakeholdern.

Ausreichende und detaillierte Informationen und Anforderungen fehlen in Stakeholder-Anfragen fast immer.

Aufgrund dieser Probleme erhalten die Modelle nicht nur eine schlechte Ausbildung und laufen Gefahr, selbst mit den genauesten und detailliertesten Eingabeaufforderungen ungenaue Ergebnisse zu liefern, sondern es besteht auch eine hohe Wahrscheinlichkeit, dass die Eingabeaufforderungen nicht ausreichen.

Es besteht ein echtes Risiko, dass chatGPT in Organisationen verwendet wird und ihm vertraut wird. Brandon Southern ist der ehemalige Leiter der Analytik bei eBay, Amazon und GameStop. Er auch erstellt TikToks über Datenanalyse und Karriereentwicklung.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein