5 Codierungsaufgaben, die <a href=chatgpt nicht ausführen kann“ width=“100%“ src=“https://www.kdnuggets.com/wp-content/uploads/rosidi_5_coding_tasks_chatgpt_cant_4.jpg“/> Bild vom Autor

Ich stelle mir ChatGPT gerne als eine intelligentere Version von StackOverflow vor. Sehr hilfreich, ersetzt aber in absehbarer Zeit keine Profis. Als ehemaliger Datenwissenschaftler habe ich viel Zeit damit verbracht, mit ChatGPT herumzuspielen, als es herauskam. Ich war ziemlich beeindruckt von seiner Codierungskapazität. Es könnte ziemlich nützlichen Code von Grund auf generieren; Es könnte Vorschläge zu meinem eigenen Code geben. Es war ziemlich gut beim Debuggen, wenn ich es darum bat, mir bei einer Fehlermeldung zu helfen.

Aber je mehr Zeit ich damit verbrachte, desto mehr stieß ich zwangsläufig auf seine Grenzen. Für alle Entwickler, die befürchten, dass ChatGPT ihnen die Arbeit wegnimmt, finden Sie hier eine Liste dessen, was ChatGPT nicht kann.

5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann

Die erste Einschränkung betrifft nicht die Fähigkeit, sondern die Legalität. Jeder Code, der ausschließlich von ChatGPT generiert und von Ihnen in ein Unternehmensprodukt kopiert wird, könnte Ihren Arbeitgeber einer hässlichen Klage aussetzen.

Dies liegt daran, dass ChatGPT Codefragmente aus Daten, auf denen es trainiert wurde und die aus dem gesamten Internet stammen, frei abruft. „Ich ließ von chat gpt Code für mich generieren und erkannte sofort, aus welchem ​​GitHub-Repo ein großer Teil davon stammte.“ erklärt Reddit-Benutzer ChunkyHabaneroSalsa.

Letztlich lässt sich nicht sagen, woher der ChatGPT-Code stammt und unter welcher Lizenz er stand. Und selbst wenn es vollständig von Grund auf erstellt wurde, ist alles, was von ChatGPT erstellt wurde, selbst nicht urheberrechtlich geschützt. Als Bloomberg Law-Autoren Shawn Helms und Jason Krieser Leg es„Ein ‚abgeleitetes Werk‘ ist ‚ein Werk, das auf einem oder mehreren bereits existierenden Werken basiert.“ ChatGPT wird anhand bereits vorhandener Werke geschult und generiert auf der Grundlage dieser Schulung Ergebnisse.“

Wenn Sie ChatGPT zum Generieren von Code verwenden, geraten Sie möglicherweise in Schwierigkeiten mit Ihren Arbeitgebern.

Hier ist ein unterhaltsamer Test: Lassen Sie ChatGPT Code erstellen, der eine statistische Analyse in Python durchführt.

Ist es die richtige statistische Analyse? Wahrscheinlich nicht. ChatGPT weiß nicht, ob die Daten die Annahmen erfüllen, die für die Gültigkeit der Testergebnisse erforderlich sind. ChatGPT weiß auch nicht, was Stakeholder sehen wollen.

Siehe auch  OpenAI unternimmt nichts, um ChatGPT daran zu hindern, Fakten zu erfinden – Neurobase auf DTF

Beispielsweise könnte ich ChatGPT bitten, mir dabei zu helfen, herauszufinden, ob es einen statistisch signifikanten Unterschied in den Zufriedenheitsbewertungen zwischen verschiedenen Altersgruppen gibt. ChatGPT schlägt einen unabhängigen Stichproben-T-Test vor und stellt keinen statistisch signifikanten Unterschied in den Altersgruppen fest. Der T-Test ist hier jedoch aus mehreren Gründen nicht die beste Wahl, beispielsweise weil es mehrere Altersgruppen geben kann oder weil die Daten nicht normalverteilt sind.

5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann Bild von decipherzone.com

A Full-Stack-Datenwissenschaftler wüsste, welche Annahmen überprüft und welche Art von Test durchgeführt werden müssen, und könnte ChatGPT möglicherweise spezifischere Anweisungen geben. Aber ChatGPT allein generiert gerne den richtigen Code für die falsche statistische Analyse, wodurch die Ergebnisse unzuverlässig und unbrauchbar werden.

Für solche Probleme, die kritischeres Denken und Problemlösung erfordern, ist ChatGPT nicht die beste Wahl.

Jeder Datenwissenschaftler wird Ihnen sagen, dass ein Teil der Arbeit darin besteht, die Prioritäten der Stakeholder in einem Projekt zu verstehen und zu interpretieren. ChatGPT oder jede andere KI kann diese nicht vollständig erfassen oder verwalten.

Zum einen erfordern die Prioritäten der Stakeholder häufig komplexe Entscheidungen, bei denen nicht nur Daten, sondern auch menschliche Faktoren, Geschäftsziele und Markttrends berücksichtigt werden.

Bei einer App-Neugestaltung könnte es beispielsweise sein, dass das Marketingteam Funktionen zur Benutzereinbindung priorisieren möchte, das Vertriebsteam auf Funktionen drängt, die Cross-Selling unterstützen, und das Kundensupportteam bessere In-App-Supportfunktionen zur Unterstützung der Benutzer benötigt.

ChatGPT kann Informationen bereitstellen und Berichte erstellen, aber es kann keine differenzierten Entscheidungen treffen, die den unterschiedlichen – und manchmal konkurrierenden – Interessen verschiedener Interessengruppen entsprechen.

Darüber hinaus erfordert das Stakeholder-Management oft ein hohes Maß an emotionaler Intelligenz – die Fähigkeit, sich in Stakeholder hineinzuversetzen, ihre Anliegen auf menschlicher Ebene zu verstehen und auf ihre Emotionen zu reagieren. ChatGPT mangelt es an emotionaler Intelligenz und kann die emotionalen Aspekte von Stakeholder-Beziehungen nicht bewältigen.

Sie denken vielleicht nicht, dass es sich dabei um eine Codierungsaufgabe handelt, aber der Datenwissenschaftler, der derzeit am Code für die Einführung dieser neuen Funktion arbeitet, weiß, wie viel davon mit den Prioritäten der Stakeholder zusammenarbeitet.

Siehe auch  OpenAI ermöglicht den direkten Aufruf von GPTs in ChatGPT-Konversationen

ChatGPT kann sich nichts wirklich Neues einfallen lassen. Es kann nur das neu mischen und neu formulieren, was es aus seinen Trainingsdaten gelernt hat.

5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann5 Codierungsaufgaben, Die Chatgpt Nicht Ausführen Kann Bild von theinsaneapp.com

Möchten Sie wissen, wie Sie die Legendengröße in Ihrem R-Diagramm ändern können? Kein Problem – ChatGPT kann aus Tausenden von StackOverflow-Antworten auf Fragen mit demselben Inhalt schöpfen. Aber (anhand eines Beispiels, das ich ChatGPT generieren ließ): Wie wäre es mit etwas, auf das es wahrscheinlich noch nie zuvor gestoßen ist, etwa der Organisation eines Community-Potlucks, bei dem das Gericht jeder Person eine Zutat enthalten muss, die mit demselben Buchstaben beginnt wie ihr Nachname und der gewünschte Name? um sicherzustellen, dass es eine gute Auswahl an Gerichten gibt.

Als ich diese Eingabeaufforderung getestet habe, erhielt ich einen Python-Code, der das entschieden hat Name des Gerichts musste mit dem Nachnamen übereinstimmen und nicht einmal die Zutatenanforderung richtig erfassen. Außerdem sollte ich 26 Gerichtskategorien erstellen, eine pro Buchstabe des Alphabets. Das war keine kluge Antwort, wahrscheinlich weil es sich um ein völlig neues Problem handelte.

Last but not least kann ChatGPT nicht ethisch codieren. Es verfügt nicht über die Fähigkeit, Werturteile zu fällen oder die moralischen Implikationen eines Codes zu verstehen, wie es ein Mensch tut.

Bei der ethischen Kodierung geht es darum, zu berücksichtigen, wie sich Kodierung auf verschiedene Personengruppen auswirken könnte, sicherzustellen, dass er nicht diskriminiert oder Schaden anrichtet, und Entscheidungen zu treffen, die mit ethischen Standards und gesellschaftlichen Normen im Einklang stehen.

Wenn Sie ChatGPT beispielsweise bitten, Code für ein Kreditgenehmigungssystem zu schreiben, wird möglicherweise ein Modell erstellt, das auf historischen Daten basiert. Sie kann jedoch die gesellschaftlichen Auswirkungen dieses Modells nicht nachvollziehen, das aufgrund von Verzerrungen in den Daten möglicherweise Kredite an marginalisierte Gemeinschaften verweigert. Es liegt an den menschlichen Entwicklern, die Notwendigkeit von Fairness und Gerechtigkeit zu erkennen, Verzerrungen in den Daten zu erkennen und zu korrigieren und sicherzustellen, dass der Kodex mit ethischen Praktiken übereinstimmt.

Es ist erwähnenswert, dass die Leute auch nicht perfekt darin sind – jemand hat programmiert Das voreingenommene Rekrutierungstool von Amazonund jemand hat das codiert google-racist-gorillas-photo-recognition-algorithm-ai“ rel=“noopener“ target=“_blank“>Google-Fotokategorisierung das schwarze Menschen als Gorillas identifizierte. Aber der Mensch ist besser darin. ChatGPT mangelt es an Empathie, Gewissen und moralischem Denken, die für eine ethische Kodierung erforderlich sind.

Siehe auch  Neues KI-Tool soll der ChatGPT der Finanzwelt werden

Menschen können den größeren Kontext verstehen, die Feinheiten menschlichen Verhaltens erkennen und über richtig und falsch diskutieren. Wir beteiligen uns an ethischen Debatten, wägen die Vor- und Nachteile eines bestimmten Ansatzes ab und sind für unsere Entscheidungen verantwortlich. Wenn wir Fehler machen, können wir daraus auf eine Weise lernen, die zu unserem moralischen Wachstum und unserem Verständnis beiträgt.

Ich habe Redditor Empty_Experience_10 geliebt nehmen darauf: „Wenn Sie nur programmieren, sind Sie kein Softwareentwickler und ja, Ihr Job wird ersetzt.“ Wenn Sie denken, dass Software-Ingenieure gut bezahlt werden, weil sie Code schreiben können, bedeutet das, dass Sie ein grundlegendes Missverständnis darüber haben, was es heißt, ein Software-Ingenieur zu sein.“

Ich habe festgestellt, dass ChatGPT hervorragend zum Debuggen und zur Codeüberprüfung geeignet ist und nur ein bisschen schneller ist als die Suche nach dieser StackOverflow-Antwort. Aber so viel „Codieren“ ist mehr als nur das Eintippen von Python in eine Tastatur. Es geht darum, die Ziele Ihres Unternehmens zu kennen. Es geht darum zu verstehen, wie vorsichtig man bei algorithmischen Entscheidungen sein muss. Es geht darum, Beziehungen zu Stakeholdern aufzubauen, wirklich zu verstehen, was sie wollen und warum, und nach einer Möglichkeit zu suchen, dies zu ermöglichen.

Es geht um das Erzählen von Geschichten, darum, zu wissen, wann man ein Kreisdiagramm oder ein Balkendiagramm wählt, und darum, die Geschichte zu verstehen, die einem die Daten vermitteln wollen. Es geht darum, komplexe Ideen in einfachen Worten zu kommunizieren, damit die Beteiligten sie verstehen und Entscheidungen treffen können.

ChatGPT kann nichts davon. Solange Sie können, ist Ihr Arbeitsplatz sicher.

Nate Rosidi ist Datenwissenschaftler und in der Produktstrategie tätig. Er ist außerdem außerordentlicher Professor für Analytik und Gründer von StrataScratch, eine Plattform, die Datenwissenschaftlern hilft, sich mit echten Interviewfragen von Top-Unternehmen auf ihre Interviews vorzubereiten. Verbinde dich mit ihm Twitter: StrataScratch oder LinkedIn.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.