Bis vor zwei Jahren haben Schulen und Hochschulen hart gearbeitet, um den Schülern C\C++-Sprachen von Grund auf beizubringen, indem sie „Hello World“ gedruckt haben, aber jetzt gehört das der Vergangenheit an. Nach der Einführung von chatgpt entwickelte sich Englisch zur neuen Programmiersprache. In letzter Zeit macht ein Meme im Internet die Runde, das darauf hindeutet, dass von ChatGPT generierte Codes von den Entwicklern länger zum Debuggen benötigt werden.
Auch auf Twitter äußerten mehrere Nutzer ihre Enttäuschung darüber, wie schwierig es geworden sei, den von ChatGPT erstellten Code zu debuggen. Einer der Benutzer auf Twitter sagte: „ChatGPT ist gut für die Codegenerierung, aber es generiert Codes, die Debugging erfordern, sodass es Zeitverschwendung wäre, es blind zu verwenden.“
Reicht dieser Grund jedoch aus, sie davon abzuhalten, ChatGPT zum Codieren zu verwenden? Die Antwort ist ein klares Nein, denn Codieren und Denken unterbrechen gleichzeitig Ihre Gedankenkette. Auch wenn es länger dauert, würden die Leute dennoch ChatGPT zum Codieren verwenden, weil es ihnen ermöglicht, kreativ zu sein, Probleme zu lösen und neue Codierungsideen zu entdecken. Mit ChatGPT wird unsere Fähigkeit zum kritischen Denken nicht durch die Geschwindigkeit eingeschränkt, mit der wir Gedanken in Codes umwandeln können.
GPT 3.5 vs. GPT4
Es ist eine Tatsache, dass selbst der erfahrenste menschliche Programmierer das Programm nicht immer beim ersten Versuch richtig hinbekommt. Große Sprachmodelle (LLMs) haben sich bei der Generierung von Codes als hochqualifiziert erwiesen, stoßen jedoch bei komplexen Programmieraufgaben immer noch auf Schwierigkeiten. Um diese Herausforderungen zu meistern, haben Forscher eine Technik namens Selbstreparatur erforscht, bei der das Modell Fehler in seinem eigenen Code identifizieren und korrigieren kann. Dieser Ansatz erfreut sich zunehmender Beliebtheit, da er dazu beiträgt, die Leistung von LLMs in Programmierszenarien zu verbessern.
Eine Forschungsarbeit mit dem Titel „Entmystifizierung der GPT-Selbstreparatur für die Codegenerierung‚, quantifiziert die Selbst-Debug-Fähigkeiten von GPT-4 im Vergleich zu anderen LLMs. Dem Papier zufolge verfügt GPT-4 über eine äußerst nützliche und aufstrebende Fähigkeit, die stärker ist als jedes andere Modell – Selbst-Debugging.
Eine der wichtigsten Erkenntnisse aus dem Papier war, dass GPT-3.5 angesichts des Feedbacks von GPT-4 viel besseren Code schreiben kann. Die außergewöhnliche Fähigkeit von GPT-4 zur Selbstreparatur beruht auf seinem bemerkenswerten Feedback-Mechanismus. Im Gegensatz zu anderen Modellen verfügt GPT-4 über eine einzigartige Fähigkeit zur effektiven Selbstreflexion, die es ihm ermöglicht, Probleme im Code zu identifizieren und zu beheben. Dieses Unterscheidungsmerkmal unterscheidet es von seinen Pendants in der KI-Landschaft.
Insbesondere müssen das Feedback-Modell und das Code-Generierungsmodell in GPT-4 nicht unbedingt identisch sein. Sie können beispielsweise den von GPT-3.5 erstellten Code mit GPT-4 debuggen. In diesem Fall fungiert GPT-3.5 als Codegenerierungsmodell und GPT-4 als Feedbackmodell. Dieser Ansatz ermöglicht es GPT-4, seine Codierungsfunktionen kontinuierlich zu verbessern und zu verfeinern, was es zu einer herausragenden Lösung im Bereich der KI-gesteuerten Programmierung macht.
Eine interessante Erkenntnis aus der Untersuchung ergab, dass das selbst generierte Feedback von GPT-4 zusammen mit dem Feedback eines erfahrenen Programmierers die Anzahl der reparierten Programme erhöhte. Das bedeutet, dass menschliches kritisches Denken weiterhin Teil des Debugging-Prozesses sein muss. KI kann Sie beim Debuggen unterstützen, aber letztendlich kommt es auf Ihre Fähigkeiten an.
Was kommt als nächstes?
Der von ChatGPT erstellte Code ist genauso effizient wie die Eingabeaufforderung. Wenn Ihre Eingabeaufforderung nicht den Anforderungen entspricht, können Sie nicht die gewünschte Ausgabe erzeugen. Bei Eingabeaufforderungen handelt es sich meist nur um Versuch und Irrtum, das heißt, wenn eine Eingabeaufforderung nicht funktioniert, versuchen Sie es mit einer anderen. Zukünftig besteht die Möglichkeit, dass Sie wie beim Codieren möglicherweise nicht einmal selbst Eingabeaufforderungen erstellen müssen. Entwickler entwickeln Open-Source-Modelle, die über die ChatGPT-API integriert werden können und Ihnen die bestmöglichen Eingabeaufforderungen bieten.
Ein Beispiel für diesen KI-Agenten ist „GPT Prompt Engineer“. Es handelt sich um einen Constraint-Agenten, was bedeutet, dass sein Verhalten stark kontrolliert wird und zu besseren Ergebnissen führt als Agenten mit offenem Ende. Es verkettet viele GPT-4- und GPT-3.5-Turbo-Aufrufe, die zusammenarbeiten, um die bestmögliche Eingabeaufforderung zu finden. Oft hat es sogar die von Menschen geschriebenen Eingabeaufforderungen übertroffen.