Skillsoft gab heute bekannt, dass es dies plant Fügen Sie seiner Online-Schulungsplattform Codecademy Funktionen für generative künstliche Intelligenz (KI) hinzu um Entwicklern praktische Erfahrungen mit chatgpt zum Schreiben von Code zu vermitteln.

Kunal Ahuja, General Manager des Codecademy-Verbrauchergeschäfts bei Skillsoft, sagte, das Ziel bestehe darin, Entwicklern einen besser kuratierten Weg zu bieten, ihnen beizubringen, wie sie Eingabeaufforderungen definieren, die zu einer besseren Codegenerierung führen. Diese Verbesserungen werden in den kommenden Monaten sowohl Codecademy Plus- und Pro-Benutzern als auch Unternehmenskunden zur Verfügung gestellt, stellte er fest.

Es besteht kein Zweifel daran, dass Entwickler beim Schreiben von Code mehr auf generative KI setzen, aber nicht alle von Plattformen generierten Ausgaben, die auf einem universellen Large Language Model (LLM) basieren, werden konsistent sein. „Codecademy bietet ein noch intensiveres Erlebnis, das es Entwicklern ermöglicht, ihr Fachwissen im Bereich Prompt Engineering zu verfeinern“, sagte Ahuja.

Zu den KI-fähigen Funktionen gehören Codeerklärungen und Projekthinweise zur Verbesserung der Debugging-Fähigkeiten sowie weiteres Echtzeit-Feedback, das über einen virtuellen Codierungsassistenten angezeigt wird. Es gibt auch Kurse wie „Prompt Engineering für Software-Ingenieure“.

Schließlich bietet Skillsoft auch Zugriff auf einen Simulationssimulator für Vorstellungsgespräche, auf den Entwickler zugreifen können, um festzustellen, ob sie für ein Vorstellungsgespräch bereit sind.

Da immer deutlicher wird, dass Prompt Engineering eine Fähigkeit ist, die Anwendungsentwicklungsteams beherrschen müssen, um Software zu erstellen und bereitzustellen, besteht ein klarer Bedarf, fast jedem in der IT beizubringen, wie man Prompts effizient erstellt. Letztendlich wird die Anzahl der zur Codegenerierung verwendeten Eingabeaufforderungen einen Einfluss auf die Gesamtkosten der Softwareentwicklung haben.

Längerfristig plant Skillsoft den Aufbau eines eigenen LLM unter Verwendung der über seine Plattform gesammelten Daten, um Schulungen mithilfe eines LLM anzubieten, das mit kuratiertem Code trainiert wurde, sagte Ahuja. Eines der Probleme bei einem Allzweck-LLM besteht darin, dass es anhand von Codebeispielen aus dem gesamten Web trainiert wird, deren Qualität stark variiert. Dies kann zu Codeausgaben führen, die bekannte Schwachstellen aufweisen oder einfach ineffizient ausgeführt werden. Natürlich kann es genauso wahrscheinlich sein, dass ein Entwickler, der durch generative KI unterstützt wird, je nach seinem Fachwissen tatsächlich qualitativ hochwertigeren Code liefert.

Siehe auch  Aus diesen Gründen sollten Sie ChatGPT zur Vorbereitung auf das Vorstellungsgespräch verwenden

Trotz dieser Bedenken sei es jedoch immer noch wichtig, Entwicklern die Ausbildung zu bieten, die sie heute benötigen, um wettbewerbsfähig zu bleiben, sagte Ahuja.

Es ist nicht klar, wie viel Code heutzutage von Maschinen im Vergleich zu Menschen generiert wird, aber mit zunehmendem Volumen wird auch die Anzahl und Größe der Software-Builds, die verwaltet werden müssen, nur zunehmen. Hoffentlich wird bei den DevOps-Workflows, die zur Verwaltung dieser Software-Builds verwendet werden, genauso viel KI eingesetzt wie beim Schreiben von Code, aber zumindest kurzfristig könnten DevOps-Teams bald überfordert sein.

Sicher ist, dass DevOps-Teams ein berechtigtes Interesse daran haben, sicherzustellen, dass der von den Entwicklern geschriebene Code von höchster Qualität ist. Denn wenn es ein Problem mit diesem Code gibt, ist es in der Regel Sache des DevOps-Teams, es zu beheben.

Bildquelle: https://vecteezy.com/programming-background-with-person-working-with-codes-computer-e1679047506780.jpg

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein