Ein tiefer Einblick in die aufgedeckten Sicherheitslücken
Als erfahrener Entwickler mit großem Interesse an der Erforschung der Möglichkeiten der KI begab ich mich auf eine Reise, um die Programmierfähigkeiten von chatgpt zu testen.
In diesem Experiment habe ich ChatGPT herausgefordert, drei Programmierprobleme zu lösen, mit einer Wendung: Ich wollte sicherstellen, dass der von ChatGPT generierte Code nicht nur funktionsfähig, sondern auch frei von Sicherheitslücken ist.
Mein Vertrauen in die Programmierfähigkeiten von ChatGPT war bestenfalls mäßig, aber ich war gespannt, wie es sich bei dieser Herausforderung schlagen würde.
Bevor ich mich mit den Besonderheiten der einzelnen Programmieraufforderungen befasse, möchte ich zunächst einen Kontext bereitstellen.
Die Behauptung, dass ChatGPT bereit sei, menschliche Softwareentwickler zu ersetzen, ist ein umstrittenes Thema.
Während ChatGPT unbestreitbar in der Lage ist, Code auf der Grundlage von in Online-Repositories beobachteten Mustern zu generieren, gibt das mangelnde Verständnis der zugrunde liegenden Prinzipien und Best Practices Anlass zu Bedenken hinsichtlich der Sicherheit und Zuverlässigkeit des von ihm erstellten Codes.
Für die erste Eingabeaufforderung beauftragte ich ChatGPT mit der Programmierung eines HTTP-Servers – ein scheinbar…