Ein Forscherteam hat herausgefunden, dass chatgpt intelligente Verträge schreiben kann, aber Entwickler sollten es vermeiden, es zur Prüfung ihres Codes zu verwenden.

Die Forscher des Blockchain-Sicherheitsunternehmens Salus Security bewerteten die Fähigkeit von GPT-4, dem leistungsstärksten Large Language Model (LLM) von OpenAI, intelligente Verträge zu prüfen. Sie kamen zu dem Schluss, dass die Genauigkeit bei der Erkennung von Schwachstellen zwar hoch ist, die Rückrufrate jedoch für ein intelligentes Vertragsprüfungstool gefährlich niedrig ist.

In ihrer kürzlich veröffentlicht In ihrer Studie wählten die beiden Forscher acht Sätze intelligenter Verträge aus, die mit 18 Arten von Schwachstellen, also insgesamt 60, ausgestattet waren. Ihr Ziel bestand darin, zu beurteilen, ob das LLM von OpenAI einen professionellen Prüfer nachahmen und den Code analysieren und Schwachstellen aufdecken kann.

Die Forscher fanden heraus, dass GPT-4 sieben Arten von Schwachstellen mit einer hohen Genauigkeit von über 80 % erkannte. Allerdings war die Rückrufrate in allen Datensätzen auffallend niedrig, wobei der niedrigste Wert bei etwa 11 % lag, was darauf hindeutet, „dass GPT-4 bei der Erkennung möglicherweise einige Schwachstellen übersieht“.

Die Rückrufrate ist der Prozentsatz der Datenstichproben, die ein Modell anhand der Gesamtstichprobe oder der echten positiven Rate korrekt als zu einer Klasse gehörend identifizieren kann. Präzision ist das Verhältnis von echten Positiven zu echten und falschen Positiven oder wie viele Junk-Positive in einem Datensatz enthalten waren.

Die Forscher wiesen darauf hin, dass die Ergebnisse darauf hindeuten, dass die Schwachstellenerkennungsfähigkeiten von GPT-4 unterdurchschnittlich sind und nur als Hilfstool bei der Prüfung intelligenter Verträge verwendet werden sollten.

„Zusammenfassend lässt sich sagen, dass GPT-4 ein nützliches Tool zur Unterstützung bei der Prüfung intelligenter Verträge sein kann, insbesondere bei der Code-Analyse und der Bereitstellung von Schwachstellenhinweisen. Aufgrund seiner Einschränkungen bei der Schwachstellenerkennung kann es jedoch derzeit professionelle Prüftools und erfahrene Prüfer nicht vollständig ersetzen“, schlussfolgerten die Forscher.

Siehe auch  TikTok testet seinen Taco-Chatbot, der sich von ChatGPT unterscheiden wird

Die neueste Studie bestätigt andere Ergebnisse, die Behauptungen zurückgewiesen haben, dass künstliche Intelligenz (KI) Entwickler ersetzen wird. Während spezialisierte KI-gestützte Tools immer beliebter werden Obwohl sie immer besser darin sind, Code zu schreiben und Schwachstellen zu erkennen, kann man sich immer noch nicht auf sie allein verlassen, insbesondere in der Welt der digitalen Assets, wo bereits die kleinste Schwachstelle ausgenutzt wird.

Damit künstliche Intelligenz (KI) gesetzeskonform funktioniert und angesichts wachsender Herausforderungen erfolgreich sein kann, muss sie ein Enterprise-Blockchain-System integrieren, das die Qualität und den Besitz der Dateneingabe gewährleistet – so dass die Daten sicher bleiben und gleichzeitig die Unveränderlichkeit gewährleistet ist von Dateien. Schauen Sie sich die Berichterstattung von CoinGeek über diese aufstrebende Technologie an, um mehr zu erfahren, warum die Enterprise-Blockchain das Rückgrat der KI sein wird.

Beobachten Sie: Weiß die KI, was sie tut?

YouTube Video

width=“562″ height=“315″ frameborder=“0″allowfullscreen=“allowfullscreen“>

Neu in der Blockchain? Schauen Sie sich den Abschnitt „Blockchain für Anfänger“ von CoinGeek an, den ultimativen Ressourcenleitfaden, um mehr über die Blockchain-Technologie zu erfahren.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein