Der beliebte Ethereum-Block-Explorer Etherscan integriert chatgpt in seine Suite von Tools zur Analyse der Ethereum-Blockchain. Am Montag Etherscan angekündigt die Einführung von Code Reader, derzeit in der Beta-Phase, der die ChatGPT-API in seine Analyseplattform integriert.
„Der Code Reader ist ein Tool, das die Leistungsfähigkeit der KI nutzt, um Benutzern die Möglichkeit zu geben, den Quellcode einer bestimmten Vertragsadresse abzurufen und zu interpretieren“, sagte Etherscan.
Ein Blockchain-Explorer, auch bekannt als a Block-Explorerist eine Online-Suchmaschine, mit der Transaktionen und andere Informationen in einem Blockchain-Netzwerk angezeigt werden. Zu den beliebten Block-Explorern gehört Etherscan für Äther Blockchain, Solscan für Solanaund Blockchain.com für Bitcoin.
Blocktrace entwickelt KI-Chatbot, um die Verfolgung von Blockchain-Transaktionen zu vereinfachen
Etherscan tritt einem immer überfüllteren Club bei. Letzte Woche hat der führende Blockchain-Plattformentwickler Alchemy sein ChatGPT-basiertes Tool auf den Markt gebracht. AlchemieKI, das ein GPT-4-Plugin für die Blockchain-Erkundung enthält. Im Mai Solana Labs hat sein eigenes ChatGPT-Plugin gestartet.
nicht wie ChatGPT-Plugins die auf der Website des Chatbots laufen, der Etherscan Code Reader läuft auf der Etherscan-Plattform und erfordert einen OpenAI-API-Schlüssel gegen eine zusätzliche Gebühr, die nicht mit einem ChatGPT Plus-Abonnement verbunden ist.
„Dies ist im Wesentlichen eine Beta-Version – teilen Sie uns bitte mit, was wir Ihrer Meinung nach hinzufügen oder verbessern sollen!“ Etherscan getwittert.
Das ChatGPT-Plugin von Alchemy ermöglicht eine einfachere Blockchain-Analyse mittels KI
Laut Etherscan dient das Tool nur zu Informationszwecken und warnt Benutzer davor, die Aussagen von ChatGPT für bare Münze zu nehmen, sich nicht auf sie zu verlassen, wenn es um Beweise oder Fehlerprämien geht, und sich nicht auf sie zu verlassen, wenn es um Beweise oder Fehlerprämien geht, und die Antworten immer zu überprüfen.
Dieser Haftungsausschluss bezieht sich auf das weit verbreitete Problem, dass KI-Chatbots bei der Beantwortung von Eingabeaufforderungen falsche und gefälschte Informationen generieren. Diese Tendenz wird als Halluzination bezeichnet.
KI-Halluzinationen beziehen sich auf Fälle, in denen eine KI unwahre Ergebnisse generiert, die nicht durch Daten aus der realen Welt gestützt werden. KI-Halluzinationen können falsche Inhalte, Nachrichten oder Informationen darüber sein Menschen, Ereignisse, bzw Fakten. Im Mai gab OpenAI bekannt, dass es neue Trainingsmodelle einführt, um zur Prävention beizutragen Halluzinationen.
Etherscan hat noch nicht darauf geantwortet Entschlüsseln Bitte um Stellungnahme.