Hallo, Leser!
Wenn es um die Entwicklung der künstlichen Intelligenz geht, geht es rasant voran. Seit der öffentlichen Veröffentlichung von KI-Tools wie chatgpt, midjourney, Stable Diffusion und Meta's LLaMA sind weniger als zwei Jahre vergangen. Regulierungsbehörden, Gesetzgeber und Unternehmen beginnen sich alle mit den Auswirkungen des Einsatzes generativer KI-Tools auseinanderzusetzen.
Das beinhaltet Nachrichtenorganisationen und Journalisten, die bereits begonnen haben experimentieren. Das Nieman Journalism Lab berichtete dass 5 der 45 unangekündigten Finalisten für die diesjährigen Pulitzer-Preise KI für „Recherche, Berichterstattung oder Mitteilung ihrer Beiträge“ verwendeten. Bei Investigative Reporters & Editors‘ jährlich NIKAR Datenjournalismus-Konferenz in Baltimore letzte Woche, 14 der Mehr als 200 Sitzungen befassten sich mit KI und diskutierten, wie die Technologie Journalisten bei Arbeitsabläufen helfen, dichte Dokumente zusammenfassen und ihren Code debuggen kann.
Ich hatte eine eigene, eine Sitzung mit dem Titel „Verwendung von KI-Tools für den Datenjournalismus“, in dem ich zunächst die vielen verfügbaren und hervorgehobenen Tools überprüfte Die viele ethisch Sorgen um sie.
Dann zeigte ich die Ergebnisse meines zeitaufwändigen Experiments, ChatGPT 4 als Assistent für die Berichterstattung über eine Story zu verwenden. Spoiler-Alarm: Es lief nicht so gut!
Die Beispielgeschichte, die ich für diese Übung verwendet habe, war die Zugentgleisung in East Palestine, OH im Februar 2023, eine große Geschichte, die verschiedene Arten von Daten beinhaltete, bei deren Analyse ich ChatGPT bitten konnte. Um es klarzustellen: Dies war keine Geschichte, über die ich berichtet hatte, aber ich wollte versuchen, ChatGPT auf eine Art und Weise zu nutzen, wie es ein Datenjournalist tun würde, wenn er darüber berichtet. Ich habe im Rahmen dieser Übung viel Zeit damit verbracht, mit ChatGPT zu chatten, und ehrlich gesagt war es manchmal anstrengend. Sie können eine meiner Chat-Sitzungen lesen Hier. Das Vertrauen, das ChatGPT ausstrahlt, wenn es schlecht beschaffte Informationen (wie Wikipedia) oder ungenaue Standorte bereitstellt, kann irreführend sein. Manchmal gelang es mir, den Chat-Agenten dazu zu bringen, mir das zu geben, was ich wollte, aber ich musste sehr spezifisch sein und oft schimpfen.
Als ChatGPT beispielsweise meiner Anfrage nachkam, „eine einfache Karte zu erstellen, die sich auf den Ort des Absturzes konzentriert“, fiel mir sofort auf, dass sich die Markierung auf der Karte weit entfernt von irgendwelchen Bahngleisen befand. Als ich fragte, woher die Koordinaten des Absturzorts stammten, antwortete das Unternehmen, dass diese „auf der Grundlage allgemeiner Kenntnisse über den Ort des Ereignisses abgeleitet wurden“. Als ich darauf drängte, ein spezifischeres Zitat einzuholen, konnte es keins liefern und wiederholte immer wieder, dass es sich auf „allgemeines Wissen“ verlasse. Ich musste das Tool daran erinnern, dass ich ihm zu Beginn des Chats gesagt hatte, dass „es entscheidend ist, dass Sie Ihre Quellen zitieren und immer die zuverlässigsten Quellen verwenden.“ Bevor es endlich den richtigen Standort markieren konnte, musste ich es daran erinnern, dass es die Standortkoordinaten aus einem maßgeblichen Dokument beziehen konnte, das ich zuvor im Chat hochgeladen hatte, einem PDF der Federal Railroad Administration Vorfallsbericht.
Das Extrahieren von Informationen und das Zusammenfassen langer Dokumente wird oft als eine der größten Stärken von Tools wie ChatGPT genannt. Meine Ergebnisse waren gemischt. Nach einigem Hin und Her überredete ich den Agenten, die Einzelheiten und Mengen der gefährlichen Chemikalien, die bei dem Unfall freigesetzt wurden, herauszubekommen und die Informationen in einer Tabelle zu formatieren, in der der Name der Chemikalie, die freigesetzte Menge, der typische Verwendungszweck und ihre Eigenschaften aufgeführt sind Auswirkungen auf die menschliche Gesundheit. Aber es brauchte ein paar Versuche. Die Zeitersparnis lag jedoch in der Erläuterung spezieller Informationen, deren Ermittlung andernfalls möglicherweise eine zeitaufwändige google-Suche erfordert hätte – beispielsweise die Entschlüsselung der Nummern von Eisenbahnwaggons.
Manchmal war das Tool zu erpicht darauf, Ihnen zu gefallen, also habe ich es gebeten, es ein wenig abzuschwächen: „Sie können das Geplauder und die Höflichkeiten weglassen.“ Benutzer können den Bot anweisen, den Ton oder Stil ihrer Antworten zu ändern, aber wenn sie ihm sagen, dass es sich um einen Anwalt handelt, wird die Aussage nicht genauer.
Insgesamt bedeuteten die Sitzungen viel Arbeit, um herauszufinden, woher der Agent seine Informationen hatte, und um sie mit genauen Anweisungen weiterzuleiten. Es dauerte eine lange Zeit.
Das Unternehmen, das ChatGPT herstellt, OpenAI, antwortete nicht auf eine Anfrage nach einem Kommentar.
Basierend auf meinen Interaktionen sind die mit Abstand nützlichsten Funktionen von ChatGPT die Fähigkeit, Programmiercode zu generieren und zu debuggen. (An einem Punkt während der Ostpalästina-Übung kam es zu einigen einfachen Ereignissen Python Code zum Erstellen einer Karte der Entgleisung.) Wenn Sie auf eine Anfrage zum Schreiben von Code antworten, erklärt dieser normalerweise seinen Ansatz (auch wenn er möglicherweise nicht der beste ist) und zeigt seine Arbeit, und Sie können ihn umleiten, um einem anderen zu folgen Wenden Sie sich an uns, wenn Sie der Meinung sind, dass der Plan nicht Ihren Anforderungen entspricht. Die Möglichkeit, die Funktionen Ihres Codes kontinuierlich zu erweitern, während der KI-Agent den Kontext und den Verlauf Ihrer Diskussionen beibehält, kann Ihnen wirklich eine Menge Zeit sparen und die mühsame Suche nach Beiträgen zu einem ähnlichen Problem auf StackOverflow (eines der …) vermeiden größten Online-Coding-Communities).
Hallo Welt
Was passiert, wenn Sie mit ChatGPT Rollenspiele spielen?
Ein Gespräch mit Mingqian Zheng, Jiaxin Pei und David Jürgens
Die NICAR-Übung löste bei mir Bedenken hinsichtlich der Verwendung generativer KI-Tools für die präzise Arbeit des Datenjournalismus aus. Die Tatsache, dass ein so leistungsstarkes Tool wie ChatGPT keine „Quittung“ darüber erstellen kann, wie genau es etwas weiß, widerspricht allem, wozu wir als Journalisten ausgebildet sind. Außerdem mache ich mir Sorgen darüber, dass kleine, unterbesetzte Nachrichtenredaktionen zu sehr auf diese Tools angewiesen sind, da die Nachrichtenbranche mit Entlassungen und Schließungen zu kämpfen hat. Und wenn die Leitung der Nachrichtenredaktion keine Anleitung zur Verwendung dieser Tools gibt, kann dies zu Fehlern und Ungenauigkeiten führen.
Glücklicherweise haben viele Nachrichtenredaktionen begonnen, einige dieser Bedenken auszuräumen, indem sie KI-Richtlinien entworfen haben, um ihren Journalisten und Lesern zu helfen, zu verstehen, wie sie KI in ihrer Arbeit einsetzen wollen.
Das Markup ist dem Beispiel von gefolgt andere Nachricht Organisationen, und letzte Woche haben wir unsere Ethikrichtlinie um einen Abschnitt aktualisiert, der unsere Regeln für den Einsatz von KI in unserer Arbeit detailliert beschreibt. Zusammenfassend heißt es:
- Wir werden keine von KI erstellten Geschichten oder Kunstwerke veröffentlichen (es sei denn, sie sind Teil einer Geschichte über KI).
- Wir werden die Verwendung stets kennzeichnen oder offenlegen
- Wir werden unsere Arbeit stets streng überprüfen, und das gilt selbstverständlich für alles, was durch KI generiert wird
- In Zukunft werden wir die Sicherheit, den Datenschutz und ethische Aspekte aller neuen KI-Tools bewerten
Vielen Dank fürs Lesen und überprüfen Sie immer noch einmal alles, was Ihnen ein Chatbot sagt!
Jon Keegan Investigativer Datenjournalist Das Markup