Obwohl derzeit das Wissen über den von entwickelten Chatbot IA öffnen ist bis September 2021 befristet, chatgpt zusammen mit dem Technologieriesen google, sind Sie bereit, auf aktuelle Nachrichten zuzugreifen. Eine Möglichkeit, die einen bemerkenswerten Fortschritt in den Fähigkeiten dieser Technologie darstellen würde, obwohl sie auch starke Bedenken hinsichtlich der enormen Herausforderungen aufwirft, die a künstliche Intelligenz mit Informationen in Echtzeit.
Der Ehrgeiz, Benutzern dieses Systems zur Verfügung zu stellen Generative KI Der Zugriff auf „aktuelle und autorisierte“ Daten könnte eine große Veränderung in der Art und Weise bedeuten, wie wir Nachrichten erhalten und konsumieren. und diese Situation bleibt nicht unbemerkt Britische Allianz unabhängiger Verlageder seine großen Bedenken zum Ausdruck brachte und bereits vorschlägt, diese Bot-Crawls schnell zu stoppen.
Eine der größten Befürchtungen ist, dass diese Ausweitung ChatGPT und seine Fähigkeit, Informationen in Echtzeit bereitzustellen, könnte zu einem Anstieg der Anrufe führen „Klicklose Suche“. Dies bedeutet, dass Leser Details und Informationen erhalten können, ohne die Website direkt besuchen zu müssen Websites der Originalnachrichten.
Und obwohl dies die Effizienz bei der Informationsbeschaffung erhöhen könnte, gibt es Anlass zur Sorge Mediennachhaltigkeit der Kommunikation und der Monetarisierung ihrer Inhalte.
Suchmaschinen, wie z Google j Binghaben Publishern die Möglichkeit geboten, den Zugriff von KI-Bots auf ihre Websites zu blockieren oder zu erlauben. Diese Entscheidung ist nicht trivial, denn sie hat wichtige Auswirkungen auf die Redakteure und ihre Beziehung zum Technologie. Einige Verlage haben sich dafür entschieden, den Zugriff darauf zu sperren GPTBotwährend andere beschlossen haben, es nicht einzuschränken.
Die Gründe für diese Entscheidungen sind vielfältig, wie einige Redakteure zum Ausdruck brachten, die besorgt über die zusätzlichen Kosten waren, die durch die Erhöhung entstehen könnten Bot-Handel. Ein Phänomen, das insbesondere kleinere Verlage betreffen könnte, die möglicherweise nur über begrenzte Ressourcen verfügen, um dies zu bewältigen Zunahme des Menschenhandels.
Neben den Kosten ist der Inhaltsschutz ein zentrales Anliegen in einer Zeit, in der Autoren befürchten, dass die IA kann Ihre Inhalte wahllos kopieren und sich negativ auf die Integrität Ihrer Arbeit und Ihres Einkommens auswirken.
Schließlich haben einige Verlage das Gefühl, dass ihnen die Sperrung des Zugriffs zunächst einen Vorteil verschafft Verhandlungsposition stärker in zukünftigen Diskussionen über die Lizenzierung von Inhalten. Diese Strategie würde es ihnen ermöglichen, klare Regeln festzulegen, bevor sie ihre Türen für künstliche Intelligenz öffnen.
Die Situation wird durch die Vielfalt der Meinungen und Ansätze unter den Redakteuren zusätzlich erschwert. Während prominente Namen wie New York Times, Reuters j Der Athlet haben sich für die Blockierung entschieden GPTBotandere mögen Der Tagesspiegel und das BBC Sie haben beschlossen, den Zugang nicht einzuschränken. Diese Vielfalt der Antworten spiegelt die Komplexität des Dilemmas wider, mit dem Verlage im Zeitalter der KI konfrontiert sind.
Eine interessante Meinung ist die von Lukas Budka, ein KI-Stratege, der die Komplexität hervorgehoben hat, mit der Verlage bei der Entscheidungsfindung konfrontiert sind; Warnung, dass sie bei der Erstellung dieser Blöcke präzise sein müssen, um allgemeine Suchroboter wie z. B. nicht zu beeinträchtigen Googlebotwährend der Zugriff auf bestimmte KI-Trainingsroboter wie eingeschränkt wird Google-Extended.
Letztendlich gibt es keine allgemeingültige Antwort für alle Herausgeber und jeder muss die Risiken und Vorteile sorgfältig abwägen, wenn er KI-Bots blockiert oder ihnen den Zugriff gewährt ChatGPT. Der Datenausgleich und das Risiko, bei KI-generierten Inhalten außen vor zu bleiben, sind entscheidende Faktoren in dieser Gleichung.
Um eine umfassende Lösung zu finden, freuen sich Interessierte auf mögliche Diskussionen auf der kommenden KI-Ethikkonferenz in Großbritannien.