Dieser Artikel erschien erstmals in Digital Edge, The Edge Malaysia Weekly vom 25. Dezember 2023 bis 7. Januar 2024

Im Jahr 2023 gab es kaum ein Gespräch, in dem es nicht um generative künstliche Intelligenz (KI)-Plattformen wie chatgpt ging. Doch inmitten des Hypes gab es auch eindringliche Warnungen von Experten vor den Risiken einer ungebremsten KI-Entwicklung.

Könnte 2024 das Jahr sein, in dem der Einsatz und die Entwicklung von KI eingeschränkt und reguliert wird? Digital Edge wandte sich für seine Überlegungen an ChatGPT – die neueste Version, GPT-4.

Die Konversation wurde der Kürze halber bearbeitet.

Digitaler Rand: Wie sieht die Zukunft der generativen KI im Jahr 2024 aus?

ChatGPT: Die genaue Zukunft der generativen KI für 2024 vorherzusagen, wäre Spekulation, aber es gibt mehrere Trends und potenzielle Fortschritte, die ihre Entwicklung auf der Grundlage der Entwicklungen bis zu meinem letzten Update im April 2023 beeinflussen könnten:

• Erhöhte Zugänglichkeit, mit Plattformen, die es Personen mit wenig oder gar keinem technischen Hintergrund ermöglichen, Inhalte zu erstellen, sei es Bilder, Text oder Code;

• Verbesserte Qualität und Wiedergabetreue, einschließlich eines besseren Umgangs mit Nuancen in der menschlichen Kommunikation;

• Expansion in neue Bereiche wie Spieleentwicklung, interaktive Unterhaltung, Echtzeit-Sprachübersetzung und fortgeschrittene Simulation für Forschungszwecke;

• Ethische und rechtliche Rahmenbedingungen im Hinblick auf Auswirkungen auf den Datenschutz, ethische Nutzung, geistige Eigentumsrechte und potenzielle Vorurteile. Dies könnte zu neuen Vorschriften und Standards für generative KI-Anwendungen führen;

• Integration mit anderen Technologien wie Virtual Reality und Augmented Reality;

• Wirtschaftliche Auswirkungen, bei denen Störungen in bestimmten Branchen zu Veränderungen auf den Arbeitsmärkten führen könnten;

• Kollaborative KI, die mit Menschen zusammenarbeitet;

• KI-Ethik und Kreativität, mit Diskussionen über die Natur der Kreativität und darüber, ob KI wirklich kreativ sein kann oder ob sie lediglich ein Werkzeug ist, mit dem Menschen ihre eigene Kreativität erweitern;

• Fortgeschrittenes Verständnis natürlicher Sprache; Und

• Generative KI in der wissenschaftlichen Forschung.

Die Europäische Union plant, KI zu regulieren, und einige Bundesstaaten in den USA haben Gesetze erlassen, die den Einsatz von KI in bestimmten Bereichen wie polizeilichen Ermittlungen und Einstellungsverfahren einschränken. Was sollte in diesen Vorschriften stehen?

Hier sind einige Schlüsselelemente, die in KI-Vorschriften häufig als wichtig erachtet werden:

• KI-Systeme sollten transparent sein. Benutzer sollten informiert werden, wenn sie mit einer KI interagieren, und Zugriff auf Informationen darüber haben, wie Entscheidungen innerhalb des Systems getroffen werden;

• Es sollten klare Verantwortlichkeiten festgelegt werden. Dabei muss sichergestellt werden, dass es immer einen Menschen gibt, der letztendlich für Entscheidungen verantwortlich ist, die mit Hilfe von KI-Systemen getroffen werden;

• KI-Vorschriften sollten strenge Datenschutzstandards durchsetzen, um sicherzustellen, dass personenbezogene Daten nicht missbraucht werden.

• KI-Systeme sollten so konzipiert und regelmäßig getestet werden, dass sie keine Vorurteile oder Diskriminierung aufrechterhalten;

• KI sollte an ethischen Standards ausgerichtet sein, wozu nicht nur die Achtung der Menschenrechte, sondern auch die Berücksichtigung weitergehender Auswirkungen auf die Gesellschaft und die Umwelt gehört;

• KI-Systeme sollten zuverlässig sein und wie vorgesehen funktionieren, wobei Fehler und Ausfälle auf ein Minimum beschränkt werden sollten, um schädliche Auswirkungen zu vermeiden;

• Es sollte eine Forderung nach menschlicher Aufsicht bestehen, insbesondere in kritischen Bereichen wie der Strafverfolgung, Gerichtsentscheidungen und anderen Bereichen, in denen KI-Entscheidungen erhebliche Konsequenzen haben können.

• Von Organisationen kann verlangt werden, vor dem Einsatz von KI-Systemen Folgenabschätzungen durchzuführen, insbesondere in Szenarien mit hohem Risiko, um potenzielle Risiken zu verstehen und zu mindern.

• Bestimmte Einsatzmöglichkeiten von KI können eingeschränkt sein, etwa die Gesichtserkennung im öffentlichen Raum oder Entscheidungssysteme ohne ausreichende Transparenz; Und

• Fördern oder fordern Sie Schulungen für Fachkräfte, die KI entwickeln oder damit arbeiten, um sicherzustellen, dass sie die ethischen Implikationen und Verantwortlichkeiten verstehen.

Generative KI ist aufgrund ihrer Tendenz zur Halluzination (die Generierung überzeugender, aber sachlich falscher Informationen) zu einer Quelle falscher Nachrichten geworden. Wie kann dies angegangen werden?

ChatGPT: Hier sind einige Strategien, die angewendet werden können:

• Verbessern Sie den Trainingsprozess von KI-Modellen. Dazu gehören Schulungen zu größeren, vielfältigeren und qualitativ hochwertigen Datensätzen, die regelmäßig mit sachlichen Informationen aktualisiert werden;

• Implementierung automatisierter Tools zur Faktenprüfung innerhalb generativer KI-Plattformen;

• Benutzer über die Grenzen von KI aufklären und digitale Kompetenz fördern;

• Verfahren zur menschlichen Aufsicht etablieren, bei denen generierte Inhalte überprüft werden;

• Digitale Wasserzeichen- und Herkunftstools entwickeln und nutzen, um KI-generierte Inhalte bis zu ihrer Quelle zurückzuverfolgen;

• Regulierungsrahmen schaffen, die Plattformen für die Verbreitung falscher Informationen zur Rechenschaft ziehen;

• Förderung der Entwicklung ethischer Richtlinien und Standards für den Einsatz von KI;

• Maßnahmen umsetzen, um den Einsatz generativer KI für böswillige Zwecke zu verhindern;

• Plattformen können ihre Communities in die Governance einbeziehen und es Benutzern ermöglichen, Fehlinformationen zu melden; Und

• Entwickeln Sie eine KI, die ihre eigene Unsicherheit erkennen und anzeigen kann, wenn sie Inhalte außerhalb ihrer Wissensbasis generiert oder wenn ihr Vertrauensniveau niedrig ist.

(Foto von Freepik)

Berichten zufolge hat die US Space Force ihren Mitarbeitern aufgrund von Bedenken hinsichtlich der Datensicherheit den Einsatz generativer KI am Arbeitsplatz verboten. Ist das fair?

ChatGPT: Ob dies fair ist oder nicht, kann aus mehreren Blickwinkeln kontextualisiert werden:

• Nationale Sicherheitsbehörden wie die Space Force verarbeiten geheime und sensible Informationen. Generative KI-Plattformen, insbesondere solche, die von Dritten gehostet werden, könnten solche Informationen möglicherweise offenlegen. Das Verbot kann als Maßnahme zur Verhinderung von Datenlecks und Spionage angesehen werden;

• Die Integrität der Operationen in einem militärischen Bereich ist von größter Bedeutung. Wenn generative KI als Risiko angesehen wird, das diese Integrität gefährden könnte, ist die Einschränkung ihres Einsatzes ein vernünftiger Schritt;

• Angesichts der Neuheit generativer KI und ihrer potenziellen Risiken kann ein Verbot eine vorübergehende, vorbeugende Maßnahme sein, während eine umfassende Bewertung und Festlegung sicherer Nutzungsrichtlinien erfolgt; Und

• KI-Systeme erzeugen manchmal Ergebnisse, die nicht ganz genau oder zuverlässig sind. Im militärischen Kontext könnte das Vertrauen auf solche unbestätigten Informationen schwerwiegende Folgen haben.

Andererseits könnte das Verbot aus mehreren Gründen abgelehnt werden:

• Eine Einschränkung des Einsatzes generativer KI könnte die Erforschung potenziell nützlicher Anwendungen behindern, die die Fähigkeiten der Space Force verbessern könnten;

• Wenn geeignete Cybersicherheitsmaßnahmen und Datenverarbeitungsprotokolle vorhanden sind, könnte ein völliges Verbot als übervorsichtig und als verpasste Gelegenheit für betriebliche Verbesserungen angesehen werden.

• Andere Nationen oder Einheiten, die KI effektiver nutzen, könnten einen strategischen Vorteil gegenüber der US Space Force erlangen; Und

• Generative KI kann die Effizienz und Produktivität deutlich verbessern. Ein Verbot könnte die Fähigkeit der Mitarbeiter einschränken, bestimmte Aufgaben effektiv auszuführen.

Letztendlich hängt die Gerechtigkeit des Verbots von der Balance zwischen der Notwendigkeit, sensible Informationen zu schützen, und den potenziellen Vorteilen generativer KI ab. Ein fairer Ansatz könnte eine differenzierte Richtlinie beinhalten, die den kontrollierten Einsatz generativer KI mit strengen Compliance- und Sicherheitsprotokollen ermöglicht, anstatt ein völliges Verbot.

Grundsätzlich keine privaten und sensiblen Informationen mit ChatGPT teilen, da diese für das Training von KI-Modellen verwendet werden?

Auch wenn die für das Modelltraining verwendeten Daten zum Schutz der Privatsphäre in der Regel anonymisiert und ohne identifizierende Details versehen werden, ist es dennoch ratsam, auf Nummer sicher zu gehen. Dies ist besonders wichtig, da es schwierig ist, einzelne Einträge zu extrahieren oder zu löschen, sobald Daten in einen Trainingsdatensatz integriert sind.

De10 Chatgpt 3 Tem1504 Freepik

(Foto von Freepik)

Prominente Autoren wie Jodi Picoult und Game of Thrones-Schöpfer RR Martin haben OpenAI wegen Urheberrechtsverletzung verklagt (September 2023). Ist ChatGPT schuldig?

ChatGPT: Soweit ich weiß, als [at] April 2023 haben Jodi Picoult oder George RR Martin keine derartigen rechtlichen Schritte gegen OpenAI wegen Urheberrechtsverletzung eingeleitet.

Die Authors Guild verklagte OpenAI im September 2023 wegen Urheberrechtsverletzung. Ist das wahr?

ChatGPT: (Surft im Internet)

Tatsächlich haben The Authors Guild und eine Gruppe von Autoren eine Klage gegen OpenAI eingereicht. Den Behauptungen zufolge wurde die Klage im südlichen Bezirk von New York wegen Urheberrechtsverletzung eingereicht, insbesondere im Hinblick auf die Verwendung ihrer fiktionalen Werke beim Training der GPT-Modelle.

[Digital Edge repeats the question.]

ChatGPT: Die von The Authors Guild und prominenten Autoren gegen OpenAI eingereichte Klage wirft komplexe rechtliche Fragen zum Urheberrecht und zur Verwendung urheberrechtlich geschützter Materialien beim Training von KI-Modellen wie ChatGPT auf. Die Feststellung der Schuld oder Haftung würde in diesem Fall vom rechtlichen Verfahren abhängen und letztlich einem Gericht überlassen bleiben.

Die Kläger, zu denen Autoren wie Jodi Picoult und George RR Martin gehören, behaupten, dass OpenAI ihre urheberrechtlich geschützten Werke ohne Genehmigung zum Trainieren seiner KI-Modelle verwendet habe, was ihrer Meinung nach eine Urheberrechtsverletzung darstellt.

Die Verteidigung von OpenAI und der Ausgang des Falles würden wahrscheinlich von Interpretationen der fairen Nutzung, der transformativen Natur von KI-Trainingsprozessen und den Besonderheiten des Urheberrechts in Bezug auf maschinelles Lernen abhängen.

Das Gerichtsverfahren würde verschiedene Faktoren berücksichtigen, etwa die Art der Trainingsdaten der KI, die Art und Weise, wie die KI Inhalte generiert, und die Auswirkungen auf den Markt für die Originalwerke. Das Problem stellt einen Präzedenzfall dar und könnte erhebliche Auswirkungen auf die Zukunft der KI-Entwicklung und die Rechte der Inhaltsersteller haben.

Es ist wichtig zu beachten, dass „Schuld“ in Zivilprozessen, wie etwa in Fällen von Urheberrechtsverletzungen, typischerweise als „Haftung“ und nicht als strafrechtlicher Schuldbegriff bezeichnet wird. Das Verfahren der Klage wird im weiteren Verlauf des Falles zu einem klareren Verständnis dieser rechtlichen Grenzen führen.

Sparen Sie, indem Sie uns für Ihr gedrucktes und/oder digitales Exemplar abonnieren.

P/S: The Edge ist auch verfügbar auf apple.com/us/app/the-edge-markets/id990567068?ls=1&mt=8″ target=“_blank“>Apples App Store Und google.com/store/apps/details?id=com.bizedge.theedgemarkets.malaysia“ target=“_blank“>Androids Google Play.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein