Foto: Ficken (Shutterstock)

Am 22. März 2023 veröffentlichten Tausende von Forschern und Technologieführern – darunter Elon Musk und apple-Mitbegründer Steve Wozniak – eine offener Brief Aufruf, das Rennen um künstliche Intelligenz zu verlangsamen. Insbesondere empfahl der Brief, dass Labore das Training für Technologien unterbrechen, die stärker sind als GPT-4 von OpenAI, die anspruchsvollste Generation der heutigen spracherzeugenden KI-Systeme für mindestens sechs Monate.

Alarm einschalten Risiken durch KI ist nichts Neues – Wissenschaftler haben vor den Risiken gewarnt Superintelligente Maschinen schon seit Jahrzehnten. Darüber besteht noch kein Konsens die Wahrscheinlichkeit der Erstellung Künstliche allgemeine Intelligenzautonome KI-Systeme, die mit oder übereinstimmen Menschen übersteigen höchstens wirtschaftlich wertvolle Aufgaben. Es ist jedoch klar, dass aktuelle KI-Systeme bereits viele Gefahren bergen, von rassistischen Vorurteilen her Gesichtserkennungstechnologie auf die erhöhte Gefahr von Fehlinformationen und Student betrügt.

Während der Brief die Industrie und die politischen Entscheidungsträger zur Zusammenarbeit aufruft, gibt es derzeit keinen Mechanismus, um eine solche Pause durchzusetzen. Als ein Philosoph, der Technikethik studiertist mir aufgefallen, dass die KI-Forschung beispielhaft für die „Trittbrettfahrerproblem.“ Ich würde argumentieren, dass dies die Richtschnur dafür sein sollte, wie Gesellschaften auf ihre Risiken reagieren – und dass gute Absichten nicht ausreichen werden.

Kostenlos fahren

Trittbrettfahren ist eine häufige Folge dessen, was Philosophen „kollektive Handlungsprobleme“ nennen. Dies sind Situationen, in denen als Gruppe alle von einer bestimmten Aktion profitieren würden, als Einzelpersonen jedoch jedes Mitglied davon profitieren, es nicht zu tun.

Solche Probleme betreffen am häufigsten öffentliche Güter. Angenommen, die Einwohner einer Stadt haben ein kollektives Interesse an der Finanzierung eines U-Bahn-Systems, was erfordern würde, dass jeder von ihnen einen kleinen Betrag durch Steuern oder Fahrgelder zahlt. Jeder würde davon profitieren, aber es ist im besten Interesse jedes Einzelnen, Geld zu sparen und zu vermeiden, seinen gerechten Anteil zu zahlen. Schließlich können sie die U-Bahn immer noch genießen, wenn die meisten anderen Leute bezahlen.

Siehe auch  ChatGPT erfindet die Daten für eine wissenschaftliche Studie… auf Wunsch von Forschern – LINFO.re

Daher die „Trittbrettfahrer“-Problematik: Einige Einzelpersonen werden ihren gerechten Anteil nicht beisteuern, aber dennoch eine „Trittbrettfahrer-Fahrt“ erhalten – buchstäblich im Fall der U-Bahn. Würden jedoch nicht alle zahlen, würde niemand davon profitieren.

Philosophen neigen dazu, das zu argumentieren es ist unethisch, „frei zu fahren“.“, da Trittbrettfahrer es versäumen, andere dafür zu revanchieren, dass sie ihren gerechten Anteil zahlen. Viele Philosophen argumentieren auch, dass Trittbrettfahrer ihrer Verantwortung als Teil nicht nachkommen der Gesellschaftsvertrag, die kollektiv vereinbarten Genossenschaftsprinzipien, die eine Gesellschaft regeln. Mit anderen Worten, sie kommen ihrer Pflicht, beitragspflichtige Mitglieder der Gesellschaft zu sein, nicht nach.

Auf Pause drücken oder weitermachen?

Wie die U-Bahn ist KI ein öffentliches Gut, da sie Aufgaben weitaus effizienter erledigen kann als menschliche Bediener: alles aus Patienten diagnostizieren von der Analyse medizinischer Daten bis hin zur Übernahme Hochrisikoberufe beim Militär oder Verbesserung der Bergbausicherheit.

Aber sowohl seine Vorteile als auch seine Gefahren werden jeden betreffen, sogar Menschen, die KI nicht persönlich nutzen. Reduzieren Das KI-Risiko, hat jeder ein Interesse daran, dass die Forschung der Branche sorgfältig, sicher und mit angemessener Aufsicht und Transparenz durchgeführt wird. Zum Beispiel stellen Fehlinformationen und Fake News bereits eine ernsthafte Bedrohung für Demokratien dar, aber KI hat das Potenzial dazu verschärfen das Problem indem „Fake News“ schneller und effektiver verbreitet werden, als Menschen es können.

Selbst wenn einige Technologieunternehmen ihre Experimente freiwillig einstellen würden, hätten andere Unternehmen ein monetäres Interesse daran, ihre eigene KI-Forschung fortzusetzen, um im KI-Wettrüsten voranzukommen. Darüber hinaus würde das freiwillige Pausieren von KI-Experimenten anderen Unternehmen eine freie Fahrt ermöglichen, indem sie schließlich zusammen mit dem Rest der Gesellschaft von den Vorteilen einer sichereren, transparenteren KI-Entwicklung profitieren würden.

Siehe auch  Google sagt „Predator“-Spyware-Hit Chrome, Android Zero-Days

Sam Altman, CEO von OpenAI, hat bestätigt, dass das Unternehmen hat Angst vor den Risiken gestellt von seinem Chatbot-System chatgpt. „Wir müssen hier vorsichtig sein“, sagte er in einem Interview mit ABC News und erwähnte das Potenzial von KI, Fehlinformationen zu produzieren. „Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben.“

In einem am 5. April 2023 veröffentlichten Brief sagte OpenAI, dass das Unternehmen an leistungsstarke KI-Systeme glaubt Regulierung brauchen um gründliche Sicherheitsbewertungen zu gewährleisten und „aktiv mit den Regierungen über die beste Form einer solchen Regulierung zusammenzuarbeiten“. Trotzdem macht OpenAI mit dem weiter schrittweise Einführung von GPT-4, und auch der Rest der Branche entwickelt und trainiert weiterhin fortschrittliche KIs.

Reif für die Regulierung

Jahrzehnte Sozialwissenschaftliche Forschung zu Problemen des kollektiven Handelns hat sich gezeigt, wo Vertrauen und Wohlwollen nicht ausreichen Trittbrettfahrer zu vermeiden, Regulierung ist oft die einzige Alternative. Die freiwillige Einhaltung ist der Schlüsselfaktor, der Trittbrettfahrerszenarien schafft – und staatliches Handeln ist manchmal der Weg, es im Keim zu ersticken.

Weiter, solche Vorschriften müssen durchsetzbar sein. Schließlich könnten angehende U-Bahn-Fahrer den Fahrpreis wahrscheinlich nicht bezahlen, es sei denn, es droht eine Strafe.

Nehmen Sie eines der dramatischsten Trittbrettfahrerprobleme der Welt von heute: Klimawandel. Als Planet haben wir alle ein großes Interesse daran, eine bewohnbare Umwelt zu erhalten. In einem System, das Trittbrettfahrer zulässt, sind die Anreize für ein Land, tatsächlich grünere Richtlinien zu befolgen, jedoch gering.

Das Pariser Abkommen, das derzeit umfassendste globale Abkommen zum Klimawandel, ist freiwillig, und die Vereinten Nationen haben keine Möglichkeit, es durchzusetzen. Selbst wenn beispielsweise die Europäische Union und China ihre Emissionen freiwillig begrenzen würden, könnten die Vereinigten Staaten und Indien bei der Reduzierung von Kohlendioxid „frei fahren“, während sie weiterhin emittieren.

Siehe auch  Mögliche Rolle von ChatGPT-4 bei der Auswahl geeigneter bildgebender Tests für Brustkrebs-Screenings und Brustschmerzen

Globale Herausforderung

In ähnlicher Weise begründet das Trittbrettfahrerproblem Argumente zur Regulierung der KI-Entwicklung. In der Tat, Klimawandel ist eine besonders enge Parallele, da weder die Risiken der KI noch die Treibhausgasemissionen auf das Herkunftsland eines Programms beschränkt sind.

Darüber hinaus ist der Wettlauf um die Entwicklung fortschrittlicherer KI ein internationaler. Selbst wenn die USA eine föderale Regulierung der KI-Forschung und -Entwicklung einführen würden, könnten China und Japan frei fahren und ihr eigenes Inland fortsetzen KI-Programme.

Eine wirksame Regulierung und Durchsetzung von KI würde globales kollektives Handeln und Zusammenarbeit erfordern, genau wie beim Klimawandel. In den USA, strikte Durchsetzung würde eine Bundesaufsicht über die Forschung und die Möglichkeit erfordern, hohe Bußgelder zu verhängen oder nicht konforme KI-Experimente einzustellen, um eine verantwortungsvolle Entwicklung zu gewährleisten – sei es durch Aufsichtsbehörden, den Schutz von Hinweisgebern oder in extremen Fällen durch Labor- oder Forschungssperren und Strafanzeigen.

Ohne Durchsetzung wird es jedoch Trittbrettfahrer geben – und Trittbrettfahrer bedeuten, dass die KI-Bedrohung so schnell nicht nachlassen wird.

Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.

Tim Juvshik ist Visiting Assistant Professor für Philosophie an der Clemson University. Dieser Artikel wird neu veröffentlicht von Die Unterhaltung unter einer Creative-Commons-Lizenz. Lies das originaler Artikel.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein