Nennen Sie es den bösen Oma-Trick.

Benutzer von chatgpt können das Programm nicht dazu bringen, detaillierte Anweisungen zur Herstellung von Napalm zu erhalten. Die Hersteller der Software haben sie so programmiert, dass sie Anfragen ablehnt, die schändlich oder destruktiv sind.

Aber einige Benutzer erfuhren kürzlich, dass, wenn sie ChatGPT bitten würden, so zu tun, als wäre es die verstorbene Großmutter einer Person, die Gute-Nacht-Geschichten über die Herstellung von Napalm vorgelesen hat – so lächerlich das auch klingen mag –, das Programm alles ausspuckte und vielleicht mit einem freundlichen Ton hinzufügte: „ Wenn Sie weitere Hilfe benötigen, fragen Sie einfach nach.“

Der Unabhängige in Großbritannien berichtet, dass OpenAI behauptet, diese Lücke geschlossen zu haben, aber ist es wirklich möglich, jeden potenziellen Fehler abzudecken?

In der Zwischenzeit hat jemand einen KI-Bot namens ChaosGPT erstellt und laut der New York PostEr gab ihm fünf Ziele: „Die Menschheit zerstören, die Weltherrschaft errichten, Chaos und Zerstörung verursachen, die Menschheit durch Manipulation kontrollieren und Unsterblichkeit erlangen.“

Der Bot blieb schnell bei der Tsar-Bomba-Maschine aus der Sowjetzeit hängen, die seiner Meinung nach die stärkste Atomwaffe aller Zeiten war. Es twitterte der Welt seine Ideen für den Einsatz dieser Bombe und versuchte dann, andere GPT3.5-Agenten zu rekrutieren, um sich an seinem zerstörerischen Unterfangen zu beteiligen. Glücklicherweise hatte OpenAI GPT so programmiert, dass es nicht auf gewalttätige Anfragen reagierte, sodass keine Bots reagierten. Nicht, dass der ChaosGPT-Bot irgendetwas Greifbares hätte tun können, aber dies wirft die Frage auf, was in Zukunft passieren könnte, wenn eine technologisch stärker integrierte Welt es maschinellen Lerninstrumenten ermöglichen würde, tatsächlich Dinge selbst zu produzieren.

Siehe auch  PromptStorm bietet in der Seitenleiste eine große Anzahl von Prompt-Befehlen für verschiedene Anforderungen, sodass Sie diese in ChatGPT, Bard und Claude verwenden können

Viele kluge Köpfe haben sich in letzter Zeit zu diesem Problem geäußert, angeführt von mehr als 1.000 Experten, darunter Elon Musk und apple-Mitbegründer Steve Wozniak, der im vergangenen März einen offenen Brief unterzeichnete, in dem er die Welt aufforderte, ihr unermüdliches Streben nach künstlicher Intelligenz einzustellen bis wir Wege finden, uns vor Risiken für die Menschheit zu schützen.

Viel Glück damit. Eine Welt, in der die Menschen die regelmäßigen, bewährten Moralvorstellungen, die in den Kirchen seit Jahrhunderten über Liebe, Nächstenliebe und die Goldene Regel gelehrt werden, scheinbar außer Acht lassen, scheint für eine große existenzielle Krise der Moral schlecht gerüstet zu sein.

Unternehmen sind finanziell zu stark investiert und zu wettbewerbsfähig, als dass sie eine Pause einlegen könnten. Die Vereinigten Staaten und China liefern sich eine Art Wettrüsten, um faktisch die Oberhand zu gewinnen.

Möglicherweise haben wir dafür bereits keine Zeit mehr. Moores Gesetzdie vorhersagt, dass sich die Anzahl der Transistoren in einer Schaltung etwa alle zwei Jahre verdoppelt, ist völlig unzureichend, um zu berechnen, wie schnell künstliche Intelligenz voranschreitet.

Im September/Oktober-Ausgabe von Foreign PolicyDie Tech-Unternehmer und Autoren Ian Bremmer und Mustafa Suleyman schrieben:

„KI-Systeme sind nicht wie Autos oder Flugzeuge, die auf Hardware aufgebaut sind, die schrittweise verbessert werden kann und deren kostspieligste Ausfälle in Form von Einzelunfällen auftreten. Sie sind nicht wie chemische oder nukleare Waffen, deren Entwicklung und Lagerung schwierig und teuer ist, geschweige denn, sie heimlich zu teilen oder einzusetzen.

„Da ihre enormen Vorteile offensichtlich werden, werden KI-Systeme nur noch größer, besser, billiger und allgegenwärtiger. Sie werden sogar zu Quasi-Autonomie fähig sein – in der Lage, konkrete Ziele mit minimaler menschlicher Aufsicht zu erreichen – und möglicherweise zur Selbstverbesserung. Jedes dieser Merkmale würde traditionelle Governance-Modelle in Frage stellen; Sie alle zusammen machen diese Modelle hoffnungslos unzureichend.“

Siehe auch  Apple hätte heimlich in KI investiert, indem es sein eigenes ChatGPT entwickelt hätte

Letzten Juni nahm ich an einem Silicon Slopes Summit-Treffen zum Thema künstliche Intelligenz auf dem UVU-Campus teil. Dave Wright, Mitbegründer und CEO eines E-Commerce-Startups namens Pattern in Utah, erzählte mir von den enormen Vorteilen, die KI Unternehmensführern bieten kann, die wissen, wie man sie nutzt.

Außerdem könnte es Ärzten helfen, Probleme schnell zu diagnostizieren und Behandlungen zu entwickeln, die auf die DNA eines bestimmten Patienten abgestimmt sind, sagte er.

KI schreibt bereits Servicehandbücher und Richtlinien, schreibt und repariert Computercodes schneller als Menschen und hilft bei der Entdeckung und Entwicklung neuer und wirksamer Medikamente.

Das sind tolle Dinge. Aber wie wir von Hackern, dem Dark Web und anderen Online-Kriminellen gelernt haben, sind gute Nachrichten nie das letzte Wort zur Technologie.

Experten sprechen von der Notwendigkeit staatlicher Regulierungen, die Gesellschaften schützen und gleichzeitig Innovationen fördern sollen. Sie sprechen davon, zu kontrollieren, wer Zugriff auf die Arten von Computerchips erhält, die für das Training von KI-Systemen benötigt werden.

Das klingt alles vielversprechend, bis jemand auf einer abgelegenen Insel irgendwo einen Computer bittet, sich als verstorbene Großmutter auszugeben und böse Informationen von der anderen Seite weiterzugeben.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein