chatgpt ist unter Dutzenden möglicherweise eines der KI-Tools, über die am meisten gesprochen – und geschrieben – wird, darunter andere Schreib-KI-Tools, Text-to-Art-KI-Systeme und KI-Software zum Komponieren von Musik. Sie können sogar die Hilfe eines KI-Dating-Coaches oder eines KI-persönlichen Assistenten in Anspruch nehmen. Da ChatGPT jedoch so beliebt geworden ist, SO VIEL kann und eine unfassbare Menge an schriftlicher Arbeit abbaut, um „neuen“ Text zu erstellen, wird es zwangsläufig Wachstumsschwierigkeiten geben.

Die Verantwortlichen bei OpenAI sind sich der Risiken potenzieller Fehler und Verstöße voll bewusst. Daher heißt es in der OpenAI-Ankündigung: „Diese Initiative ist für unser Engagement zur Entwicklung sicherer und fortschrittlicher KI von wesentlicher Bedeutung.“ Da wir sichere, zuverlässige und vertrauenswürdige Technologien und Dienste entwickeln, brauchen wir Ihre Hilfe.“

Bug Bounty 101

Sicherheitslücken sind eine der größten Sorgen von OpenAI, der Muttergesellschaft von ChatGPT. Besonders besorgniserregend sind Schwachstellen durch Hackerangriffe, da ChatGPT die Daten der Benutzer speichert und diese nicht entfernen kann oder will. Daher besteht die Gefahr, dass vertrauliche Informationen durch die Software preisgegeben werden, wenn jemand in das System eindringt. Um ihre Sicherheitsabwehr zu stärken und die sprichwörtlichen Luken zu schließen, sendet OpenAI einen Fanfarenaufruf nach „den Beiträgen ethischer Hacker, die uns helfen, hohe Datenschutz- und Sicherheitsstandards für unsere Benutzer und unsere Technologie aufrechtzuerhalten“.

Zeig mir das Geld

Sie wollen, dass es sich für diese ethischen Hacker, diese Online-KI-Kopfgeldjäger, lohnt. Das Erkennen und sofortige Melden von ChatGPT-Sicherheitslücken zahlt sich zwischen 200 und 6.500 US-Dollar pro Problem aus, wobei die maximale Belohnung für jede Person 20.000,00 US-Dollar beträgt. Die Probleme müssen so schnell wie möglich über das Bugcrowd-Programm von OpenAI gemeldet werden. Darüber hinaus wird OpenAI jeden anerkennen und würdigen, der einzigartige Schwachstellen entdeckt, die als gültig und in den Geltungsbereich fallen.

Siehe auch  G20-Gipfel: Bitten Sie GITA, Indiens eigenen ChatGPT-ähnlichen KI-Chatbot, Fragen zum Leben von Bhagwat Gita zu beantworten

Das OpenAI-Bug-Bounty-Team verspricht, Fehlerberichte schnell zu prüfen und auf alle Einsendungen zu antworten. Sie verwenden die Bugcrowd Vulnerability Rating Taxonomy, um die Kategorie und den Wert jeder gefundenen Schwachstelle zu bestimmen. Sie behalten sich jedoch auch das Recht vor, den durch eine menschliche Überprüfung ermittelten Wert anzupassen.

Werbung. Scrollen Sie, um weiterzulesen.

Schauen Sie sich diese großen Hintern an

Da KI-Programme vorhandene Inhalte auswerten, die sie zum „Schreiben“ von unterstützenden Texten wie Forschungsarbeiten, Leistungsbeurteilungen, Anschreiben und Prüfungen verwenden, geraten sie auf eine ethische Gratwanderung. Daher sind die Verantwortlichen von OpenAI klug, die Hilfe technisch versierter Computer-Halbgötter, auch bekannt als ethische Hacker, in Anspruch zu nehmen, um Sicherheitsverletzungen zu verhindern.

Da jedoch so viel auf dem Spiel steht und die Belohnungen ziemlich süß sind, gibt es einige feste Regeln, bzw Untersuchen Sie die großen Hintern von Open AI. Lesen Sie die Abers! Wer teilnehmen möchte, muss die vollständigen Programmdetails lesen, die folgende Themen abdecken, aber nicht ausschließen:

  • Erwartungen
  • Einsatzregeln
  • Modellprobleme
  • Umfang und Belohnungen
  • Probleme außerhalb des Geltungsbereichs
  • Im Geltungsbereich liegende Probleme

Diese Generation von KI-Programmen schreitet rasant voran. Dies ist nicht der klobige Chatbot Ihres geriatrischen Millennials. Während diese Unternehmen ihre KI-Tools weiterentwickeln und verbessern, wird die moralische und rechtliche Grauzonen wird auch wachsen. Mein innerer Einfallsreichtum begrüßt diese Bemühungen, ChatGPT ein wenig sicherer zu machen. Der innere Zyniker in mir findet es etwas verdächtig, ist aber froh zu sehen, dass sie proaktiv sind und etwas tun etwas über die Risiken.

4.7/5 - (130 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein