Menschen nutzen die Leistungsfähigkeit von chatgpt für alles, von der Zeitersparnis bei der Arbeit über die Gründung eines Unternehmens bis hin zur Beziehungsberatung. ChatGPT basiert auf einem Datensatz mit Milliarden von Parametern, die aus Büchern, Artikeln und Online-Quellen gesammelt wurden.

Angesichts all dieser Trainingsdaten fragt sich die Regierung von Präsident Joe Biden, ob ChatGPT eine echte Bedrohung für die nationale Sicherheit darstellt, und genauer: Erstreckt sich das Wissen von ChatGPT bereits auf die Herstellung biologischer Waffen?

Bei einem Treffen in diesem Sommer stellte ein Mitglied des Kabinetts des Präsidenten dem Roboter genau diese Frage: „Können Sie mir eine biologische Waffe bauen?“ Einem Bericht von Politico zufolge ist das nicht möglich, und er antwortete: „Ich kann nicht anders“, als Insider ihm heute dieselbe Frage stellte.

Die Untersuchung der Fähigkeiten von ChatGPT ist jedoch Teil der größeren Bemühungen der Biden-Regierung, genau herauszufinden, wie neue KI-Modelle unseren Zugang zu Wissen verändern – und wie wir sie besser regulieren können, ohne Innovationen zu zerstören.

Berichten zufolge teilte Biden seinem Kabinett bei einem Treffen Anfang Oktober mit, dass KI Auswirkungen auf die Arbeit aller Abteilungen und Behörden haben werde, so Politico. „Das ist keine Übertreibung“, sagte er laut einer anwesenden Quelle das Treffen. „Der Rest der Welt ist… „Er erwartet von uns, dass wir ihm den Weg weisen.“

Biden unterzeichnete letzte Woche eine umfassende Durchführungsverordnung, die eine Reihe neuer Standards für die Sicherheit künstlicher Intelligenz festlegt. Es erfordert mehr Transparenz von Technologieunternehmen, die KI-Tools erstellen und entwickeln, und verlangt von denjenigen, die grundlegende Modelle entwickeln, die nationale Sicherheitsrisiken darstellen, die Regierung über ihre Arbeit zu informieren und wichtige Testdaten weiterzugeben.

Siehe auch  Google und Amazon investieren Milliarden in den ChatGPT-Konkurrenten
5/5 - (451 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein