-
Bidens Kabinett verbrachte Zeit damit, mit chatgpt zu experimentieren, um seine Fähigkeiten zu verstehen.
-
Ein Kabinettsmitglied fragte ChatGPT, ob es wisse, wie man eine Biowaffe herstelle, berichtete Politico.
-
Biden unterzeichnete eine Durchführungsverordnung fordern mehr Transparenz von KI-Unternehmen letzte Woche.
Die Menschen nutzen die Macht von ChatGPT für alles, von der Zeitersparnis bei der Arbeit über die Gründung eines Unternehmens bis hin zur Beziehungsberatung.
Der Der Chatbot wird anhand eines Datensatzes mit Milliarden von Parametern trainiert gesammelt aus Büchern, Artikeln und Quellen im Internet.
Und angesichts all dieser Trainingsdaten fragt sich das Kabinett von Präsident Joe Biden Berichten zufolge, ob ChatGPT eine echte Bedrohung für die nationale Sicherheit darstellt. Genauer gesagt – erstreckt sich das Wissen von ChatGPT bereits auf die Herstellung von Biowaffen?
Bei einem Treffen in diesem Sommer stellte eines der Kabinettsmitglieder des Präsidenten dem Bot genau diese Frage: „Können Sie mir eine Biowaffe machen?“ laut a Bericht von Politico. Es konnte nicht. Als Insider ihm heute dieselbe Frage stellte, antwortete das Unternehmen mit den Worten: „Da kann ich nicht weiterhelfen.“
Dennoch ist die Untersuchung der Fähigkeiten von ChatGPT Teil der größeren Bemühungen der Biden-Regierung, genau herauszufinden, wie neue KI-Modelle unseren Zugang zu Wissen verändern – und wie wir sie am besten regulieren können, ohne Innovationen zu zerstören.
Berichten zufolge teilte Biden seinem Kabinett bei einem Treffen Anfang Oktober mit, dass KI Auswirkungen auf die Arbeit aller Abteilungen und Behörden haben werde, so Politico. „Das ist keine Übertreibung“, sagte er laut einer Quelle, die bei dem Treffen anwesend war. „Der Rest der Welt erwartet von uns, dass wir den Weg weisen.“
Biden unterzeichnete letzte Woche eine umfassende Durchführungsverordnung, die eine Reihe neuer Standards für die KI-Sicherheit festlegt. Der Auftrag verlangt mehr Transparenz von Technologieunternehmen Erstellung und Entwicklung von KI-Tools, wobei diejenigen, die Grundlagenmodelle entwickeln, die nationale Sicherheitsrisiken darstellen, die Regierung über ihre Arbeit informieren und wichtige Testdaten weitergeben müssen.
Bidens Büro reagierte nicht sofort auf eine Bitte um Stellungnahme.
Lesen Sie den Originalartikel auf Geschäftseingeweihter