Die US-Regierung hat keine besonders gute Erfolgsbilanz darin, mit neuen Technologien Schritt zu halten: Schauen Sie sich nur Washingtons stolpernde Versuche an, die sozialen Medien zu überwachen. Doch der komplexe neue Bereich der künstlichen Intelligenz wirft rechtliche, nationale Sicherheits- und Bürgerrechtsbedenken auf, die potenzielle staatliche Regulierungsbehörden nicht ignorieren können. Sogar chatgpt-Ersteller Sam Altman sprach sich für „regulatorische Eingriffe der Regierungen“ aus, um „die Risiken“ der KI zu mindern. Während der Kongress darüber debattiert, ob und wie verbindliche Vorschriften eingeführt werden sollen, Präsident Joe Biden hat führende KI-Unternehmen aufgefordert, in einem ersten Schritt freiwillige Transparenz- und Sicherheitsstandards einzuhalten.
Amerikaner nutzen bereits sogenannte generative KI, um Reden zu schreiben, Trainings zu planen und (manchmal fälschlicherweise) Antwort Fragen zu Berufsprüfungen. Betrüger sind verwenden KI, um sich als verzweifelte Enkelkinder auszugeben und ältere Amerikaner um Tausende von Dollar zu betrügen. Kindesmissbraucher nutzen generative KI-Technologien, um gefälschtes Material über sexuellen Missbrauch von Kindern online zu verbreiten. Ein gefälschtes KI-Foto einer Explosion in der Nähe des Pentagon verbreitete sich in den sozialen Medien und drückte die US-Aktien kurzzeitig nach unten. „Wir haben eine wirklich schnelle Weiterentwicklung der Fähigkeiten großer Sprachmodelle und anderer Basismodelle gesehen, die zwar viele Dinge können, bei Missbrauch aber auch das Potenzial für ernsthafte Schäden bergen“, sagte Daniel Ho, Professor an der Stanford University, der sich mit KI beschäftigt.