Auch die durch KI generierten Inhalte müssen über einen „Ausweis“ verfügen.
Kürzlich haben sieben Technologiegiganten, darunter OpenAI und Meta, zugesagt, einige Sicherheitsmaßnahmen zu ergreifen, um die Sicherheit der KI-Technologie zu erhöhen.
Es ist erwähnenswert, dass die sieben Technologiegiganten in der Verpflichtung alle über die regulatorischen Fragen der KI sprachen und versprachen, gemeinsam ein Wasserzeichensystem zu entwickeln und anzuwenden, das für alle Formen von Inhalten verwendet werden kann, die durch künstliche Intelligenz generiert werden, einschließlich Text, Bilder, Audio und Video.
Durch die Beachtung des in den Inhalt eingebetteten Wasserzeichenlogos können Benutzer von KI erzeugte Deep-Fake-Bilder oder -Audiodaten erkennen und so das Risiko der Verbreitung negativer Informationen wie Gewalt und Betrug auf Benutzerseite verringern.
▲Bild von: Pexels, das gleiche unten
Tatsächlich sind die Technologiegiganten, die sich im letzten Jahr mit chatgpt explosionsartig verbreitet haben, in diesem Wettbewerb mit Sicherheit die Sieger geworden, und die Entwicklung der KI-Technologie schreitet sprunghaft voran.
Dann warf die unausgereifte KI-Technologie auch einige Fragen auf, die Aufmerksamkeit verdienen, und zwar zunächst die Frage, wie die Authentizität von Informationsinhalten ermittelt werden kann.
Im Jahr 2019 gab sich ein Betrüger mithilfe einer KI-Sprachimitationssoftware als Chef des Unternehmens aus und täuschte damit erfolgreich den CEO eines britischen Energieunternehmens vor, er spreche mit dem Chef der deutschen Muttergesellschaft.
Am Telefon forderte der Betrüger den Vorstandsvorsitzenden auf, mittels der durch KI-Technologie simulierten Stimme sofort 220.000 Euro (Anmerkung: rund 1,76 Millionen Yuan) auf das Bankkonto eines Lieferanten in Ungarn zu überweisen, um die Zahlung von „Verspätungsgebühren“ zu vermeiden, und forderte die Übermittlung der Überweisungsinformationen per E-Mail an. Unter der Verwirrung der simulierten Stimme zögerte der CEO nicht, dies zu tun, und dann waren die 220.000 Euro „umsonst“.
„Die Gauner nutzen eine Art KI-Software, die nicht nur die Stimme und den Tonfall einer anderen Person imitieren kann, sondern sogar Englisch mit deutschem Akzent“, sagte der Versicherer des Energiekonzerns. „Der (falsche) ‚Johannes‘ wollte sogar mit mir sprechen, als ich mit dem echten Johannes sprach“, schrieb der betrogene CEO wütend in einer E-Mail. Dieses empörende Ereignis hat auch allgemein die Besorgnis der Benutzer über die ungeordnete Entwicklung der KI geweckt. Wenn bahnbrechende Technologien der künstlichen Intelligenz für Betrug eingesetzt werden, gleicht das eher einer Weiterentwicklung des Prinzips „Ratet mal, wer ich bin?“.
Aber angesichts der Streiks zur Dimensionsreduzierung scheint die Wachsamkeit der einfachen Leute nutzlos zu sein.
Und das ist nur ein Vorfall aus dem Jahr 2019. In nur drei Jahren reichte die rasante Entwicklung der KI-Technologie aus, um die Menschen sprachlos zu machen, und die Frage nach der Authentizität von Informationsinhalten rückte erneut in den Fokus der Öffentlichkeit.
Wenn wir „KI-Betrug“ als Stichwort verwenden und die neuesten Informationen in der Suchmaschine filtern, werden wir feststellen, dass es viele Vorfälle zum Thema KI-Betrug gibt. Dieses universelle Phänomen spiegelt lediglich die Dringlichkeit der Umsetzung wirksamer Maßnahmen wider. Im Juni dieses Jahres stimmte das Europäische Parlament mit 499 Ja-Stimmen, 28 Nein-Stimmen und 93 Enthaltungen und verabschiedete mit hoher Mehrheit das „Gesetz über künstliche Intelligenz“ der Europäischen Union, das die unüberwindbare rote Linie bei der KI-Regulierung und ein differenziertes Management auf der Grundlage von vier Ebenen der KI (von am wenigsten riskant bis inakzeptabel) verdeutlichte. Darunter müssen Tools wie ChaTGPT offenlegen, welche Inhalte von KI generiert werden, um die Unterscheidung zwischen sogenannten Deep-Fake-Bildern und echten Bildern zu erleichtern und dies sicherzustellen illegale Inhalte werden verhindert.
Tudorach, Mitglied des Europäischen Parlaments, sagte: „Wenn die Entwickler künstlicher Intelligenz dies nicht tun, können sie gezwungen werden, die Anwendung sofort zu löschen, oder mit einer Geldstrafe von bis zu 7 % ihres Einkommens belegt werden.“ Die Geldstrafe, die Hunderte Millionen Euro erreichen kann, sei auch eine „schwere Verletzung“ für Technologiegiganten.
Daher entscheiden sich die sieben Technologieriesen dafür, Wasserzeichen auf technischer Ebene in den Informationsinhalt einzubetten. Einerseits hilft es Benutzern, die Authentizität des Informationsinhalts zu erkennen und erleichtert Benutzern die Rückverfolgung der Quelle des Informationsinhalts. Andererseits ist es auch eine stille Reaktion auf das „Gesetz über künstliche Intelligenz“.
Auch wenn es sich hierbei eher um eine vorübergehende Lösung als um eine dauerhafte Lösung handelt, ist es natürlich immer noch eine gute Sache, die Worte an die erste Stelle zu setzen und dann die Taten vorzunehmen.