Nach der Veröffentlichung der generativen Chatbox für künstliche Intelligenz chatgpt war es im Grunde eine Selbstverständlichkeit, dass die meisten großen Technologieunternehmen versuchen würden, die Technologie in ihr Geschäft zu integrieren. Als eines der größten Verbrauchertechnologieunternehmen der Welt Apfel ist sicherlich keine Ausnahme.
Tim Cook, CEO von apple, sagte, er habe ChatGPT kürzlich ausprobiert und glaube, dass dort großes Potenzial bestehe und dass das Unternehmen die Technologie genau untersuche. Aber er hat auch seine Bedenken, ebenso wie viele prominente Persönlichkeiten der Technologiebranche.
Kürzlich unterzeichneten eine Reihe prominenter KI-Wissenschaftler und andere namhafte Persönlichkeiten eine Erklärung mit einem Satz, in der es hieß: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ Obwohl ich Cook nicht auf dieser Liste gesehen habe, sind hier drei seiner eklatanten Bedenken bezüglich ChatGPT.
1. Voreingenommenheit
Eine Sache, die Cook und anderen Sorgen bereitet, ist die Voreingenommenheit. Obwohl Cook es nicht direkt zum Ausdruck brachte, bereiteten die Kritiker von ChatGPT großen Bedenken hinsichtlich der politischen Voreingenommenheit oder der Tatsache, dass die Chatbox Fragen beantwortet und Inhalte erstellt, die sich an den politischen Überzeugungen der Menschen orientieren oder diese begünstigen, die die Technologie entwickelt haben.
Bisher haben beispielsweise viele behauptet, dass ChatGPT im politischen Spektrum tendenziell links tendiert. Die Brookings Institution führte mehrere Experimente durch und stellte fest, dass dies größtenteils zutrifft, stellte jedoch auch fest, dass ChatGPT unterschiedliche Antworten auf dieselben Fragen geben kann und die Antworten sicherlich je nach Art der Fragen variieren können.
2. Fehlinformationen
Da das Internet einen so großen Teil der Welt ausmacht, sind Fehlinformationen und Fake News für die Gesellschaft zu großen Problemen geworden, mit denen sie sich auseinandersetzen muss. Schwierig wird es, wenn Menschen und Unternehmen versuchen, Fehlinformationen zu verhindern, ohne die Meinungsfreiheit einzuschränken. Aber ChatGPT eröffnet einen völlig neuen Weg für Fehlinformationen.
Die NewsGuard-Organisation, die Fehlinformationen online verfolgt und Nachrichtenseiten nach ihrer Glaubwürdigkeit bewertet, hat herausgefunden, dass generative KI-Tools verwendet werden, um Fake-News-Websites zu erstellen, die täglich Hunderte von Artikeln veröffentlichen können. Darüber hinaus ergab eine von NewsGuard durchgeführte Analyse, dass sich eine Version von ChatGPT im Januar als unwirksam bei der Bekämpfung falscher Behauptungen erwies. NewsGuard „lockte“ ChatGPT mit 100 falschen Erzählungen und ChatGPT lieferte in 80 % der Fälle falsche Behauptungen zu wichtigen Nachrichtenthemen.
3. Nicht mithalten können
Generative KI-Technologie wie ChatGPT ist offensichtlich sehr leistungsfähig und kann sich sehr schnell anpassen, da sie mit zunehmender Datenerfassung grundsätzlich besser und leistungsfähiger wird. Cook glaubt, dass dies ein Problem bei der Regulierung sein könnte, deren Umsetzung in vielen Fällen Jahre dauern kann.
„Wenn man in die Zukunft blickt, dann ist es so mächtig, dass Unternehmen ihre eigenen ethischen Entscheidungen treffen müssen“, sagte Cook. „Die Regulierung wird es schwer haben, mit den Fortschritten in diesem Bereich Schritt zu halten, weil sie so schnell voranschreitet. Daher denke ich, dass es auch den Unternehmen obliegt, sich selbst zu regulieren.“
Im April bat die National Telecommunications and Information Administration (NTIA), eine auf Telekommunikations- und Informationspolitik spezialisierte Abteilung des US-Handelsministeriums, um Beiträge dazu, wie Regulierung genutzt werden könnte, um zu beweisen, „dass KI-Systeme legal, effektiv, ethisch, sicher, …“ sind. und auch sonst vertrauenswürdig.“
Darüber hinaus scheinen sowohl demokratische als auch republikanische Gesetzgeber offen für die Idee zu sein, eine neue Behörde zu gründen, um KI zu regulieren und Verbraucher vor dem potenziellen Schaden zu schützen, den KI verursachen kann.
Bram Berkowitz hält keine Position in einer der genannten Aktien. The Motley Fool hat Positionen in Apple und empfiehlt diese. The Motley Fool hat eine Offenlegungsrichtlinie.