2023 war das Jahr der KI. Nach dem Start von chatgpt im November 2022 entwickelte es sich zu einer der am schnellsten wachsenden Apps aller Zeiten und gewann innerhalb von zwei Monaten 100 Millionen monatliche Nutzer. Da KI zum heißesten Thema des Jahres wird (genau wie Bill Gates es im Januar vorhergesagt hatte), stürmten eine Reihe von Start-ups mit KI-Tools auf den Markt, die alles von synthetischer Stimme bis hin zu Videos erzeugen konnten. Offensichtlich hat KI seit ihren Anfängen einen langen Weg zurückgelegt des Jahres, als die Leute fragten, ob ChatGPT die google-Suche ersetzen würde.

„Ich interessiere mich viel mehr dafür, darüber nachzudenken, was weit über die Suche hinausgeht … Was machen wir, das völlig anders und viel cooler ist?“, sagte Sam Altman, CEO von OpenAI Forbes im Januar.

Rasante Fortschritte in der Technologie erregten die Aufmerksamkeit von Risikokapitalgebern, da Milliarden von Dollar in den Sektor flossen. Wegweisend war die 10-Milliarden-Dollar-Investition von Microsoft in den KI-MVP OpenAI, der jetzt besteht angeblich Beschaffung mit einem Wert von 80 Milliarden US-Dollar. Im Juni veröffentlichte das bekannte KI-Startup Inflection seinen KI-Chatbot Pi und sammelte 1,3 Milliarden US-Dollar bei einer Bewertung von 4 Milliarden US-Dollar. Einen Monat später erreichte Hugging Face, das Tausende von Open-Source-KI-Modellen beherbergt, einen Wert von 4 Milliarden US-Dollar. Im September gab Amazon bekannt, dass es 4 Milliarden US-Dollar in den OpenAI-Herausforderer Anthropic investieren will, der im Juli seinen eigenen Konversations-Chatbot Claude 2.0 auf den Markt brachte und heute einen Wert von 25 Milliarden US-Dollar hat.

Aber nicht alle KI-Gründer hatten einen einfachen Weg zur Mittelbeschaffung. Stability AI sammelte im September 2022 Finanzmittel im Wert von 1 Milliarde US-Dollar für sein beliebtes Text-zu-Bild-KI-Modell Stable Diffusion, hatte aber seitdem Schwierigkeiten, diese zu beschaffen. Sein CEO Emad Mostaque stellte gegenüber Investoren irreführende Behauptungen über seine eigenen Referenzen und die strategischen Partnerschaften des Unternehmens auf Forbes Untersuchung im Juni gefunden. Im Dezember ergab eine Stanford-Studie, dass der für das Training von Stable Diffusion verwendete Datensatz illegales Material über sexuellen Kindesmissbrauch enthält.

Siehe auch  OpenAI (ChatGPT) unterzeichnet bemerkenswerten Vertrag zur Zusammenfassung von Nachrichtenartikeln

Der KI-Goldrausch hat mehrere andere Einhörner hervorgebracht, wie Adept, das KI-Assistenten entwickelt, die im Internet surfen und Softwareprogramme für Sie ausführen können, und Character AI, das von 20 Millionen Menschen verwendet wird, um KI-Chatbot-Charaktere wie Taylor Swift und zu erstellen und mit ihnen zu chatten Elon Musk. Auch unternehmensorientierte generative KI-Startups wie Typeface, Writer und Jasper, die Unternehmen bei der Automatisierung von Aufgaben wie dem Verfassen von E-Mails und dem Zusammenfassen langer Dokumente unterstützen, verzeichneten einen Zufluss an Finanzmitteln. Aber inmitten des Wettlaufs um die Entwicklung und Einführung von KI-Tools geriet Google auf dem falschen Fuß und musste aufholen. Der Technologieriese brachte Ende des Jahres seinen Konversations-KI-Chatbot Bard und sein eigenes KI-Modell Gemini auf den Markt.

Im vergangenen Jahr ist KI in praktisch alle Bereiche des Lebens eingedrungen. Lehrer befürchteten, dass Schüler ChatGPT nutzen würden, um bei Aufgaben zu schummeln, und das Tool wurde aus den beliebtesten Schulbezirken der USA verbannt. Ärzte und Krankenhäuser begannen, generative KI-Tools nicht nur für Notizen und Routinearbeiten, sondern auch für die Diagnose von Patienten zu verwenden. Während einige politische Kandidaten damit begannen, KI in ihren Kampagnen einzusetzen, um mit potenziellen Wählern zu interagieren, nutzten andere generative KI-Tools, um Deep Fakes politischer Gegner zu erstellen.

KI-generierte Inhalte überschwemmten das Internet und weckten Bedenken hinsichtlich der Ausnutzung allgemein verfügbarer KI-Tools zur Erstellung toxischer Inhalte. Beispielsweise gingen mit generativer KI-Software produzierte Fake-News-Storys auf TikTok und YouTube viral, und auf Reddit und Etsy verbreiteten sich nicht einvernehmliche, KI-generierte Pornos. Als KI-generierte Inhalte minderer Qualität das Internet bevölkerten, sorgte ChatGPT für Chaos in der Welt der Freiberufler, da viele befürchteten, sie würden ihre Jobs an die beliebte neue KI-Software verlieren, die Inhalte schneller und billiger als Menschen produzieren kann.

Siehe auch  Wie ChatGPT Kriminellen dabei helfen kann, dorthin zu gelangen

Unternehmen nutzten KI-Chatbots auch zur Überprüfung, Befragung und Rekrutierung von Mitarbeitern und machten dabei Vorurteile und Risiken deutlich, die in der Technologie verankert sind. Cyberkriminelle fanden ChatGPT nützlich, um Code für Malware zu schreiben, und andere nutzten es als Überwachungstool für soziale Medien. Um einige dieser Probleme zu bekämpfen, heuerten Technologiegiganten wie Microsoft und Google rote Teams an, um ihre eigenen KI-Modelle zu jailbreaken und sie sicherer zu machen.

„Es gibt noch viele ungelöste Fragen“, sagte Regina Barzila, Professorin für Elektrotechnik und Informatik am MIT CSAIL. „Wir brauchen Tools, die erkennen können, welche Art von Problemen und Verzerrungen in diesen Datensätzen stecken, und Meta-KI-Technologien, die KI regulieren können und uns dabei helfen, in einer viel sichereren Position zu sein, als wir es heute mit KI sind.“

Im Jahr 2023 wurden führende KI-Startups wie OpenAI, Stability AI und Anthropic von einer Flut von Urheberrechtsklagen von Künstlern, Autoren und Programmierern heimgesucht, die behaupteten, dass diese Tools auf riesigen Datensätzen aufgebaut seien, die ihre urheberrechtlich geschützten Inhalte ohne Zustimmung oder Bezahlung nutzten. Der Rechtsexperte Edward Klaris geht davon aus, dass diese Sammelklagen im Jahr 2024 Raum für neue differenzierte Regeln zur fairen Nutzung von KI durch das US Copyright Office schaffen werden.

„In der Rechtswelt gibt es eine große Anzahl von KI-Transaktionen. Einige Leute sind verärgert darüber, dass ihre Arbeit zur Erstellung von Trainingsdaten gescraped wurde, und möchten deshalb ihre Inhalte an die KI-Unternehmen lizenzieren und für die Nutzung ihrer Inhalte bezahlt werden“, sagte Klaris, CEO und geschäftsführender Gesellschafter bei IP Rights Law Firma KlarisIP.

Nachdem die Europäische Union versucht hatte, die Technologie durch ihr EU-KI-Gesetz zu regulieren, erließ die Biden-Regierung eine eigene Durchführungsverordnung, die Start-ups, die große KI-Modelle entwickeln, die ein nationales Sicherheitsrisiko darstellen könnten, dazu verpflichtet, diese der Regierung offenzulegen. Während Technologieunternehmen die Executive Order weitgehend unterstützten, befürchteten Startups, dass sie das Innovationstempo bremsen könnte.

Siehe auch  Studienforscher diskutieren die sich entwickelnde Rolle von ChatGPT in der Augenheilkunde

„Wenn Sie sich die Executive Order ansehen, sind darin Prinzipien formuliert, die man gut formulieren kann, aber es lässt sich nicht wirklich darauf übertragen, wie wir diese Prinzipien in eine Technologie oder Leitplanke umsetzen, die uns dabei hilft, sicherzustellen, dass …“ „Das von uns verwendete Tool ist wirklich sicher“, sagte Barzilla.

Im Jahr 2023 kam es auch zu einem Bruch unter den KI-Führungskräften, die uneinig sind, ob die KI-Technologie offen oder von mächtigen Unternehmen hinter verschlossenen Türen wie Google, OpenAI und Anthropic entwickelt werden sollte. Einige haben über die Sicherheitsprobleme im Zusammenhang mit Open-Sourcing-KI-Modellen gesprochen, da jeder diese Modelle angeblich missbrauchen könnte. Andere wie der Chefwissenschaftler von Meta AI, Yann LeCun, der die Entwicklung von Metas Open-Source-Modell Llama 2 beaufsichtigte, sind Befürworter von Stresstests für Open-Source-KI auf offene und transparente Weise.

„Open-Source-Modelle für große Sprachen werden im Jahr 2024 das Niveau von Closed-Source-Modellen für große Sprachen erreichen“, sagte Clement Delangue in einer Pressekonferenz.

Eine interne Spaltung wurde Ende November öffentlich, als der CEO von OpenAI, Sam Altman, vom Vorstand des Unternehmens mit der Begründung verdrängt wurde, er sei mit seinen Erklärungen gegenüber dem Vorstand nicht „aufrichtig“ gewesen. Einige Tage später wurde er wieder in seine frühere Position als CEO aufgenommen, nachdem Mitarbeiter damit gedroht hatten, das Unternehmen zu verlassen, falls Altman nicht zurückkehrte. Das Unternehmen holte außerdem neue Direktoren in seinen Vorstand, darunter Bret Taylor und Larry Summers.

Die wichtigsten Fragen, die im Jahr 2024 noch beantwortet werden müssen, betreffen die Ökonomie der KI, sagte Delangue, insbesondere die Frage, wie es diesen KI-Startups gelingen wird, Gewinnmargen zu erzielen und ihren Investoren Geld zu verdienen. Da sie auf GPUs von Halbleitergiganten wie Nvidia und AMD angewiesen sind, werden die meisten KI-Modelle immer kostenintensiver und haben einen hohen CO2-Fußabdruck, da sie mit riesigen Datenmengen trainiert werden müssen. „Im Jahr 2024 werden die meisten Unternehmen erkennen, dass kleinere, günstigere und spezialisiertere Modelle für 99 % der KI-Anwendungsfälle sinnvoller sind“, sagte Delangue.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein