Künstliche Intelligenz ist zu einem der größten Probleme in der Technologie im Jahr 2023 geworden, angetrieben durch den Aufstieg generativer KI und Apps wie chatgpt.

Seit OpenAI ChatGPT Ende 2022 der Öffentlichkeit zugänglich machte, ist das Bewusstsein für die Technologie und ihr Potenzial explosionsartig gestiegen – von der Diskussion in Parlamenten auf der ganzen Welt bis hin zum Einsatz beim Verfassen von TV-Nachrichtenbeiträgen.

Das öffentliche Interesse an generativen KI-Modellen hat auch viele der weltweit größten Technologieunternehmen dazu veranlasst, ihre eigenen Chatbots einzuführen oder öffentlicher darüber zu sprechen, wie sie KI in Zukunft einsetzen wollen, während die Regulierungsbehörden die Debatte darüber, wie Länder vorgehen können und sollten, verstärkt haben die Chancen und potenziellen Risiken von KI.

Innerhalb von 12 Monaten haben sich die Diskussionen über KI von der Besorgnis darüber, wie sie von Schulkindern ausgenutzt werden könnte, um ihre Hausaufgaben für sie zu erledigen, ausgeweitet, bis hin zur Ausrichtung des ersten KI-Sicherheitsgipfels von Nationen und Technologieunternehmen durch Premierminister Rishi Sunak, bei dem darüber diskutiert werden sollte, wie verhindert werden kann, dass die KI ihre Hausaufgaben erledigt die Menschheit gefährdet oder gar eine existenzielle Bedrohung darstellt.

Kurz gesagt: 2023 war das Jahr der KI.

Ähnlich wie die Technologie selbst gingen die Produkteinführungen rund um KI in den letzten 12 Monaten schnell voran, wobei google, Microsoft und Amazon OpenAI folgten und im Zuge des Erfolgs von ChatGPT generative KI-Produkte ankündigten.

Google stellte Bard vor, eine App, von der es sagte, dass sie allen Konkurrenten im Bereich der neuen KI-Chatbots einen Schritt voraus sein würde, da sie auf den Daten der branchenführenden Suchmaschine von Google basiert und den virtuellen Helfer Google Assistant etabliert hat, der in seinen Smartphones und Smartphones zu finden ist Intelligente Lautsprecher.

Siehe auch  TikTok, X, ChatGPT... wer wird 2024 gewinnen?

In ähnlicher Weise nutzte Amazon seine große Produkteinführung des Jahres, um darüber zu sprechen, wie es mithilfe von KI dafür sorgt, dass seine virtuelle Assistentin Alexa menschlicher klingt und reagiert – in der Lage ist, den Kontext zu verstehen und nahtloser auf Folgefragen zu reagieren .

Und Microsoft begann mit der Einführung seines neuen Copilot, bei dem es sich um die Kombination generativer KI mit einem virtuellen Assistenten unter Windows handelt, der es Benutzern ermöglicht, bei jeder Aufgabe, die sie erledigen, um Hilfe zu bitten, vom Schreiben eines Berichts bis zum Organisieren der geöffneten Fenster auf ihrem Bildschirm.

An anderer Stelle kündigte Elon Musk die Gründung von xAI an, einem neuen Start-up, das sich auf die Arbeit im Bereich der künstlichen Intelligenz konzentriert.

Das erste Produkt dieses Start-ups ist bereits in Form von Grok erschienen, einer Konversations-KI, die zahlenden Abonnenten von X, das zu Musk gehört und früher als Twitter bekannt war, zur Verfügung steht.

Solche groß angelegten Entwicklungen in diesem Sektor konnten von Regierungen und Regulierungsbehörden nicht ignoriert werden, und auch die Debatte über die Regulierung des KI-Sektors hat sich im Laufe des Jahres intensiviert.

Im März veröffentlichte die Regierung ihr Weißbuch zur KI, in dem sie vorschlug, bestehende Regulierungsbehörden in verschiedenen Sektoren für die KI-Governance zu nutzen, anstatt die Verantwortung einer neuen einzigen Regulierungsbehörde zu übertragen.

Ein KI-Gesetzentwurf muss jedoch noch vorgelegt werden, eine Verzögerung, die von einigen Experten kritisiert wurde, die warnten, dass dadurch die Gefahr bestehe, dass die Technologie ungehindert gelassen werde, während der Einsatz von KI-Tools explodiert.

Siehe auch  „Neue ChatGPT Plus-Anmeldungen werden pausiert“: OpenAI steht nach dem DevDay-Anstieg vor Kapazitätsproblemen, sagt CEO Sam Altman

Die Regierung hat erklärt, dass sie keine übereilten Gesetze erlassen wolle, solange die Welt noch dabei sei, sich mit dem Potenzial der KI auseinanderzusetzen, und dass ihr Ansatz agiler sei und Innovationen ermögliche.

Im Gegensatz dazu hat sich die EU Anfang dieses Monats auf eigene Regeln zur KI-Aufsicht geeinigt, die allerdings wahrscheinlich nicht vor 2025 in Kraft treten werden. Dadurch erhalten die Regulierungsbehörden die Befugnis, KI-Modelle zu prüfen und erhalten Einzelheiten darüber, wie Modelle trainiert werden.

Aber Herr Sunaks Wunsch, dass das Vereinigte Königreich ein wichtiger Akteur bei der KI-Regulierung sein soll, wurde im November deutlich, als er im Bletchley Park Weltführer und Branchenvertreter zum weltweit ersten KI-Sicherheitsgipfel empfing.

Herr Sunak und Technologieministerin Michelle Donelan nutzten das zweitägige Gipfeltreffen, um die Bedrohungen der sogenannten „Grenz-KI“ zu diskutieren, innovative Aspekte der Technologie, die in den falschen Händen für schändliche Zwecke genutzt werden könnten.

Auf dem Gipfel unterzeichneten alle internationalen Teilnehmer, darunter die USA und China, die Bletchley-Erklärung, in der die Risiken der KI anerkannt und die Entwicklung sicherer und verantwortungsvoller Modelle versprochen wurde.

Und der Premierminister kündigte die Gründung des britischen AI Safety Institute an, zusammen mit einer freiwilligen Vereinbarung mit führenden Unternehmen wie OpenAI und Google DeepMind, die es dem Institut ermöglichen soll, neue KI-Modelle vor ihrer Veröffentlichung zu testen.

Obwohl es sich nicht um eine verbindliche Vereinbarung handelt, hat sie den Grundstein dafür gelegt, dass die KI-Sicherheit in Zukunft ein immer wichtigerer Teil der Debatte werden wird.

Andernorts erlebte die KI-Branche zum Abschluss des Jahres eine große Seifenoper auf Vorstandsebene, als der ChatGPT-Hersteller OpenAI Ende November auf sensationelle Weise den Vorstandsvorsitzenden Sam Altman verdrängte.

Siehe auch  ChatGPT analysiert den Preis der Shiba Inu-Münze und sagt, dass Sponge V2 explodieren könnte

Aber es löste Gegenreaktionen unter den Mitarbeitern aus, von denen fast alle einen Brief unterzeichneten, in dem sie sich verpflichteten, das Unternehmen zu verlassen und sich Altman in einem geplanten neuen KI-Forschungsteam bei Microsoft anzuschließen, falls er nicht wieder eingestellt würde.

Innerhalb weniger Tage war Altman wieder an der Spitze von OpenAI und das Board wurde neu konfiguriert, wobei die Beweggründe hinter der Saga immer noch unklar waren.

Seitdem hat die britische Wettbewerbs- und Marktaufsichtsbehörde (CMA) die Branche um Meinungen zur Partnerschaft von Microsoft mit OpenAI gebeten, die dazu geführt hat, dass der Technologieriese Milliarden in das KI-Unternehmen investiert und einen Beobachter in seinem Vorstand hat.

Die CMA sagte, sie sei unter anderem wegen der Altman-Saga bestrebt, die Partnerschaft zu prüfen.

Ein weiteres Zeichen dafür, dass die Prüfung des KI-Sektors im kommenden Jahr wahrscheinlich weiter intensiviert wird.

5/5 - (191 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein