Im Jahr 2014 wurde DeepMind von google übernommen, nachdem beeindruckende Ergebnisse mit Software gezeigt wurden, die Reinforcement Learning nutzte, um einfache Videospiele zu meistern. Im Laufe der nächsten Jahre zeigte DeepMind, wie die Technik Dinge bewirkt, die einst einzigartig menschlich erschienen – oft mit übermenschlichen Fähigkeiten. Als AlphaGo 2016 Go-Champion Lee Sedol besiegte, waren viele KI-Experten fassungslos, weil sie geglaubt hatten, dass es Jahrzehnte dauern würde, bis Maschinen ein so komplexes Spiel beherrschen würden.

Neues Denken

Beim Training eines großen Sprachmodells wie GPT-4 von OpenAI müssen große Mengen kuratierten Textes aus Büchern, Webseiten und anderen Quellen in eine Software für maschinelles Lernen eingespeist werden, die als Transformer bezeichnet wird. Es nutzt die Muster in diesen Trainingsdaten, um in der Lage zu sein, die Buchstaben und Wörter vorherzusagen, die einem Textstück folgen sollten. Dabei handelt es sich um einen einfachen Mechanismus, der sich bei der Beantwortung von Fragen und der Generierung von Text oder Code als äußerst leistungsstark erweist.

Ein wichtiger zusätzlicher Schritt bei der Erstellung von chatgpt und ähnlich leistungsfähigen Sprachmodellen ist die Verwendung von verstärkendem Lernen auf der Grundlage des Feedbacks von Menschen zu den Antworten eines KI-Modells, um dessen Leistung zu verfeinern. Die umfassende Erfahrung von DeepMind mit Reinforcement Learning könnte es seinen Forschern ermöglichen, Gemini neuartige Fähigkeiten zu verleihen.

Hassabis und sein Team könnten auch versuchen, die Technologie großer Sprachmodelle mit Ideen aus anderen Bereichen der KI zu verbessern. DeepMind-Forscher arbeiten in Bereichen von der Robotik bis zu den Neurowissenschaften, und Anfang dieser Woche stellte das Unternehmen einen Algorithmus vor, der dazu in der Lage ist lernen, Manipulationsaufgaben auszuführen mit einer großen Auswahl an verschiedenen Roboterarmen.

Siehe auch  PODCAST. Sixth Science, Folge 106: die ChatGPT-Fantasie

Es wird allgemein angenommen, dass das Lernen aus der physischen Erfahrung der Welt, wie es Menschen und Tiere tun, wichtig ist, um die KI leistungsfähiger zu machen. Die Tatsache, dass Sprachmodelle indirekt über Text etwas über die Welt lernen, wird von einigen KI-Experten als große Einschränkung angesehen.

Trübe Zukunft

Hassabis hat die Aufgabe, die KI-Bemühungen von Google zu beschleunigen und gleichzeitig unbekannte und potenziell schwerwiegende Risiken zu bewältigen. Die jüngsten, rasanten Fortschritte bei Sprachmodellen haben viele KI-Experten – darunter auch einige, die die Algorithmen entwickeln – beunruhigt darüber, ob die Technologie für böswillige Zwecke genutzt wird oder schwer zu kontrollieren ist. Einige Tech-Insider haben sogar eine Pause bei der Entwicklung leistungsfähigerer Algorithmen gefordert, um zu verhindern, dass etwas Gefährliches entsteht.

Hassabis sagt, dass die außergewöhnlichen potenziellen Vorteile der KI – beispielsweise für wissenschaftliche Entdeckungen in Bereichen wie Gesundheit oder Klima – es zwingend erforderlich machen, dass die Menschheit nicht aufhört, die Technologie weiterzuentwickeln. Er glaubt auch, dass die Anordnung einer Pause unpraktisch ist, da es nahezu unmöglich wäre, sie durchzusetzen. „Wenn es richtig gemacht wird, wird es die nützlichste Technologie für die Menschheit sein, die es je gab“, sagt er über KI. „Wir müssen diesen Dingen mutig und mutig nachgehen.“

Das bedeutet nicht, dass Hassabis dafür plädiert, dass die KI-Entwicklung rasant voranschreitet. DeepMind hat die potenziellen Risiken von KI bereits vor dem Erscheinen von ChatGPT erforscht, und Shane Legg, einer der Mitbegründer des Unternehmens, leitet seit Jahren eine Gruppe „KI-Sicherheit“ innerhalb des Unternehmens. Hassabis unterzeichnete letzten Monat zusammen mit anderen hochkarätigen KI-Persönlichkeiten eine Erklärung, in der er warnte, dass KI eines Tages ein Risiko darstellen könnte, das mit einem Atomkrieg oder einer Pandemie vergleichbar ist.

Siehe auch  OpenAI könnte nächsten Monat die API-Preise für ChatGPT senken

Eine der größten Herausforderungen besteht derzeit laut Hassabis darin, die voraussichtlichen Risiken einer leistungsfähigeren KI zu ermitteln. „Ich denke, dass auf diesem Gebiet dringend mehr Forschung zu Themen wie Evaluierungstests betrieben werden muss“, sagt er, um festzustellen, wie leistungsfähig und kontrollierbar neue KI-Modelle sind. Zu diesem Zweck, sagt er, könnte DeepMind seine Systeme für externe Wissenschaftler zugänglicher machen. „Ich würde es begrüßen, wenn die Wissenschaft frühzeitig Zugang zu diesen Grenzmodellen hätte“, sagt er – eine Meinung, die, wenn sie umgesetzt wird, dazu beitragen könnte, Bedenken auszuräumen, dass Experten außerhalb großer Unternehmen von der neuesten KI-Forschung ausgeschlossen werden.

Wie besorgt sollten Sie sein? Hassabis sagt, dass niemand wirklich sicher weiß, dass KI zu einer großen Gefahr werden wird. Aber er ist sich sicher, dass, wenn der Fortschritt in diesem Tempo weitergeht, nicht mehr viel Zeit für die Entwicklung von Schutzmaßnahmen bleibt. „Ich kann mir gut vorstellen, welche Dinge wir in die Gemini-Serie einbauen, und wir haben keinen Grund zu der Annahme, dass sie nicht funktionieren werden“, sagt er.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein