Nach Ansicht von OpenAI-CEO Sam Altman markiert das generative KI-Modell chatgpt, das er als Reasoning Machine bezeichnet, den Beginn eines Paradigmenwechsels, vergleichbar mit der Einführung des iphone oder sogar des Internets. Bei seinem Besuch an der TUM Ende Mai bezeichnete er es als „das nützlichste, bedeutendste und inspirierendste Werkzeug, das die Menschheit jemals geschaffen hat“. Gilt das auch für die Robotik?
„Jetzt muss ich oft keinen eigenen Code mehr schreiben.“
Reinhard Heckel ist ein Fan von ChatGPT. Der Professor für Maschinelles Lernen an der TUM nutzt zur Programmierung selbst das OpenAI-Produkt Copilot. „Jetzt muss ich Teile des Codes oft nicht mehr selbst schreiben. Das Tool erledigt das automatisch“, erklärt Prof. Heckel. Gerade bei Routineaufgaben spart er dadurch Zeit, die er für die Bearbeitung der „wirklich spannenden“ Programmieraufgaben nutzen kann. In Brainstorming-Sitzungen mit ChatGPT sucht er nach guten Titeln für eine Arbeit oder lässt ChatGPT sogar mit dem Schreiben beginnen. „ChatGPT ist ein guter Assistent für kleine und lästige Aufgaben“, sagt Prof. Heckel. Selbst die Bilderkennung des Tools ist so gut, dass blinde Menschen damit erkennen können, wie die Welt aussieht. Allerdings stößt man beim Einsatz von Robotern an Grenzen. „Das Schneiden einer Zwiebel zum Beispiel ist für einen Roboter eine komplexe Aufgabe, die mittlerweile anspruchsvoller ist als der Umgang mit Text.“ Dennoch kommt er zu dem Schluss: „Die Vorteile überwiegen die Nachteile. ChatGPT und Tools wie Copilot machen die Arbeit einfacher und effizienter.“
Trainingsdaten für neuronale Netze sollten vorhanden sein
Auch Klaus Diepold experimentiert mit generativer künstlicher Intelligenz. In seinem Bachelorstudiengang „Computer und Kreativität“ stellte der Professor für Datenverarbeitung an der TUM vor einigen Jahren Studierenden die Aufgabe, Ideen zu entwickeln, wie Computer kreativ werden könnten. Mithilfe von Vorläufern von ChatGPT 3 erstellten die Studierenden eine Grußkarte „für Tante Erna“ – mit KI-generierten Grafiken und Texten. „Die Software schrieb ein Gedicht und wies das Tool an, Butterblumen hinzuzufügen – Tante Ernas Lieblingsblume“, erinnert sich Diepold.
Praktische Anwendungen in der Robotik gab es jedoch nicht. Heute arbeitet Doktorandin Lucca Sacchetto im Rahmen des Leuchtturmprojekts KI.Fabrik am Robotik- und KI-Institut MIRMI an einem Designgenerator auf Basis von Dalle-E, dem Bildtransformator von Altmans Firma OpenAI. „Es gibt reichlich Wissen für generative Modelle, die bei der Erstellung eines Stuhls verwendet werden können, da viele Bilder zum Trainieren neuronaler Netze zur Verfügung stehen. Die Aufgabe, einen Robotergreifer zu entwerfen, ist jedoch aufgrund fehlender Trainingsdaten schwieriger. Darüber hinaus ist „Wir haben Anforderungen an die Steifigkeit des Materials und andere physikalische Eigenschaften“, sagt Diepold.
Robotik: Keine Fehler erlaubt
Die Herausforderungen in der klassischen Robotik sind komplex. Ein Serviceroboter bewegt sich beispielsweise in einer Umgebung, in der sich Menschen aufhalten. Es könnte einem Pflegeheimbewohner ein Glas Wasser reichen oder jemandem in einer Rehabilitationseinrichtung helfen. „Der Roboter muss autonom, smart und wendig sein und darf keinen Schaden anrichten“, sagt Diepold. „In Umgebungen, in denen Sicherheit ein Thema ist, darf man nicht zulassen, dass auch nur ein einziger Fehler passiert.“
Daher sind Vorschriften in der Robotik besonders wichtig. Auf der Münchner Veranstaltung versprach Altman, er wolle „seine Software verantwortungsvoll regulieren“. Als „schönes sprachliches Spielzeug“, wie Diepold es nennt, richtet ChatGPT vorerst keinen sichtbaren Schaden an. Doch Diepold hat Zweifel an seiner Intelligenz. „ChatGPT produziert Texte, die eloquent, aber nicht intelligent sind“, sagt der Professor. „Es ist wie bei einem Politiker, der eine Rede hält: Es mag alles gut klingen, aber das macht es noch lange nicht wahr.“
Alin Albu-Schaeffer, Professorin für sensorbasierte Robotersysteme und Intelligente Assistenzsysteme an der TUM, betont: „KI muss mit der physischen Welt interagieren. „Nur“ reden reicht nicht aus.„Das beste Beispiel dafür, was schief gehen kann, ist eine Hausaufgabe, die seine Schüler mit ChatGPT erstellt haben. „Der Text liest sich ganz gut, aber keine der Referenzen in dieser wissenschaftlichen Arbeit stimmte“, sagt Diepold. Immer dann, wenn es an Wissen mangelt ChatGPT kompensiert, indem es Dinge erfindet. In der Robotik hingegen sind Fehler nicht erlaubt.
„Eine noch unausgereifte Technologie wurde auf die Welt losgelassen“
Alena Buyx von der TUM, Co-Direktorin der Hightech-Plattform munich_i, ist eine von rund 20 Professorinnen und Professoren, die Chancen und Risiken der Hightech-Plattform munich_i abwägen Generative KI-Taskforce an der TUM. „Eine noch unausgereifte Technologie ist gewissermaßen auf die Welt losgelassen worden. Jetzt gibt es Eile, Empfehlungen für die bevorstehenden gesetzlichen Regelungen zu geben – sowohl von der technischen Seite als auch für die ethischen, sozialen und regulatorischen Aspekte“, erklärt der Professor für Ethik in der Medizin und Gesundheitstechnologien. Neben den Risiken geht es ihr aber auch darum, die potenziellen Vorteile zu erkennen und sorgfältig zu überlegen, wo diese genutzt werden können. In Krankenhäusern in den USA werden beispielsweise bereits Social Bots eingesetzt – in kontrollierten und überwachten Umgebungen –, um ausführliche Entlassungsgespräche mit Patienten durchzuführen und sich Zeit für die Beantwortung aller Fragen zu nehmen. Generative KI wird auch in der Biotechnologie eingesetzt, um die Proteinfaltung zu analysieren, um beispielsweise neue Moleküle für Krebsmedikamente zu entwickeln.
Gehen die Entwicklungen in die richtige Richtung? „Alle Daten, die zum Trainieren der KI-Modelle benötigt werden, stammen letztlich von uns allen. Sie wurden von den Unternehmen gesammelt und für Technologien genutzt, die bald die Welt, in der wir leben, durchdringen werden“, erklärt Buyx. „Selbstverständlich haben Gesellschaften das Recht, den Einsatz und die Regulierung der Technologien aktiv mitzugestalten.“ OpenAI-CEO Altman betonte bei seinem Besuch in München auch seine Entschlossenheit, die Fähigkeiten seiner Denkmaschine verantwortungsvoll zu regulieren. Es gibt noch viel zu tun. Auch deshalb glaubt Altman, dass die Chancen für junge Menschen, eine Karriere im Technologiebereich zu starten, heute besser sind als jemals zuvor in den letzten 15 Jahren.