Der Professor der Queen Mary University of London hat ein Stipendium in Höhe von 4,38 Millionen Pfund erhalten, um eine dringende Herausforderung im Bereich der künstlichen Intelligenz (KI) anzugehen. Professorin Maria Liakata, eine führende Expertin für die Verarbeitung natürlicher Sprache (NLP) und Turing AI Fellow, wird ein hart umkämpftes RAI UK Keystone-Projekt leiten, um das kritische Problem soziotechnischer Einschränkungen in Large Language Models (LLMs) anzugehen. Das RAI UK Keystone-Programm wird durch eine strategische Investition der britischen Regierung in Höhe von 31 Millionen Pfund finanziert und gilt als Gütesiegel für herausragende Leistungen in der verantwortungsvollen KI-Forschung.
Large Language Models (LLMs), wie sie in chatgpt und virtuellen Assistenten verwendet werden, sind hochmoderne Algorithmen der künstlichen Intelligenz, die auf riesigen Textdatenmengen trainiert werden. Sie können sowohl menschenähnliche Texte als auch kreative Inhalte erstellen, in verschiedene Sprachen übersetzen und Fragen auf informative Weise beantworten. Ihre schnelle Einführung, insbesondere in sicherheitskritischen Bereichen wie dem Gesundheitswesen und dem Recht, gibt jedoch Anlass zu ernsthaften Bedenken.
„Durch dieses Projekt“, sagt Professor Liakata, „haben wir eine echte Chance, das Potenzial von LLMs für bessere Dienstleistungen und Effizienz im Gesundheitswesen und im Recht zu nutzen und gleichzeitig die Risiken zu mindern, die sich aus der Einführung unzureichend verstandener Systeme ergeben.“
Trotz bekannter Einschränkungen wie Voreingenommenheit, Datenschutzlücken und mangelnder Erklärbarkeit dringen LLMs in sensible Bereiche vor. Im Rechtssystem beispielsweise nutzen Richter ChatGPT bereits, um Gerichtsverfahren zusammenzufassen. Was passiert jedoch, wenn ein LLM die Chronologie falsch angibt oder bestehende rassistische Vorurteile bei Bewährungsentscheidungen verstärkt? Ebenso könnten von LLMs betriebene öffentliche medizinische Fragebeantwortungsdienste aufgrund von Einschränkungen in der zugrunde liegenden Technologie ungenaue oder voreingenommene Informationen liefern.
Professor Liakata betont: „Das Schadenspotenzial ist erheblich. Dieses Projekt soll sicherstellen, dass die Gesellschaft von den Vorteilen des LLM profitiert und gleichzeitig die Vermeidung negativer Folgen gewährleistet.“
Das Projekt priorisiert das Gesundheitswesen und das Recht aufgrund ihrer entscheidenden Rolle in der britischen Wirtschaft und des Potenzials sowohl für erhebliche Risiken als auch für bahnbrechende Fortschritte und wird sich auf zwei Hauptziele konzentrieren:
- Bewertungsbenchmark: Es wird ein umfassender Satz von Kriterien, Metriken und Aufgaben entwickelt, um LLMs in vielen realen Umgebungen und Anwendungen zu bewerten. Dies beinhaltet die Zusammenarbeit mit Partnern wie diversifizierten Unternehmen wie Accenture, Bloomberg, Canon Medical und Microsoft sowie dem NHS und Servicenutzern, um sicherzustellen, dass der Benchmark die realen Bedürfnisse widerspiegelt.
- Abmildernde Lösungen: Forscher werden innovative Methoden des maschinellen Lernens entwickeln, die auf juristischem, ethischem und medizinischem Fachwissen basieren. Diese Lösungen werden die im Evaluierungsbenchmark identifizierten LLM-Einschränkungen beheben und sollen problemlos in bestehende und zukünftige LLM-basierte Systeme integriert werden können.
„Das Projekt von Professor Liakata ist ein zeitgemäßes und entscheidendes Unterfangen. Die verantwortungsvolle Entwicklung und der Einsatz von KI wie LLMs sind unerlässlich, um das Vertrauen der Öffentlichkeit zu gewährleisten und ihren potenziellen Nutzen in verschiedenen Sektoren zu maximieren. Queen Mary ist stolz darauf, diese Forschung zu unterstützen, die perfekt zu unserem Engagement für Verantwortung passt.“ KI-Innovation“, sagt Professor Wen Wang, stellvertretender Rektor und geschäftsführender Dekan für Wissenschaft und Technik der Queen Mary University of London.
„Diese Projekte sind die Eckpfeiler des Responsible AI UK-Programms. Sie wurden von der Community ausgewählt, weil sie die dringendsten Herausforderungen angehen, denen die Gesellschaft aufgrund der rasanten Fortschritte in der KI gegenübersteht. Wir freuen uns, diese Projekte auf der CogX in Los Angeles bekannt zu geben.“ wo einige der einflussreichsten KI-Vertreter aus Industrie und Regierung anwesend sind“, sagte Professor Gopal Ramchurn, CEO von Responsible AI UK (RAI UK).
Er fügte hinzu: „Mit den Bedenken rund um die KI müssen sich nicht nur Regierungen und die Industrie auseinandersetzen. Es ist wichtig, dass KI-Experten mit Forschern anderer Disziplinen und politischen Entscheidungsträgern zusammenarbeiten, um sicherzustellen, dass wir die Probleme, die durch KI verursacht werden, besser vorhersehen können.“ Unsere Schlüsselprojekte werden genau das tun und mit dem Rest des KI-Ökosystems zusammenarbeiten, um andere für unser Anliegen zu gewinnen und die Wirkung der Forschung zu verstärken, um den Nutzen der KI für alle in der Gesellschaft zu maximieren.“
Professor Liakata kommt zu dem Schluss: „Indem wir uns auf diese entscheidenden Bereiche konzentrieren, können wir sicherstellen, dass LLMs verantwortungsvoll entwickelt und eingesetzt werden, was letztendlich die Gesundheits- und Rechtsdienstleistungen verändert und gleichzeitig die Öffentlichkeit schützt.“
/Öffentliche Freigabe. Dieses Material der ursprünglichen Organisation/des/der ursprünglichen Autor(en) kann zeitpunktbezogenes Material sein und im Hinblick auf Klarheit, Stil und Länge bearbeitet werden. Mirage.News vertritt keine institutionellen Positionen oder Partei und alle hier geäußerten Ansichten, Positionen und Schlussfolgerungen sind ausschließlich die des Autors/der Autoren. Vollständig hier ansehen.