Künstliche Intelligenz ist da. Tatsächlich gibt es sie schon seit einiger Zeit und sie spickt Software mit Funktionen wie der Texterkennung, die wir heute als selbstverständlich betrachten.

Doch erst in den letzten Jahren hat sich die KI auf einem Science-Fiction-Weg weiterentwickelt, und Unternehmen haben Dutzende generative KI-Modelle herausgebracht. Diese Erfindungen sind in der Lage, Bilder und Texte zu erzeugen, und insbesondere eine Untergruppe hat unglaubliche Aufmerksamkeit erregt und tiefe Besorgnis ausgelöst.

Sprachlernmodelle basieren auf riesigen Datenbanken mit schriftlichen Informationen und werden häufig als Chatbots verwendet. Zu diesen Modellen gehört bekanntermaßen das chatgpt-Tool von OpenAI, sie wurden aber auch von google, Bing und anderen Unternehmen als persönliche Assistenten und Suchmaschinenhilfen implementiert.

Die enorme Leistungsfähigkeit von Sprachlernmodellen hat zu Vorsicht und Angst vor Plagiaten geführt.

In eine Umfrage48 % der Studierenden gaben zu, ChatGPT für einen Test oder ein Quiz zu Hause genutzt zu haben. 53 % der befragten Studierenden ließen das Modell einen Aufsatz für sie schreiben und 22 % ließen es eine Gliederung für eine Hausarbeit schreiben.

Die schnelle Einführung dieser Tools gepaart mit begrenzten Kenntnissen über ihre Fähigkeiten und einem Boom des Online-Schulunterrichts während der Pandemie haben alle zu einer Panik auf Seiten von Bildungseinrichtungen und Lehrkräften hinsichtlich des Einsatzes von KI beigetragen.

In den letzten Jahren waren Juraprüfungen im Allgemeinen offene Prüfungen, sagte Kali Killmer, eine Jurastudentin im ersten Jahr an der University of Minnesota Law School. Ihre Prüfungen werden sich von denen anderer Anwälte in der Ausbildung unterscheiden, die es den Studenten ermöglichen, auf Lehrbücher, Notizen, Unterrichtsmaterialien und in einigen Fällen sogar auf das Internet zurückzugreifen.

„Aber wegen der KI in diesem Jahr … wird die Prüfung immer noch in einem virtuellen Format stattfinden, d. h. sie wird auf meinem Computer stattfinden, aber sie wird vollständig in einem gesperrten Browser stattfinden“, sagte Killmer. „Ich kann nichts weiter daran machen, daher müssen Sie alle ergänzenden Materialien, die Sie für die Prüfung verwenden dürfen, in Papierform mitbringen.“

Siehe auch  Polen untersucht OpenAI und ChatGPT nach DSGVO-Beschwerde

Killmer führte zwei prominente Vorfälle im Zusammenhang mit KI an, die in der Rechtswelt landesweite Aufmerksamkeit erregten.

Ein Richter in New York verhängte im Juni Sanktionen gegen zwei Anwälte, die einen juristischen Schriftsatz eingereicht hatten, der mit Hilfe von ChatGPT verfasst wurde. Der KI-Chatbot generierte im gesamten Briefing sechs Zitate für Fake-Fälle.

ChatGPT hat im März dieses Jahres auch die Anwaltsprüfung bestanden. Die Uniform Bar Exam (UBE) wurde von der National Conference of Bar Examiners entwickelt und bildet einen gemeinsamen Kern der Anwaltsprüfung, die angehende Anwälte in mehr als 40 Bundesstaaten des Landes ablegen müssen, um als Anwalt tätig zu werden. ChatGPT hat die Prüfung nicht nur bestanden, sondern es zeigte auch große Verbesserungen gegenüber Versuchen früherer Generationen des Modells. ChatGPT lernt und entwickelt sich weiter.

Killmer beschreibt eine Reaktion auf diese und andere Ereignisse und beschreibt, wie sich die Herangehensweise ihrer juristischen Fakultät an Plagiate verändert hat.

„Der allgemeine Trend war: ‚Wir wissen nicht, was KI sein wird oder wie gut sie Betrug bei Jura- oder Anwaltsprüfungen erleichtern wird.‘ Deshalb werden wir vorsorglich dazu übergehen, die Dinge zu sperren und auszudrucken, bis wir eine bessere Einschätzung haben“, sagte Killmer.

Diese Frage beschäftigt viele Pädagogen.

Im Januar dieses Jahres haben Dozenten an der Universität führte ChatGPT durch vier Prüfungen an der juristischen Fakultät. Der Bot „schnitt im Durchschnitt auf dem Niveau eines C+-Studenten ab und erreichte in allen vier Kursen eine niedrige, aber bestandene Note.“ laut dem Papier.

Aber für Jurastudenten, wie für viele andere Studenten auch, überwiegen die Risiken und Schwierigkeiten den Anreiz, ChatGPT oder andere KI-Modelle für Plagiate zu verwenden.

Siehe auch  ChatGPT kann jetzt reden, da OpenAI den Wettbewerb gegen Technologiegiganten verschärft

Killmer führte das Beispiel von juristischen Zitaten an, die neue Jurastudenten oft nur schwer erlernen können. Die Verwendung eines KI-basierten Zitationsgenerators als Abkürzung zum Schreiben von Zitaten grenzt an Redundanz, da sich die Studierenden der Unzuverlässigkeit und Tendenz der KI bewusst sind, ganze Fälle zu erfinden, die es nie gab. Bei zeitlich begrenzten juristischen Prüfungen, so Killmer, hätten die Studierenden keine Zeit, die Arbeit einer KI noch einmal zu überprüfen und Korrekturen vorzunehmen.

Derzeit sind den Fähigkeiten von ChatGPT und anderen ähnlichen Tools harte Grenzen gesetzt.

In den täglichen Google-Suchergebnissen werden mittlerweile Dutzende von KI-generierten Blogs und Artikeln angezeigt. Amazon wurde mit überschwemmt Hunderte von KI-geschriebenen Büchern, oft ohne Offenlegung ihrer Urheberschaft. Clarkesworld, eine der größten Science-Fiction-Publikationen, hat ihre Einreichungen im Februar dieses Jahres abgeschlossen nachdem ich fast so viele KI-generierte Werke erhalten habe wie solche von echten Menschen.

Der rote Faden dieser KI-Kreationen? Sie waren alle scheiße.

„Es fällt mir schwer zu glauben, dass es ein Szenario gibt, in dem ein durchschnittlicher Jurastudent ChatGPT mit beliebigen Funktionen nutzen könnte, um eine Prüfungsantwort zu finden, die besser wäre als alles, was er sich selbst einfallen lassen könnte, ganz nebenbei Prüfungen sind formatiert“, sagte Killmer.

ChatGPT und andere KIs entwickeln sich schnell weiter, aber im Moment sind die Grenzen ihrer Fähigkeiten klar. Anstatt sich an Gesprächen über die Ethik dieser Tools oder ihre Rolle im Unterricht oder in der Berufswelt zu beteiligen, handeln Institutionen auf deren Seite pauschale Null-Toleranz-Politik mit wenig Nuancen oder Konversation.

Ich habe meine Vorbehalte gegenüber KI. Ich mache mir Sorgen darüber, wie sich die Popularisierung der KI auf Arbeitsplätze und den Wert verschiedener Fähigkeiten auswirken wird. Ich mache mir Sorgen darüber, welche Auswirkungen es auf Kunst und Kreativität haben wird. Ich mache mir Sorgen darüber, dass Schüler KI als Abkürzung nutzen, anstatt wichtige Analyse- und Schreibfähigkeiten zu erlernen, die sie für den Rest ihres Lebens benötigen werden. Ich mache mir Sorgen um die Fähigkeit der KI Rassismus wieder aufleben lassen oder Benutzer manipulieren. Ich vermisse es, in einer Welt zu leben, in der ich mir über diese Dinge keine Sorgen machen musste.

Siehe auch  So suchen Sie mit ChatGPT-Plug-ins nach Immobilienangeboten

Wenn wir uns auf Panikmache und übermäßige Vorsichtsmaßnahmen verlassen, laufen wir Gefahr, dass wir Studierende hervorbringen, die sich der Fähigkeiten und des Potenzials der generativen KI nicht bewusst sind und daher nicht darauf vorbereitet sind, sich in der Berufswelt damit auseinanderzusetzen.

Indem wir Klassenzimmer schaffen, in denen jegliche Erwähnung von KI tabu ist, ermutigen wir neugierige Schüler, Lehrer als Feinde und bestimmte Themen als undenkbar anzusehen. Dies ist das Gegenteil dessen, was ein akademisches Umfeld fördern sollte.

Vielleicht ist dies tatsächlich der beste Weg nach vorne für die juristische Fakultät der Universität. Aber was ist mit dem Rest von uns? Welche Gespräche über KI können in unseren Klassenzimmern geführt werden?

Auch wenn seine Verwendung verboten ist, liegt es in unserer Verantwortung, Räume zu schaffen, in denen wir ehrlich darüber sprechen und seine Fähigkeiten und Grenzen analysieren können, wenn sie sich in den kommenden Jahren ändern.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein