Irgendwann in Ihrem Leben werden Sie wahrscheinlich Rechtsberatung benötigen. Umfrage Eine im Jahr 2023 von der Law Society, dem Legal Services Board und YouGov durchgeführte Umfrage ergab, dass zwei Drittel der Befragten in den letzten vier Jahren rechtliche Probleme hatten. Die häufigsten Probleme betrafen Beschäftigung, Finanzen, Sozialleistungen und Verbraucherfragen.
Doch nicht jeder kann sich eine Rechtsberatung leisten. Von den Umfrageteilnehmern mit Rechtsproblemen erhielten nur 52 % professionelle Hilfe, 11 % erhielten Unterstützung von anderen Personen wie Familie und Freunden und der Rest erhielt überhaupt keine Hilfe.
Viele Menschen suchen im Internet nach rechtlicher Hilfe. Und jetzt, da wir Zugriff auf Chatbots mit künstlicher Intelligenz (KI) wie chatgpt, google Bard, Microsoft Co-Pilot und Claude haben, denken Sie vielleicht darüber nach, ihnen eine rechtliche Frage zu stellen.
Diese Tools basieren auf generativer KI, die Inhalte generiert, wenn sie mit einer Frage oder Anweisung konfrontiert werden. Sie können komplizierte Rechtsinformationen schnell und unkompliziert erklären, aber sind sie auch präzise?
Wir haben die Chatbots in einer kürzlich veröffentlichten Studie auf die Probe gestellt Internationale Zeitschrift für klinisch-juristische Ausbildung. Wir haben dieselben sechs Rechtsfragen zum Familien-, Arbeits-, Verbraucher- und Wohnungsrecht in ChatGPT 3.5 (kostenlose Version), ChatGPT 4 (kostenpflichtige Version), Microsoft Bing und Google Bard eingegeben. Die Fragen wurden uns normalerweise in unserer kostenlosen Online-Rechtssprechstunde an der Open University Law School gestellt.
Wir haben festgestellt, dass diese Tools zwar Rechtsberatung bieten können, die Antworten jedoch nicht immer zuverlässig oder genau sind. Hier sind fünf häufige Fehler, die uns aufgefallen sind:
1. Woher kommt das Gesetz?
Die ersten Antworten der Chatbots bezogen sich häufig auf das amerikanische Recht. Dies wurde oft nicht ausdrücklich erwähnt oder war nicht offensichtlich. Ohne juristische Kenntnisse würde der Benutzer wahrscheinlich davon ausgehen, dass das Recht seines Wohnorts gilt. Der Chatbot erklärte manchmal nicht, dass das Recht je nach Wohnort unterschiedlich ist.
Besonders komplex ist dies in Großbritannien, wo Gesetze unterscheiden sich zwischen England und Wales, Schottland und Nordirland. Zum Beispiel das Gesetz über ein Haus in Wales mieten unterscheidet sich von Schottland, Nordirland und England, während schottisch Und Englische Gerichte haben unterschiedliche Verfahren im Umgang mit einer Scheidung und der Beendigung einer Lebenspartnerschaft.
Bei Bedarf stellten wir eine Zusatzfrage: „Gibt es ein englisches Gesetz, das dieses Problem abdeckt?“ Diese Anweisung mussten wir bei den meisten Fragen verwenden und der Chatbot lieferte anschließend eine Antwort auf Grundlage des englischen Gesetzes.
2. Veraltetes Recht
Wir stellten auch fest, dass sich die Antwort auf unsere Frage manchmal auf veraltete Gesetze bezog, die durch neue Rechtsvorschriften ersetzt wurden. Zum Beispiel die Scheidungsrecht im April 2022 geändert die Abschaffung der verschuldensabhängigen Scheidung in England und Wales.
Einige Antworten bezogen sich auf das alte Gesetz. KI-Chatbots werden anhand großer Datenmengen trainiert – wir wissen nicht immer, wie aktuell die Daten sind, daher können sie möglicherweise nicht die neuesten Rechtsentwicklungen berücksichtigen.
3. Schlechter Rat
Wir stellten fest, dass die meisten Chatbots bei Fragen zu Familie und Beschäftigung falsche oder irreführende Ratschläge gaben. Die Antworten auf die Fragen zu Wohnraum und Verbrauchern waren besser, aber es gab immer noch Lücken in den Antworten. Manchmal übersahen sie wirklich wichtige Aspekte des Gesetzes oder erklärten es falsch.
Wir haben festgestellt, dass die Antworten der KI-Chatbots gut geschrieben waren, was sie überzeugender erscheinen lassen könnte. Ohne juristische Kenntnisse ist es für jemanden sehr schwierig zu beurteilen, ob eine Antwort richtig ist und auf seine individuellen Umstände zutrifft.
Obwohl diese Technologie relativ neu ist, gab es bereits Fälle, in denen Menschen vor Gericht auf Chatbots vertrauten. In einem Zivilprozess in Manchester vertrat ein Kläger, der sich selbst vor Gericht vertrat, Berichten zufolge präsentierte fiktive Rechtsfälle um ihre Argumentation zu untermauern. Sie sagten, sie hätten ChatGPT verwendet, um die Fälle zu finden.
Weiterlesen: Generative KI verändert den Anwaltsberuf – zukünftige Anwälte müssen wissen, wie man sie einsetzt
4. Zu allgemein
In unserer Studie waren die Antworten nicht detailliert genug, um das Rechtsproblem zu verstehen und zu wissen, wie es gelöst werden kann. Die Antworten lieferten Informationen zu einem Thema, ohne sich konkret mit der Rechtsfrage zu befassen.
Interessanterweise waren die KI-Chatbots besser darin, praktische, nicht-juristische Lösungsansätze für ein Problem vorzuschlagen. Dies kann zwar als erster Schritt zur Lösung eines Problems nützlich sein, funktioniert aber nicht immer, und es können rechtliche Schritte erforderlich sein, um Ihre Rechte durchzusetzen.
5. Bezahlen, um zu spielen
Wir haben festgestellt, dass ChatGPT4 (die kostenpflichtige Version) insgesamt besser ist als die kostenlosen Versionen. Dies birgt die Gefahr, die digitale und rechtliche Ungleichheit weiter zu verstärken.
Die Technologie entwickelt sich weiter und es könnte eine Zeit kommen, in der KI-Chatbots besser in der Lage sind, Rechtsberatung zu leisten. Bis dahin müssen sich die Menschen der Risiken bewusst sein, die sie bei der Lösung ihrer Rechtsprobleme eingehen. Andere Hilfsquellen wie Bürgerberatung stellt aktuelle und genaue Informationen bereit und ist besser in der Lage zu helfen.
Alle Chatbots beantworteten unsere Fragen, erklärten in ihren Antworten jedoch, dass es nicht ihre Aufgabe sei, Rechtsberatung zu leisten, und empfahlen, professionelle Hilfe in Anspruch zu nehmen. Nach Durchführung dieser Studie empfehlen wir dies ebenfalls.