• Ein New Yorker Anwalt reichte einen Schriftsatz ein, in dem er sich auf sechs nicht existierende Gerichtsentscheidungen von chatgpt berief
  • Anwälte müssen beim Einsatz von KI auf Kompetenz und Vertraulichkeit achten, warnen Experten

30. Mai (Reuters) – Einem New Yorker Anwalt drohen mögliche Sanktionen wegen eines fehlerbehafteten Schriftsatzes, den er mit Hilfe von ChatGPT verfasst hat.

Es ist ein Szenario, vor dem Rechtsethikexperten gewarnt haben, seit ChatGPT im November auf den Plan getreten ist und eine neue Ära für KI eingeläutet hat, die auf der Grundlage riesiger Datenmengen menschenähnliche Reaktionen hervorrufen kann.

Steven Schwartz von Levidow, Levidow & Oberman muss sich am 8. Juni einer Anhörung zu Sanktionen vor dem US-Bezirksrichter P. Kevin Castel stellen, nachdem er zugegeben hat, ChatGPT für einen Schriftsatz im Personenschadensfall seines Mandanten gegen Avianca Airlines genutzt zu haben. In dem Schriftsatz wurden sechs nicht existierende Gerichtsentscheidungen zitiert.

Schwartz sagte in einem Gerichtsakten dass er sein Vertrauen in die Technologie „zutiefst bedauert“ und sich „der Möglichkeit nicht bewusst war, dass deren Inhalte falsch sein könnten“.

Anwälte, die Avianca vertreten, machten das Gericht auf die von Schwartz angeführten nicht existierenden Fälle aufmerksam, der am Dienstag nicht auf eine Bitte um Stellungnahme reagierte.

Die Model Rules of Professional Conduct der American Bar Association gehen nicht ausdrücklich auf künstliche Intelligenz ein. Es gelten jedoch mehrere bestehende Ethikregeln, sagen Experten.

„Letztendlich sind Sie für die Darstellungen verantwortlich, die Sie abgeben“, sagte Daniel Martin Katz, Professor am Chicago-Kent College of Law, der berufliche Verantwortung lehrt und sich mit künstlicher Intelligenz im Rechtswesen beschäftigt. „Es ist Ihre Barkarte.“

Siehe auch  Anwälte sollten KI als Werkzeug nutzen (ChatGPT und Google Bard sind ziemlich beeindruckend!) – Das Gesetz nicht falsch darstellen | Melito & Adolfsen

KOMPETENZPFLICHT

Diese Regel verlangt von Anwälten, dass sie kompetent vertreten und auf dem neuesten Stand der Technik sind. Sie müssen sicherstellen, dass die von ihnen verwendete Technologie korrekte Informationen liefert – ein großes Problem, wenn man bedenkt, dass sich Tools wie ChatGPT als Ersatz erwiesen haben. Und Anwälte dürfen sich nicht zu sehr auf die Tools verlassen, um keine Fehler zu begehen.

„Blind darauf zu vertrauen, dass generative KI Ihnen den Text liefert, den Sie für die Erbringung von Dienstleistungen für Ihren Kunden verwenden, wird nicht funktionieren“, sagte Andrew Perlman, Rechtsdekan der Suffolk University, ein führender Experte für Rechtstechnologie und Ethik.

Perlman geht davon aus, dass Kompetenzpflichtregeln letztendlich ein gewisses Maß an Kenntnissen in der Technologie der künstlichen Intelligenz erfordern. KI könnte die Rechtspraxis so stark revolutionieren, dass der Verzicht auf sie eines Tages so sein könnte, als würde man Computer nicht mehr für Forschungszwecke nutzen, sagte er.

VERTRAULICHKEITSPFLICHT

Diese Regel verlangt von Anwälten, „angemessene Anstrengungen zu unternehmen, um die unbeabsichtigte oder unbefugte Offenlegung von oder den unbefugten Zugriff auf Informationen im Zusammenhang mit der Vertretung eines Mandanten zu verhindern.“ Anwälte, die Programme wie ChatGPT oder Bing Chat verwenden, riskieren, KI-Unternehmen die Daten ihrer Mandanten zur Schulung und Verbesserung ihrer Modelle weiterzugeben, was möglicherweise einen Verstoß gegen Vertraulichkeitsregeln darstellt.

„Das ist einer der Gründe, warum einige Anwaltskanzleien Anwälten ausdrücklich gesagt haben, sie sollten ChatGPT und ähnliche Programme nicht für Mandantenangelegenheiten verwenden“, sagte Holland & Knight-Partner Josias Dewey, der in seiner Kanzlei an der Entwicklung interner Programme für künstliche Intelligenz arbeitet.

Siehe auch  Abonnement- und Streaming-Umsatz von Universal Music im ersten Quartal um 20 % gestiegen

Einige gesetzesspezifische Programme für künstliche Intelligenz, darunter CoCounsel und Harvey von CaseText, gehen das Vertraulichkeitsproblem an, indem sie ihre Daten vor externen KI-Anbietern schützen.

VERANTWORTLICHKEITEN BEZÜGLICH DER UNTERSTÜTZUNG NICHT ANWALTS

Nach dieser Regel müssen Anwälte Anwälte und Nichtjuristen, die sie unterstützen, beaufsichtigen, um sicherzustellen, dass ihr Verhalten den Berufsregeln entspricht. Die ABA stellte 2012 klar, dass die Regel auch für nichtmenschliche Hilfe gilt.

Das bedeutet, dass Anwälte die Arbeit von KI-Programmen überwachen und die Technologie gut genug verstehen müssen, um sicherzustellen, dass sie den Ethikstandards entspricht, die Anwälte einhalten müssen.

„Sie müssen angemessene Anstrengungen unternehmen, um sicherzustellen, dass die von Ihnen verwendete Technologie mit Ihrer eigenen ethischen Verantwortung gegenüber Ihren Kunden im Einklang steht“, sagte Perlman.

Weiterlesen:

Von OpenAI unterstütztes Startup bringt Chatbot-Technologie in die erste große Anwaltskanzlei

Wird ChatGPT Anwälte überflüssig machen? (Hinweis: Angst haben)

Einige Juraprofessoren fürchten den Aufstieg von ChatGPT, während andere Chancen sehen

Berichterstattung von Karen Sloan

Unsere Standards: Die Thomson Reuters Trust-Grundsätze.

Karen Sloan

Thomson Reuters

Karen Sloan berichtet über Anwaltskanzleien, juristische Fakultäten und die Rechtsbranche. Sie erreichen sie unter [email protected]

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein