Nachrichten vom 28. Mai: Nach Angaben der New York Times verließ sich ein Anwalt kürzlich auf den Chatbot ChatGPT, um in einem Gerichtsverfahren rechtliche Recherchen durchzuführen, was zur Übermittlung falscher Informationen führte. Der Vorfall wirft ein Licht auf die potenziellen Risiken künstlicher Intelligenz im Rechtsbereich, einschließlich Fehlinformationen.
Der Fall betrifft einen Mann, der eine Fluggesellschaft wegen Personenschäden verklagt, und die Rechtsabteilung des Klägers reichte eine kurze Akte ein, in der sie mehrere frühere Gerichtsverfahren anführte, um ihre Argumentation zu untermauern, um zu versuchen, einen Präzedenzfall zu schaffen. Die Anwälte der Fluggesellschaft stellten jedoch fest, dass einige der angeführten Fälle nicht vorlagen und benachrichtigten umgehend den Vorsitzenden Richter.
Richter Kevin Castell zeigte sich überrascht über die Situation, nannte sie „beispiellos“ und ordnete eine Erklärung durch die Rechtsabteilung des Klägers an.
Einer der Anwälte der Kläger, Steven Schwartz, gab zu, dass er ChatGPT zur Suche nach ähnlichen rechtlichen Präzedenzfällen genutzt hatte. In einer schriftlichen Erklärung drückte Schwartz sein tiefes Bedauern aus und sagte: „Ich habe noch nie zuvor eine juristische Literatur verwendet.“ Suche und hatte keine Ahnung, dass der Inhalt falsch sein könnte.“
Der Gerichtsakte liegt ein Screenshot eines Gesprächs zwischen Schwartz und ChatGPT bei, in dem Schwartz nach einem bestimmten Fall fragte. : Ist Varghese gegen China Southern Airlines Co Ltd wahr? . ChatGPT antwortete, dass dies wahr sei und dass der Fall in juristischen Referenzdatenbanken wie LexisNexis und Westlaw zu finden sei. Eine spätere Untersuchung ergab jedoch, dass der Fall nicht existierte, und weitere Untersuchungen ergaben, dass ChatGPT sechs nicht existierende Fälle erfunden hatte.
Angesichts dieses Vorfalls werden die beiden in den Fall verwickelten Anwälte, Peter Loduca und Steven Schwartz von der Anwaltskanzlei Levidow, Levidow & Oberman, am 8. Juni an einer Disziplinarverhandlung teilnehmen, um ihr Verhalten zu erklären. IT House stellt fest, dass dieser Vorfall in der juristischen Gemeinschaft Diskussionen über den angemessenen Einsatz von Tools der künstlichen Intelligenz in der Rechtsforschung sowie über die Notwendigkeit ausgelöst hat, umfassende Richtlinien zu formulieren, um das Auftreten ähnlicher Situationen zu verhindern.
Das obige ist der detaillierte Inhalt vonDer Anwalt nutzte ChatGPT für die Prozessführung, wurde jedoch dazu verleitet, nicht existierende Fälle anzuführen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!