Co kilka tygodni wydaje się, że istnieje nowy nagłówek o prawnik wsiadanie kłopoty za składanie zgłoszeń zawierających, słowami jednego sędziego, „fałszywe badania generowane przez AI”. Szczegóły różnią się, ale linia jest taka sama: adwokat zwraca się do dużego modelu języka (LLM), takiego jak CHATGPT, aby pomóc im w badaniach prawnych (lub co gorsza, pisanie), LLM halucynuje sprawy, które nie istnieją, a prawnik nie jest mądrzejszy, dopóki sędzia lub przeciwny doradca nie wskazuje na swój błąd. W niektórych przypadkach, w tym proces lotniczy z 2023 r., Adwokaci musiałem zapłacić grzywny do składania zgłoszeń z halucynacjami generowanymi przez AI. Dlaczego więc nie zatrzymali się?
Odpowiedź przeważnie sprowadza się do kryzysów, a sposób, w jaki AI wkradła się do prawie każdego zawodu. Bazy danych badań prawnych, takie jak LexisNexis i Westlaw, mają teraz integrację AI. Dla prawników żonglujących dużymi obciążeniem, AI może wydawać się niezwykle wydajnym asystentem. Większość prawników niekoniecznie używa chatgpt do pisania swoich zgłoszeń, ale coraz częściej je używają i innych LLM do badań. Jednak wielu z tych prawników, podobnie jak większość opinii publicznej, nie rozumie dokładnie, czym są LLM i jak działają. Jeden adwokat, który był sankcjonowane W 2023 roku powiedział, że uważał, że Chatgpt jest „super wyszukiwarką”. Zgłoszenie złożenia z fałszywymi cytatami ujawniło, że bardziej przypomina generator losowej frazy-taki, który może dać ci prawidłowe informacje lub przekonująco sformułowane bzdury.
Andrew Perlman, dziekan Suffolk University Law School, twierdzi, że wielu prawników korzysta z narzędzi AI bez incydentów, a ci, którzy zostają złapani fałszywymi cytatami, są odstającymi. „Myślę, że to, co widzimy teraz – chociaż te problemy halucynacji są prawdziwe, a prawnicy muszą traktować to bardzo poważnie i uważać na to – nie oznacza, że te narzędzia nie mają ogromnych korzyści i przypadków użycia świadczenia usług prawnych”, powiedział Perlman. Prawne bazy danych i systemy badawcze, takie jak Westlaw, zawierają usługi AI.
W rzeczywistości 63 procent prawników ankietowane przez Thomson Reuters W 2024 r. Powiedział, że w przeszłości używali sztucznej inteligencji, a 12 procent stwierdziło, że używa go regularnie. Respondenci stwierdzili, że używają sztucznej inteligencji do pisania podsumowań orzecznictwa i do badania „orzecznictwa, ustaw, formularzy lub przykładowego języka dla zamówień”. Adwokaci ankietowani przez Thomsona Reutersa postrzegają to jako narzędzie oszczędzające czas, a połowa ankietowanych powiedziała „badanie potencjału wdrażania AI” w pracy jest ich najwyższym priorytetem. „Rola dobrego prawnika jest„ zaufanym doradcą ”, a nie jako producent dokumentów”, powiedział jeden z respondentów.
Ale jak pokazało wiele ostatnich przykładów, dokumenty przedstawione przez sztuczną inteligencję nie zawsze są dokładne, aw niektórych przypadkach wcale nie są prawdziwe.
W jednej niedawnej głośnej sprawie prawnicy dziennikarza Tima Burke, który został aresztowany za wydawanie materiałów Fox News w 2024 r., Złożyli wniosek o oddalenie sprawy przeciwko niemu na podstawie pierwszej poprawki. Po odkryciu, że zgłoszenie obejmowało „znaczące wprowadzenie w błąd i niewłaściwe cytuzacje rzekomo istotnego orzecznictwa i historii”, sędzia Kathryn Kimball Mizelle z środkowej dzielnicy Florydy nakazał dotknięciu wniosku z rekordu sprawy. Mizelle znalazła dziewięć halucynacji w dokumencie, Według Tampa Bay Times.
Mizelle ostatecznie pozwala prawnikom Burke, Mark Rasch i Michael Maddux, złożyli nowy wniosek. W oddzielnym zgłoszeniu wyjaśniającym błędy Rasch napisał, że „przyjmuje wyłączną i wyłączną odpowiedzialność za te błędy”. Rasch powiedział, że użył Funkcja „Deep Research” na Chatgpt ProKtóry The Verge wcześniej testował się z mieszane wynikia także funkcja AI Westlaw.
Rasch nie jest sam. Prawnicy reprezentujący niedawno antropijne przyznany do korzystania z Claude AI firmy Aby pomóc napisać oświadczenie świadka eksperta przedłożonego w ramach Pozew o naruszenie praw autorskich sprowadzony przeciwko antropikowi przez wydawców muzycznych. Wniosek ten obejmował cytat z „niedokładnym tytułem i niedokładnymi autorów”. W grudniu ubiegłego roku ekspert dezinformacji Jeff Hancock przyznał, że użył chatgpt Aby pomóc w organizowaniu cytatów w oświadczeniu, którą przedłożył na poparcie prawa w Minnesocie regulującym wykorzystanie głębokiego. Wniosek Hancocka obejmował „dwa błędy cytowania, popularnie określane jako„ halucynacje ”i niepoprawnie wymienione autorów kolejnego cytatu.
Dokumenty te w rzeczywistości mają znaczenie – przynajmniej w oczach sędziów. W niedawnej sprawie sędzia z Kalifornii przewodnictwo w sprawie przeciwko państwowej farmie został początkowo kołysany argumentami w krótkim czasie, ale stwierdzono, że cytowane orzecznictwo zostało całkowicie wymyślone. „Przeczytałem ich brief, zostałem przekonany (lub przynajmniej zaintrygowany) przez władze, które przytoczyły, i sprawdzały decyzje, aby dowiedzieć się o nich więcej – tylko po to, aby stwierdzić, że nie istniały” – napisał sędzia Michael Wilner.
Perlman powiedział, że istnieje kilka mniej ryzykownych sposobów, w jakie prawnicy używają generatywnej sztucznej inteligencji w swojej pracy, w tym znajdowanie informacji w dużych transzach dokumentów odkrywania, przeglądanie majtek lub zgłoszeń oraz burzy mózgów możliwych argumentów lub możliwych poglądów przeciwnych. „Myślę, że w prawie każdym zadaniu istnieją sposoby, w jakie generatywne AI mogą być przydatne – a nie substytut wyroku prawników, a nie substytut wiedzy specjalistycznej, którą prawnicy wnoszą do stołu, ale w celu uzupełnienia tego, co robią prawnicy i umożliwić im wykonywanie swojej pracy lepiej, szybciej i taniej” – powiedział Perlman.
Ale jak każdy korzysta z narzędzi AI, prawnicy, którzy polegają na nich, aby pomóc w badaniach prawnych i pisaniu, muszą uważać, aby sprawdzić wykonaną pracę. Częścią problemu jest to, że prawnicy często nie mają czasu na czas – problem, który, jak twierdzi, istniał, zanim pojawił się LLM. „Nawet przed pojawieniem się generatywnej sztucznej inteligencji prawnicy składali dokumenty z cytatami, które tak naprawdę nie dotyczyły problemu, o którym twierdzili, że się zajmują” – powiedział Perlman. „To był po prostu inny rodzaj problemu. (To powiedziawszy, przypadki zwykle istnieją.)
Kolejnym, bardziej podstępnym problemem jest fakt, że prawnicy – podobnie jak inni, którzy używają LLM do pomocy w badaniach i pisaniu – zbyt ufają, co produkuje AI. „Myślę, że wiele osób jest uświadomionych poczuciem wygody z wynikami, ponieważ na pierwszy rzut oka wydaje się, że jest tak dobrze wykonany” – powiedział Perlman.
Alexander Kolodin, prawnik wyborczy i przedstawiciel państwa republikańskiego w Arizonie, powiedział, że traktuje Chatgpt jako współpracownika na poziomie młodszym. Używał także Chatgpt, aby pomóc w napisaniu przepisów. W 2024 r. Uwzględnił tekst sztucznej inteligencji w części ustawy o głębokich szafkach, mając LLM, dostarczając „podstawową definicję” tego, czym są głębokie szafki, a następnie „ja, człowiek, dodany do ochrony praw człowieka, takie rzeczy wyklucza komedię, satyrę, krytykę, ekspresję artystyczną,” powiedział The Guardian wówczas. Kolodin powiedział, że „może” omówił użycie chatgpt z głównym demokratycznym konwonsorem projektu ustawy, ale poza tym chciał, aby było to „jajko wielkanocne” w rachunku. Ustawa uchwalona.
Kolodin – kto był sankcjonowane przez bar Arizona State w 2020 roku Za zaangażowanie w pozwy kwestionujące wynik wyborów w 2020 r. – wykorzystał także Chatgpt do napisania pierwszych projektów poprawek i powiedział The Verge Używa go również do badań prawnych. Aby uniknąć problemu halucynacji, powiedział, po prostu sprawdza cytaty, aby upewnić się, że są prawdziwe.
„Zazwyczaj nie wysyłasz produktu roboczego młodszego współpracownika bez sprawdzania cytatów” – powiedział Kolodin. „To nie tylko maszyny, które halucynicy; młodszy współpracownik mógłby źle przeczytać sprawę, tak naprawdę nie oznacza to cytowanej propozycji, cokolwiek. Nadal musisz to sprawdzić, ale i tak musisz to zrobić z współpracownikiem, chyba że byli dość doświadczeni”.
Kolodin powiedział, że używa zarówno narzędzia „Deep Research” Chatgpt, jak i narzędzia Lexisnexis AI. Podobnie jak Westlaw, LexisNexis jest narzędziem badań prawnych używanych przede wszystkim przez prawników. Kolodin powiedział, że z jego doświadczenia ma wyższy wskaźnik halucynacji niż Chatgpt, który, jak twierdzi, „znacznie spadł w ciągu ostatniego roku”.
Używanie AI wśród prawników stało się tak powszechne, że w 2024 r. American Bar Association wydał swoje pierwsze wskazówki W sprawie korzystania z LLM i innych narzędzi AI.
Prawnicy, którzy używają narzędzi AI „mają obowiązek kompetencji, w tym utrzymanie odpowiednich kompetencji technologicznych, co wymaga zrozumienia ewolucyjnego charakteru” generatywnej sztucznej inteligencji, opinia czyta. Wytyczne doradzają prawnikom „zdobycie ogólnego zrozumienia korzyści i ryzyka narzędzi GAI”, których używają – lub, innymi słowy, nie zakładają, że LLM jest „super wyszukiwarką”. Adwokaci powinni również rozważyć ryzyko poufności w wprowadzaniu informacji dotyczących ich spraw do LLM i rozważyć, czy powiedzieć swoim klientom o korzystaniu z LLM i innych narzędzi AI.
Perlman jest uparty w odniesieniu do korzystania z AI przez prawników. „Myślę, że generatywna sztuczna inteligencja będzie najbardziej wpływową technologią, jaką profesja prawnicza kiedykolwiek widział i że prawnicy będą oczekiwać, że będą korzystać z tych narzędzi w przyszłości” – powiedział. „Myślę, że w pewnym momencie przestaniemy się martwić o kompetencje prawników, którzy używają tych narzędzi i zaczniemy martwić się kompetencją prawników, którzy tego nie robią”.
Inni, w tym jeden z sędziów, którzy sankcjonowali prawników za złożenie zgłoszenia pełnego halucynacji generowanych przez AI, są bardziej sceptyczne. „Nawet przy ostatnich osiągnięciach”-napisał Wilner, „żaden rozsądnie kompetentny adwokat nie powinien przesunąć badań i pisania do tej technologii-szczególnie bez żadnej próby zweryfikowania dokładności tego materiału”.