Autor: Krzysztof Pawikowski
Data: 22.06.2024
Spis treści:
1. Czym są i jak działają Duże Modele Językowe?
2. Jak czatboty zmieniają obsługę klienta w sektorze prawnym?
3. W jakiej skali obecnie wykorzystuje się sztuczną inteligencję w branży prawniczej?
1. Czym są i jak działają Duże Modele Językowe?
„Sztuczna inteligencja zmieni wszystko” – hasło to powtarzane jest jak mantra w kontekście wielu dziedzin naszego życia. Nie ulega wątpliwości, że algorytmy sztucznej inteligencji są w stanie wyręczyć nas w coraz większej liczbie czynności, zarówno w życiu prywatnym jak i zawodowym. Tzw. „sztuczna inteligencja” jest pojęciem niezwykle szerokim i wbrew pozorom mamy z nią do czynienia już od bardzo dawna. Pojęciem „sztuczna inteligencja” czy „AI” w dyskursie publicznym zwykło określać się każdy program, z którym komunikujemy się i wydajemy mu polecenia w celu uzyskania wymiernych efektów. Wydaje się, że zakwalifikowanie programu jako „inteligentnego” w świadomości społecznej, zależy od tego czy jest w stanie reagować na nasze bezpośrednie polecenia i czy posiada on pewne pole do ich interpretacji. Przykładem najprostszych programów tego typu mogą być cyfrowi asystenci jak Siri od Apple czy Alexa od Amazon, a bardziej złożonych: autonomiczne pojazdy marki Tesla.
Jednym z wcieleń sztucznej inteligencji są Duże Modele Językowe (ang.: Large Language Models; dalej zwane LLM), na których skupimy się w dzisiejszym wpisie. LLM to w ogromnym skrócie program, który został „wytrenowany” na olbrzymiej bazie danych tekstowych, aby móc porozumiewać się z nami, rozumieć, interpretować i wykonywać nasze polecenia, w możliwie jak najszerszym zakresie. Z LLM komunikujemy się po prostu wpisując i otrzymując tekst (stąd kolokwialna nazwa „czat bot” – w pełni tekstowa komunikacja sprawia, że bezpośrednia praca z modelem językowym przypomina pisanie ze znajomym na czacie). LLM taki jak m.in. GPT od firmy OpenAI (wykorzystywany obecnie przy aplikacji Legal Parrot), jest w stanie generować w zasadzie dowolny tekst i odpowiadać na najbardziej abstrakcyjne pytania. Komunikacja z LLM polega na wprowadzaniu do niego tzw. „promptów” – tekstowych poleceń determinujących wynik, który chcemy uzyskać. Przykładowo, chcąc wygenerować list do naszego przyjaciela możemy wpisać polecenie (prompt): „Napisz list do przyjaciela o imieniu Janek. Porusz w nim tematy takie jak: tęsknota za wspólnym spędzaniem czasu, przyjemne wspomnienia o dzieciństwie spędzanym w Warszawie.” itp. Co jednak, jeżeli nie ograniczmy się do tak trywialnych zadań i spróbujemy wykorzystać te narzędzia do czegoś bardziej złożonego?
2. Jak czatboty zmieniają obsługę klienta w sektorze prawnym?
Wykorzystanie Dużych Modeli Językowych w branży prawniczej wydaje się czymś wręcz instynktownym. Praca prawników opiera się w ogromnej mierze na analizie i tworzeniu różnego rodzaju tekstu i to w tych dziedzinach wykorzystanie LLM wydaje się mieć największy potencjał. Zastanówmy się w jaki sposób można to wykorzystać.
– Analiza, interpretacja i procesowanie tekstu przez sztuczną inteligencję, czyli wpływ AI i czatbotów na analizę dokumentów prawnych.
Prawnicy codziennie stają przed niezwykle trudnym i czasochłonnym zadaniem, jakim jest wyszukiwanie informacji. Źródłami, z których najczęściej czerpią, są: orzecznictwo sądów, literatura branżowa (komentarze, monografie, glosy, artykuły, felietony) i wreszcie, teksty ustaw. Często wyszukanie jednej, konkretnej informacji jest zadaniem wręcz tytanicznym. Przykład: adwokat przygotowując apelację, w celu poparcia swojej argumentacji, opiera się na orzecznictwie sądowym, powołując się na zaprezentowane w nim poglądy. Do tej pory w celu odszukania i zacytowania odpowiedniego fragmentu nasz prawnik musiał samodzielnie, w całości, przeczytać i wybrać interesujący go fragment. Często dla powołania się na jedno kluczowe zdanie, potrzebna jest analiza nawet kilkudziesięciu stron uzasadnień orzecznictwa sądowego. Jak w tym miejscu może pomóc sztuczna inteligencja? Pamiętamy, że LLM jest w stanie wygenerować tekst na podstawie wprowadzonego polecenia – co, gdyby odwrócić ten proces i kazać algorytmowi szukać i wskazywać informację zamiast ją generować? LLM takie jak GPT od OpenAI przejawia fenomenalne umiejętności analizy tekstu i potrafi wyszukiwać wskazane przez użytkownika informacje. Posłużmy się przykładem, aby zobrazować ten proces.
Weźmy na tapet słynną wśród notariuszy Uchwałę składu siedmiu sędziów Sądu Najwyższego z dnia 21 czerwca 2023 roku, o Sygnaturze III CZP 106/22 (dostęp: https://www.sn.pl/sites/orzecznictwo/orzeczenia3/iii%20czp%20106-22.pdf), dotyczącą zagadnienia prawnego:
„Czy gospodarstwo rolne przekazane na podstawie ustawy z dnia 14 grudnia 1982 r. o ubezpieczeniu społecznym rolników indywidualnych i członków ich rodzin (t.j. Dz. U. z 1989 r. Nr 24, poz. 133 z późn. zm.) następcy pozostającemu w ustawowej wspólności majątkowej małżeńskiej, należy do majątku wspólnego małżonków, czy do majątku odrębnego następcy na zasadzie analogii do umowy darowizny w rozumieniu art. 33 pkt 2 ustawy z dnia 25 lutego 1964 r. Kodeks rodzinny i opiekuńczy (t.j. Dz. U. z 2020 r. poz. 1359)?”
Przykład polecenia (prompta), który mógłby wykorzystać umiejętności analityczne Dużego Modelu Językowego:
„Oto twój tekst źródłowy: <tutaj wstawiamy naszemu botowi Uchwałę Sygn. III CZP 106/22>. Dokonaj analizy tekstu źródłowego i znajdź w nim argumenty, dlaczego gospodarstwo rolne przekazane następcy pozostającemu w ustawowej wspólności majątkowej małżeńskiej, należy do majątku wspólnego małżonków. Dosłownie zacytuj wybrane fragmenty i ułóż je w listę.”
Zachęcam Państwa do wykorzystania i edycji powyższego prompta w praktyce. Gwarantuję, że efekt będzie niezwykle interesujący. Jak można się domyśleć, powyższy przykład jedynie wskazuje na ogrom możliwości analitycznego użycia LLM. Co najważniejsze: wobec stricte „tekstowego” sposobu komunikacji, modele językowe pozwalają dowolnie kształtować polecenia dla programu i uzyskiwać zindywidualizowane wyniki. LLM taki jak GPT to algorytm, w którym nie trzeba być programistą, aby móc samemu tworzyć pożądane przez siebie narzędzia. Nie ulega wątpliwości – stworzenie odpowiednich narzędzi i ich wykorzystanie będzie kluczowe dla optymalizacji pracy prawnika.
– Generowanie tekstu przez sztuczną inteligencję, czyli wpływ AI i czatbotów na tworzenie dokumentów prawnych.
Funkcjonalnością, która z pewnością ma ogromny potencjał w wykorzystaniu przez prawników, jest możliwość generowania wysoce spersonalizowanego tekstu. Duże Modele Językowe już na tym etapie niezwykle sprawnie tworzą treści, które są poprawne logicznie, gramatycznie i językowo. Nie jest to odpowiednie miejsce na techniczny opis sposobu, w jaki LLM tworzą tekst, ale można wskazać to, że trenowane są one na olbrzymiej bazie danych, które obejmują strony internetowe, książki, artykuły, zawierające niezliczoną ilość słów i zdań. Na ich podstawie LLM „uczą się” jak poprawnie budować zdania i wykorzystują przeanalizowaną wiedzę do tworzenia treści. Oczywiście dla prawników szczególnie istotne są źródła profesjonalne i precyzja uzyskiwanych wyników, dlatego generowanie treści przez AI budzi obecnie dużo kontrowersji, lecz z pewnością funkcjonalność ta ma olbrzymi potencjał na przyszłość. Pozwolę sobie pokazać Państwu kolejny przykład prompta, w oparciu o wcześniejszy przykład uchwały o Sygnaturze III CZP 106/22.
Przykład polecenia (prompta), który mógłby wykorzystać umiejętności generowania treści przez Duży Model Językowy:
„Oto twój tekst źródłowy: <tekst Uchwały Sygn. III CZP 106/22>. Dokonaj analizy tekstu źródłowego, wygeneruj jego podsumowanie i wyciągnij z niego wnioski.”
Ponownie zachęcam do samodzielnego wypróbowania tego prompta – z pewnością szybko zauważycie Państwo pewne przekłamania i nieścisłości (tzw. „halucynacje”), które prędzej czy później pojawią się w generowanym tekście. Jest to istotna tematyka, którą poruszę w kolejnym wpisie. Na tym etapie należy pamiętać, że LLM jest to narzędzia wciąż rozwijane i to ostatecznie na użytkownikach leży odpowiedzialność za użycie generowanego tekstu.
3. W jakiej skali obecnie wykorzystuje się sztuczną inteligencję w branży prawniczej?
W cyfrowym wydaniu Rzeczpospolitej pojawił się niedawno niezwykle ciekawy artykuł pod tytułem „Sztuczna inteligencja w praktyce prawa – Polska daleko za światowymi trendami”, autorstwa Panów Michała Jackowskiego i Michała Araszkiewicza (link do artykułu znajduje się pod niniejszym wpisem). Zawiera on w sobie raport sporządzony w 2023 roku, dotyczący m. in. wykorzystania AI przez prawników w Polsce. Szczególnie zastanawiające są dane, zgodnie z którymi tylko 19,8% polskich prawników korzystało z narzędzi opartych na sztucznej inteligencji, z czego jedynie 10% z nich wykorzystało je do pracy z dokumentami. To niecałe 2% ankietowanych. Spróbujmy odpowiedzieć sobie na pytanie o przyczynę tego stanu rzeczy. Prawo jest dziedziną niezwykle specyficzną. Przygotowywanie pism procesowych i umów nigdy nie polega na redagowaniu surowego tekstu ustawy. Dokumenty te kształtują sytuację prawną osób i mienia, zawierają niezwykle złożone stany prawne i faktyczne, podczas gdy po drugiej stronie zawsze leży los prawdziwego człowieka. Praca z wykorzystaniem tych danych to przede wszystkim ogromna odpowiedzialność. Moralna, cywilna, karna, a niekiedy dyscyplinarna. Obecnie rynek cyfrowych usług Legal AI został nasycony wieloma narzędziami, a ich autorzy skupiają się głównie na mechanice procesowania treści, tj. generowaniu dokumentów na podstawie wprowadzonych danych, ich analizą i wnioskowaniem. Narzędzia te w przeważającej większości skierowane są do profesjonalistów, w tym m. in. adwokatów, radców prawnych, notariuszy, prokuratorów, sędziów, komorników czy doradców podatkowych. Wykonywanie przez nich pracy uregulowane jest nie tylko przepisami prawa powszechnego, ale również bardzo rygorystycznymi kodeksami etyki zawodowej. Obowiązujące przepisy i przyjęte zasady etyki wykonywania zawodu zawsze wymagają zachowania najwyższej staranności i przewidują odpowiedzialność w przypadku jej niedochowania. W dobie wkraczania sztucznej inteligencji do szerokiego użycia, należy zadać sobie pytanie, czy zasady te nie stoją w sprzeczności ze scedowaniem na algorytmy sztucznej inteligencji analizy i oceny rzeczywistych stanów prawnych i faktycznych? Za ostrożnością w adaptacji rozwiązań stoi przede wszystkim troska o osoby, których praca prawników dotyka bezpośrednio. Wobec braku regulacji znajdujemy się w miejscu, w którym wydaje się, że najłatwiej powiedzieć: „Co nie jest zabronione, jest dozwolone”. Czy jest to jednak podejście słuszne? Nie można dziwić się profesjonalistom tej ostrożności i braku zaufania do nowych narzędzi, ponieważ wynika ona nie tylko z troski o utrzymanie najwyższego standardu pracy, ale również niepewności, co do odpowiedzialności prawnej i dyscyplinarnej. Upowszechnienie narzędzi Legal AI na ten moment wydaje się nieuniknione, wobec czego przyszłość przyniesie niezwykle trudne zadanie dla samorządów prawniczych – dostosowanie etyki zawodowej do zupełnie nowej rzeczywistości.
Odpowiedzią wydaje się być, jak zwykle, odnalezienie złotego środka, zarówno przez użytkowników nowych rozwiązań, jak i dostawców, którzy je projektują i dostarczają. Na ten moment wykorzystanie narzędzi Legal AI wśród polskich prawników wydaje się znikome, ale światowe trendy pokazują, że również nasze podwórko będzie musiało dostosować się do nadchodzących zmian. Kluczowe wydaje się znalezienie odpowiedzi na pytania, jakie narzędzia Legal AI należy stworzyć, aby nie naruszać zawodowych obowiązków oraz jak z nich odpowiedzialnie korzystać.
Dostęp do artykułu „Sztuczna inteligencja w praktyce prawa – Polska daleko za światowymi trendami” autorstwa Panów Michała Jackowskiego i Michała Araszkiewicza: https://www.rp.pl/opinie-prawne/art40296431-sztuczna-inteligencja-w-praktyce-prawa-polska-daleko-za-swiatowymi-trendami
Autor: Krzysztof Pawikowski