Zawarte w tym przewodniku wytyczne osadzono w szerszym kontekście regulacyjnym Unii Europejskiej, w tym w relacji do przepisów rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Dz.Urz. UE L z 2024 r., s. 1689; dalej: AIAct) oraz innych inicjatyw międzynarodowych dotyczących odpowiedzialnego stosowania sztucznej inteligencji.
Najważniejsze kwestie
- CCBE wskazuje konkretne przykłady nieprawidłowego użycia GenAI, w tym generowanie fikcyjnego orzecznictwa, nieistniejących sygnatur spraw oraz deepfake’ów w obrocie prawnym, które mogą prowadzić do poważnych konsekwencji procesowych i dyscyplinarnych.
- Wytyczne precyzują, w jakich sytuacjach użycie GenAI wymaga bezwzględnej weryfikacji przez prawnika, a kiedy może mieć charakter czysto pomocniczy, niewpływający bezpośrednio na treść świadczonej pomocy prawnej.
- Dokument pełni funkcję punktu odniesienia między AIAct a zasadami etyki zawodowej, wzmacniając rolę samoregulacji środowiska prawniczego oraz znaczenie wewnętrznych polityk kancelarii w obszarze korzystania z narzędzi AI.
Charakter wytycznych CCBE jako aktu prawa miękkiego
Przewodnik CCBE nie stanowi źródła powszechnie obowiązującego prawa, ale klasyczny przykład europejskiego soft law, którego znaczenie polega na wyznaczaniu standardów interpretacyjnych oraz dobrych praktyk dla zawodów prawniczych. CCBE wprost zaznacza, iż dokument koncentruje się na niezmiennych obowiązkach zawodowych prawników, a nie na opisie konkretnej technologii, która ze względu na tempo rozwoju może gwałtownie się dezaktualizować. W praktyce wytyczne mogą stanowić punkt odniesienia dla samorządów zawodowych przy formułowaniu zaleceń etycznych, dla organów dyscyplinarnych przy ocenie należytej staranności, a także dla kancelarii opracowujących lub aktualizujących wewnętrzne polityki korzystania z narzędzi AI.
Zakres zastosowań GenAI w praktyce prawniczej – przykłady wskazane przez CCBE
CCBE identyfikuje najczęstsze obszary wykorzystania GenAI przez prawników, wskazując m.in. na legal research, analizę i streszczanie dokumentów, tłumaczenia, drafting pism procesowych, notatek roboczych czy korespondencji z klientem. Przewodnik zauważa jednocześnie, iż wiele funkcji GenAI jest w tej chwili integrowanych z powszechnie używanymi narzędziami biurowymi, co może powodować, iż prawnicy nie zawsze mają świadomość, iż korzystają z rozwiązań opartych na modelach generatywnych.
Jednocześnie CCBE podkreśla, iż choćby w tych pozornie niskoryzykownych zastosowaniach mogą pojawić się istotne zagrożenia, o ile prawnik nie rozumie mechanizmów działania narzędzia, w szczególności jego probabilistycznego charakteru oraz ograniczeń w zakresie aktualności i poprawności generowanych treści.
Jako przykład CCBE wskazuje sytuacje, w których GenAI, poproszona o przygotowanie analizy prawnej, briefu lub projektu pisma procesowego, generuje nieistniejące orzeczenia sądów, fikcyjne sygnatury spraw lub błędnie przypisuje wypowiedzi sędziom i przedstawicielom doktryny. Tego rodzaju „halucynacje” zostały uznane za jedno z najpoważniejszych ryzyk w praktyce prawniczej, ponieważ mogą prowadzić do wprowadzenia sądu w błąd, naruszenia interesów klienta oraz podstawowych zasad wykonywania zawodu prawnika.
Ryzyka związane z użyciem GenAI – ilustracje praktyczne
Halucynacje i fałszywe treści prawne
CCBE przywołuje konkretne przykłady, w których prawnicy – w różnych jurysdykcjach – ponieśli konsekwencje procesowe i dyscyplinarne za posługiwanie się treściami wygenerowanymi przez GenAI bez ich uprzedniej weryfikacji. Obejmowały one m.in. powoływanie się w pismach procesowych na nieistniejące wyroki, fikcyjne opinie sądów lub błędne interpretacje przepisów prawa, przedstawione w sposób pozornie spójny i profesjonalny. Przewodnik jednoznacznie wskazuje, iż odpowiedzialność za takie treści zawsze spoczywa na prawniku, niezależnie od tego, czy zostały one wygenerowane przez narzędzie ogólnego przeznaczenia, czy przez system reklamowany jako dedykowany dla sektora prawniczego.
Poufność i dane klienta
Wytyczne ilustrują ryzyko naruszenia tajemnicy zawodowej na przykładach wprowadzania do interfejsu GenAI treści promptów zawierających dane klienta, informacje objęte tajemnicą zawodową lub szczegóły dotyczące konkretnej sprawy. Dane te mogą następnie być wykorzystywane do dalszego trenowania modelu lub przetwarzane przez podmioty trzecie w modelu AI-as-a-Service, często bez pełnej świadomości użytkownika. CCBE zwraca uwagę, iż szczególnie problematyczne są sytuacje, w których ten sam system GenAI jest używany przez wiele kancelarii lub podmiotów, co może prowadzić do niezamierzonego ujawnienia informacji, naruszenia zasad poufności lub powstania konfliktów interesów.
Fraud i deepfake’i
Jako rosnące zagrożenie CCBE wskazuje wykorzystanie GenAI do tworzenia deepfake’ów dokumentów, wizerunków lub głosu, które mogą być używane do podszywania się pod klientów, pełnomocników, pracowników kancelarii lub choćby całe kancelarie prawne. Przewodnik sygnalizuje, iż takie scenariusze mogą w przyszłości wpływać na zakres obowiązków prawników w obszarze due diligence, identyfikacji klienta, weryfikacji autentyczności dokumentów oraz przeciwdziałania nadużyciom i oszustwom, co CCBE sygnalizuje jako potencjalny kierunek dalszych wyzwań.
Obowiązki zawodowe a korzystanie z GenAI
Kompetencja zawodowa i obowiązek weryfikacji
CCBE wyraźnie akcentuje, iż korzystanie z GenAI wymaga od prawnika kompetencji technologicznej, rozumianej jako znajomość możliwości, ograniczeń oraz typowych ryzyk związanych z działaniem danego narzędzia. Przykładowo, prawnik nie może bezrefleksyjnie wykorzystywać wygenerowanych analiz prawnych, streszczeń czy projektów pism bez ich sprawdzenia, choćby o ile narzędzie jest reklamowane jako „dedykowane dla prawników” lub zintegrowane z profesjonalną bazą prawną. Brak weryfikacji może prowadzić do odpowiedzialności dyscyplinarnej, cywilnej, a w skrajnych przypadkach także do zarzutów naruszenia powagi sądu lub zasad rzetelnego wykonywania zawodu.
Niezależność i ryzyko automatyzmu
Wytyczne zwracają uwagę na zjawisko tzw. automation complacency (zbytnie zaufanie do automatyzacji), polegające na nadmiernym poleganiu na rekomendacjach i sugestiach generowanych przez systemy AI. CCBE wskazuje, iż algorytmiczna „sykofancja”, czyli skłonność GenAI do potwierdzania założeń użytkownika i dostosowywania odpowiedzi do jego oczekiwań, może prowadzić do utraty obiektywizmu, osłabienia krytycznego myślenia oraz naruszenia zasady niezależności prawnika w ocenie sprawy i formułowaniu porad prawnych.
Relacja wytycznych CCBE do AIAct i innych inicjatyw
Choć AIAct nie reguluje bezpośrednio wykonywania zawodu prawnika ani zasad świadczenia pomocy prawnej, CCBE interpretuje jego przepisy jako istotne tło normatywne dla korzystania z GenAI w praktyce prawniczej. Dotyczy to w szczególności obowiązku zapewnienia odpowiedniej wiedzy personelu w zakresie AI, wynikającego z art. 4 AIAct oraz ogólnych zasad odpowiedzialnego i bezpiecznego stosowania systemów sztucznej inteligencji. Przewodnik ułatwia praktyczne odniesienie ogólnych obowiązków regulacyjnych do praktyki prawniczej.
Znaczenie praktyczne i dalsze kierunki
Rozbudowane przykłady zawarte w przewodniku CCBE pokazują, iż dokument nie ma charakteru wyłącznie deklaratywnego ani edukacyjnego. Stanowi on narzędzie, które może realnie wpływać na sposób oceny należytej staranności prawnika przy korzystaniu z GenAI, zarówno na gruncie odpowiedzialności zawodowej, jak i cywilnej. W dłuższej perspektywie wytyczne mogą również oddziaływać na standardy szkolenia aplikantów, programy doskonalenia zawodowego, polityki compliance kancelarii oraz praktykę samorządów zawodowych w zakresie etyki i odpowiedzialnego stosowania nowych technologii.

4 godzin temu






![Rolnicy na Warmii i Mazurach przeciwko umowie z Mercosur. "To zabójstwo dla polskiego rolnictwa" [ZDJĘCIA, WIDEO]](https://static.olsztyn.com.pl/static/articles_photos/45/45701/8969b55bd1b7d76564a4686230a875e2.jpg)
![Polacy oceniają 2025 rok [SONDAŻ]](https://static2.slowopodlasia.pl/data/articles/xga-4x3-lepszy-dla-polski-niz-swiata-polacy-oceniaja-2025-rok-sondaz-1767081418.png)





