Sztuczna inteligencja (AI) wkracza do sektora publicznego i Jednostek Samorządu Terytorialnego (JST) w dynamicznym tempie. Obywatele widzą głównie narzędzia wspomagające, jak chatboty, z których skorzystało już ponad 65 procent Polaków.1 Jednak największa rewolucja zachodzi „za kulisami” – w wewnętrznym zarządzaniu urzędami.
W instytucjach takich jak Zakład Ubezpieczeń Społecznych (ZUS) czy urzędy pracy, AI już teraz zwiększa efektywność, pomimo narastającej liczby zadań.3 Problem pojawia się, gdy AI przestaje tylko optymalizować proste procesy, a zaczyna ingerować w sprawy pracowników: rekrutację, oceny, czy planowanie pracy. W tym momencie optymalizacja może zagrażać podstawowym prawom pracowniczym, takim jak prawo do równego traktowania i prywatności.5
Sztuczna inteligencja w JST: ryzyka, obowiązki i rola rad pracowników. Diagnoza OAI
Czy można zaufać algorytmom? Pułapka braku kontroli
Jednostki Samorządu Terytorialnego (JST) muszą znaleźć złoty środek między cyfrową efektywnością a ochroną praw. Zarządzanie algorytmiczne (za pomocą algorytmów, np. do ocen) staje się powszechne: już co czwarty europejski pracodawca używa AI do decyzji dotyczących pracowników.6
Choć AI ma potencjał, aby być obiektywna, brak ludzkiej kontroli i nietransparentne algorytmy stwarzają ryzyko. Może to prowadzić do nierównego traktowania, a choćby do użycia dyskryminujących systemów i niezgodnego z prawem gromadzenia danych wrażliwych.5
Właśnie dlatego rola Obywatelskiego Akceleratora Innowacji (OAI), jako strażnika praw, jest tak ważna. Monitorujemy wdrażanie nowych technologii w administracji.9 Wysłaliśmy zapytania w trybie dostępu do informacji publicznej (UDIP) do urzędów miejskich, aby sprawdzić, jak JST radzą sobie z odpowiedzialnym stosowaniem AI. Kontekst tych zapytań pokazuje, iż wiele JST nie jest przygotowanych do transparentnego udokumentowania wdrożeń, co stwarza ryzyko powstania luki w przejrzystości i nadzorze algorytmicznym.
Prawny Wycisk: RODO i nadchodzący AI Act
Polskie Jednostki Samorządu Terytorialnego (JST) działają pod coraz większą presją prawną. Głównymi ramami są Ogólne Rozporządzenie o Ochronie Danych Osobowych (RODO) oraz nowe Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 w sprawie sztucznej inteligencji, zwane potocznie Aktem o Sztucznej Inteligencji (AI Act).5
Akt o Sztucznej Inteligencji (AI Act) wszedł w życie 1 sierpnia 2024 roku.10 Pełne wdrożenie większości przepisów nastąpi w 2027 roku 11, a niektórych choćby w 2028 roku 7, ale JST nie mają czasu w czekanie.10 Muszą natychmiast zidentyfikować systemy AI, które zaliczają się do wysokiego ryzyka – zwłaszcza te używane w Zarządzaniu Zasobami Ludzkimi (HR), które klasyfikowane są jako takie w załącznikach aktu.11 Brak dostosowania do tego harmonogramu grozi sankcjami finansowymi sięgającymi 7% globalnego obrotu.11
W zarządzaniu pracownikami, Akt o Sztucznej Inteligencji (AI Act) i Ogólne Rozporządzenie o Ochronie Danych Osobowych (RODO) tworzą podwójny system ochronny: RODO dba o bezpieczeństwo i minimalizację danych osobowych 8, AI Act klasyfikuje systemy sztucznej inteligencji na podstawie ryzyka, a w przypadku systemów wysokiego ryzyka nakłada ścisłe wymogi regulacyjne, w tym konieczność ludzkiego nadzoru i zapewnienia braku uprzedzeń (dyskryminacji systemowej).5
Czatboty i Copilot w urzędzie: Kiedy pomoc staje się zagrożeniem?
Wrzucanie danych do narzędzi AI a RODO
Jeśli JST lub spółki podległe korzystają z czatów AI (np. ChatGPT, Copilot, Google Bard) do streszczania dokumentów, istnieje realne ryzyko, iż do tych systemów trafią dane osobowe i wrażliwe.
Miasto Gorzów Wielkopolski w odpowiedzi na nasze zapytanie potwierdziło, iż jego spółki miejskie aktywnie używają narzędzi takich jak ChatGPT, Copilot czy Google Bard do analizy i streszczania dokumentów oraz do wsparcia w tłumaczeniach i tworzeniu materiałów informacyjnych. Jest to praktyka niosąca bezpośrednie ryzyko naruszeń RODO.
Nawet jeżeli część odpowiedzialności spoczywa na dostawcach, administrator danych (czyli JST) musi mieć pewność, iż takie dane nie są wprowadzane do narzędzi publicznych 14, a wdrożenia realizowane są w bezpiecznych konfiguracjach (tzw. enterprise), z Oceną Skutków dla Ochrony Danych (DPIA) 14, ograniczeniami dostępu, rejestracją zdarzeń i ścisłą kontrolą retencji. Brak tych zabezpieczeń to prosta droga do naruszeń RODO i utraty zaufania pracowników i obywateli.13
Algorytmiczny Pejzaż Samorządu – Analiza Odpowiedzi JST (Monitoring OAI)
Analiza odpowiedzi kilkunastu urzędów miejskich na zapytania OAI w trybie dostępu do informacji publicznej (UDIP) ujawnia dwie główne tendencje, które świadczą o braku spójnej strategii:
I. Kontrowersyjne Luki Regulacyjne i Aktywne Użycie Ryzykownego AI
Mimo iż wiele urzędów miast twierdzi, iż nie stosuje narzędzi AI w swoich wewnętrznych procesach (np. Opole, Zielona Góra, Gorzów Wielkopolski), to ich jednostki podległe lub spółki robią to aktywnie, często w obszarach wrażliwych:
- Brak Polityki przy Aktywnym Ryzyku (Lublin i Gorzów Wlkp.):
- Miasto Lublin przyznało, iż w zarządzaniu ruchem drogowym wykorzystuje system ANPR (Automatic Number Plate Recognition), oparty na sieciach neuronowych i sztucznej inteligencji, do kontroli dostępu (system wysokiego ryzyka). Jednocześnie Urząd nie posiada wewnętrznych regulacji, kodeksów etycznych ani wytycznych dotyczących przejrzystości i odpowiedzialności w stosowaniu tych narzędzi. To zauważalna luka.
- W Bydgoszczy, Zarząd Dróg Miejskich i Komunikacji Publicznej (ZDMiKP) stosuje algorytmy w ramach Inteligentnego Systemu Transportowego (ITS), w tym samouczący się mikromodel ruchu (SCATS). Mimo to ZDMiKP nie planuje wprowadzenia regulacji etycznych ani przejrzystości w stosowaniu tych algorytmów.
- Gorzów Wielkopolski jest przykładem jaskrawego rozdźwięku: Urząd Miasta nie posiada i nie planuje wprowadzenia własnych regulacji, choć spółki miejskie masowo używają narzędzi GenAI (ChatGPT, Copilot) do analizy dokumentów.
- Podejście „Zdawkowe” i „Wyczerpujące” (Transparentność JST):
- Zdawkowe odpowiedzi dotyczyły często kwestii przyszłych planów regulacyjnych, np. Lublin i Wrocław użyły argumentacji prawnej z Ustawy o Dostępie do Informacji Publicznej (UDIP), stwierdzając, iż nie posiadają utrwalonej informacji o planach (choć to te plany są najważniejsze w obliczu AI Act). Opole i Łódź udzieliły krótkich odpowiedzi o braku wdrożeń lub byciu w fazie przygotowawczej.
- Wyczerpujące odpowiedzi były te, które wskazywały konkretne działania i ryzyka: Zielona Góra przyznała, iż planuje wprowadzić politykę AI do końca 2026 r. ze względu na ryzyka (dezinformacja/halucynacje). Bydgoszcz szczegółowo opisała projekt PoC AI do dekretowania pism oraz wdrożenie RPA w gospodarce odpadami. Wrocław pochwalił się powołaniem interdyscyplinarnego Zespołu ds. wdrożenia AI w celu przygotowania się do Aktu o Sztucznej Inteligencji (AI Act), co jest przykładem dobrej, proaktywnej praktyki organizacyjnej.
II. Rady Pracowników jako Fakt
W większości analizowanych miast (Zielona Góra, Bydgoszcz, Wrocław, Opole, Gorzów Wielkopolski) potwierdzono istnienie Rad Pracowników w kluczowych spółkach miejskich o największych przychodach (m.in. w przedsiębiorstwach wodociągowych, energetycznych i komunalnych). To dowodzi, iż w tych firmach istnieje formalna struktura do prowadzenia dialogu społecznego – struktura, którą należy wykorzystać do negocjowania warunków wdrażania AI (Art. 26 ust. 7 AI Act).
Zagrożenia dla urzędników: AI może dyskryminować i nadmiernie kontrolować
Zarządzanie algorytmiczne w Jednostkach Samorządu Terytorialnego (JST) stwarza bezpośrednie zagrożenia dla praw pracowników. Systemy AI mogą przejmować najważniejsze decyzje bez odpowiedniej ludzkiej kontroli.5
High-Risk AI w HR (Zarządzanie Zasobami Ludzkimi)
Akt o Sztucznej Inteligencji (AI Act) klasyfikuje systemy AI przeznaczone do zarządzania zasobami ludzkimi (HR) jako systemy wysokiego ryzyka (zgodnie z załącznikami aktu).11 Chodzi o narzędzia używane w rekrutacji, ocenach pracowniczych, ustalaniu płac, dostępie do szkoleń, a choćby w decyzjach o zwolnieniach (tzw. derekrutacji).5
Największym zagrożeniem jest dyskryminacja algorytmiczna.
Systemy AI, ucząc się na starych (historycznych) danych, mogą nieświadomie powielać uprzedzenia społeczne.5 Na przykład, w branży technologicznej system rekrutacyjny, który analizował profile kandydatów, faworyzował osoby z wybranych uczelni, co wywołało skargę o dyskryminację pomimo skrócenia procesu rekrutacji.14 W JST algorytmy mogą wzmacniać dyskryminację ze względu na wiek (ageizm) lub płeć, szczególnie tam, gdzie historycznie istniały różnice w płacach.1
Ponadto, zarządzanie algorytmiczne to często cyfrowa inwigilacja. Algorytmy mogą zbierać dane, których nie powinny, np. informacje o zdrowiu psychicznym pracowników lub ich aktywności po godzinach pracy.6 Tego typu zbieranie danych narusza RODO.
Zgoda pracownika na algorytmiczny monitoring jest prawnie wątpliwa.10 W relacji zależności, jaką jest stosunek pracy, trudno uznać taką zgodę za dobrowolną, dlatego preferowane są inne podstawy zgodności z RODO (np. obowiązek prawny lub test równowagi dla uzasadnionego interesu).8
„Zadbać o dbającego”: Dlaczego JST muszą szkolić urzędników (Art. 4 AI Act)
Akt o Sztucznej Inteligencji (AI Act) precyzyjnie określa, co Jednostki Samorządu Terytorialnego (JST) muszą robić, używając systemów wysokiego ryzyka. Urzędy muszą przede wszystkim 10:
- Zapewnić nadzór ludzki (human oversight): Osoby nadzorujące systemy muszą mieć odpowiednie kompetencje i przeszkolenie.10 To kluczowe, aby urzędnik, który zatwierdza decyzję algorytmu, rozumiał jej logikę.14
- Monitorować system i prowadzić rejestry jego działania (logi).10
- Zawiesić wykorzystanie systemu (Art. 79 ust. 1 AI Act) i poinformować organy nadzoru, jeżeli wykryją ryzyko dla praw podstawowych lub bezpieczeństwa.10
- Szkolić personel (Art. 4 AI Act): JST mają obowiązek zadbać o to, by ich personel miał odpowiednią wiedzę techniczną i przeszkolenie.16 Szkolenia te muszą obejmować: podstawy działania systemów, ryzyka prawne i etyczne oraz procedury zgłaszania incydentów i anomalii. Brak kompetentnego personelu jest bezpośrednim naruszeniem przepisów.10
Tabela 1: najważniejsze Obowiązki JST Jako Użytkownika Systemu AI Wysokiego Ryzyka (HR)
| Źródło Obowiązku | Art. AI Act / RODO | Zobowiązanie JST (Użytkownika) | Ryzyko w Kontekście Pracowniczym |
| AI Act | Art. 26 ust. 7 | Obowiązek informowania przedstawicieli pracowników o zamiarze wdrożenia i monitorowania systemu AI wysokiego ryzyka. | Naruszenie prawa do informacji i konsultacji; wdrożenie nietransparentnych systemów.10 |
| AI Act | Art. 26 ust. 1, 2 | Zapewnienie kompetencji personelu (szkolenia, Art. 4) oraz nadzoru ludzkiego (human oversight). | Automatyzacja decyzji bez kontroli, błędy operacyjne, dyskryminacja.10 |
| AI Act | Art. 79 ust. 1 | Zawieszenie wykorzystywania systemu i informowanie organu nadzoru w przypadku ryzyka dla praw podstawowych lub bezpieczeństwa. | Dalsze wykorzystywanie wadliwych systemów pomimo stwierdzenia uprzedzeń algorytmicznych.10 |
| RODO | Art. 35 | Przeprowadzenie Oceny Skutków dla Ochrony Danych (DPIA) przed wdrożeniem. | Przetwarzanie danych wrażliwych bez podstawy prawnej (np. dane o efektywności/zdrowiu psychicznym).14 |
| RODO | Zasada Minimalizacji | Wdrożenie środków ograniczających ingerencję w prywatność (pseudonimizacja, kontrola dostępu). | Nadmierny monitoring pracowników, nieautoryzowane wykorzystanie danych.8 |
Rola Rad Pracowników: Nowa „dźwignia” w walce o prawa zatrudnionych
Transformacja technologiczna w Jednostkach Samorządu Terytorialnego (JST) wymaga dialogu. Kluczem do skutecznego i etycznego wdrażania zmian, zwłaszcza związanych z AI, jest budowanie zaufania i łączenie perspektyw zarządzających z perspektywą pracowników.3
Prawo do dialogu: Obowiązek konsultacji z pracownikami
Akt o Sztucznej Inteligencji (AI Act) daje Radom Pracowników (lub związkom zawodowym) nowy, silny instrument prawny. Artykuł 26 ust. 7 AI Act wprowadza bezpośredni obowiązek informacyjny dla pracodawcy: JST muszą poinformować przedstawicieli pracowników o zamiarze wdrożenia i monitorowania systemu AI wysokiego ryzyka, który będzie ich dotyczył.10
Przepis ten przenosi dyskusję o AI z poziomu dobrowolnych uzgodnień na poziom bezwzględnego wymogu prawnego.10 Rady Pracowników mogą teraz wymusić dialog w sprawach, które wcześniej wprowadzano jednostronnie.6
Asymetria wiedzy: Bariera w skutecznym nadzorze
Mimo formalnego wzmocnienia prawnego, skuteczność Rad Pracowników jest ograniczona przez głęboką asymetrię wiedzy i kompetencji. Europejska Konfederacja Związków Zawodowych (ETUC) alarmuje, iż związki często nie mają wystarczającej wiedzy, aby negocjować wpływ algorytmów na warunki pracy.6
W konsekwencji, obowiązek informacyjny może stać się jedynie biurokratyczną formalnością.
Organizacje takie jak Obywatelski Akcelerator Innowacji mają za zadanie pomóc w wypełnieniu tej luki kompetencyjnej, dostarczając wiedzy o prawie i technologii.
Propozycje Mechanizmów Kontrolnych: Mini-Checklista dla Rad Pracowników
Aby skutecznie chronić prawa cyfrowe, Rady Pracowników w Jednostkach Samorządu Terytorialnego (JST) powinny wymagać proaktywnych mechanizmów kontroli:
- Dokumentacja: Rady Pracowników powinny żądać udostępnienia kluczowych dokumentów: Raportów Oceny Skutków dla Ochrony Danych (DPIA) oraz Dokumentacji Technicznej dostawcy, zwłaszcza w zakresie sposobu, w jaki algorytm podejmuje decyzje (inference).14
- Ekspertyza: Konieczne jest wprowadzenie mechanizmu, który umożliwi skorzystanie z pomocy niezależnych ekspertów prawnych i technicznych (audytorów algorytmicznych) na koszt JST w trakcie procesu konsultacji systemów wysokiego ryzyka.6
- Klauzule AI: W ramach zakładowych układów zbiorowych pracy powinny zostać wynegocjowane szczegółowe klauzule AI, precyzyjnie określające: jakie dane mogą być zbierane, jakie mechanizmy odwoławcze przysługują pracownikowi od decyzji algorytmicznej oraz warunki i zakres monitoringu.6
Podsumowanie: OAI monitoruje – prośba o kontakt i 6 rekomendacji
Wnioski: Administracja w prawnym impasie
Analiza gotowości Jednostek Samorządu Terytorialnego (JST) do zarządzania algorytmicznym nadzorem ujawnia rosnącą popularność sztucznej inteligencji (AI) i brak systemowego przygotowania prawnego oraz kompetencyjnego. Dążenie do efektywności jest realizowane kosztem transparentności, co sugerują odpowiedzi JST na zapytania OAI w trybie dostępu do informacji publicznej (UDIP).
Kluczowy Wniosek: JST, które aktywnie stosują systemy AI (np. Lublin, Bydgoszcz ZDMiKP w transporcie) lub tolerują użycie GenAI (ChatGPT, Copilot) w podległych spółkach (np. Gorzów Wielkopolski), wykazują największą lukę w wewnętrznych regulacjach i politykach etycznych. JST stają się użytkownikami systemów wysokiego ryzyka (HR) bez spełnienia podstawowych wymagań AI Act, takich jak nadzór ludzki i kompetencje, co czyni je wysoce podatnymi na sankcje (do 35 mln euro lub 7% globalnego obrotu).11
Z drugiej strony, niektóre miasta wykazują proaktywne podejście organizacyjne (Wrocław, powołanie Zespołu ds. wdrożenia AI) oraz uznają potrzebę tworzenia polityk w celu zarządzania ryzykiem (Zielona Góra, Łódź). Aktywność Rad Pracowników, potwierdzona w większości analizowanych miast, stanowi realną szansę na wdrożenie mechanizmów ochronnych.
Sześć Proaktywnych Rekomendacji OAI (Wezwanie do Działania)
Dla Obywatelskiego Akceleratora Innowacji (OAI), jako organizacji strażniczej, najważniejsze jest zaproponowanie działań, które przełożą teoretyczne wymogi prawne na praktyczną kontrolę i ochronę pracowników samorządowych:
1. Dla JST: Natychmiastowe Wdrożenie wymagań AI Act
Jednostki Samorządu Terytorialnego (JST) muszą niezwłocznie przeprowadzić szczegółowe mapowanie wszystkich stosowanych systemów AI, aby zidentyfikować te sklasyfikowane jako wysokiego ryzyka (zwłaszcza w HR). Należy bezzwłocznie ustanowić procedury nadzoru ludzkiego i wdrożyć polityki zarządzania ryzykiem zgodnie z Art. 26 ust. 1–2 AI Act.10
2. Dla Rad Pracowników: Żądajcie Pełnej Informacji i Dokumentacji
Rady Pracowników muszą aktywnie wykorzystywać podstawę prawną Art. 26 ust. 7 AI Act, żądając pełnej dokumentacji technicznej, Raportów Oceny Skutków dla Ochrony Danych (DPIA) oraz rejestrów (logów) działania systemu AI. Nie wystarczy informacja o wdrożeniu, musi być to informacja jak system działa i na jakich danych jest oparty.10
3. Dla UODO: Proaktywny Audyt Ocen Skutków (DPIA) w JST
W związku z ryzykiem zarządzania algorytmicznego w sektorze publicznym, Urząd Ochrony Danych Osobowych (UODO) powinien priorytetowo traktować ukierunkowane audyty dotyczące wdrożeń systemów AI w JST. Audyty te powinny koncentrować się na sprawdzeniu, czy JST faktycznie przeprowadziły Oceny Skutków dla Ochrony Danych (DPIA) dla systemów monitoringu i oceny efektywności.14
4. Dla Ministerstw: Obowiązkowe Szkolenia (Art. 4 AI Act)
Konieczne jest wprowadzenie obligatoryjnych, certyfikowanych szkoleń (zgodnych z Art. 4 AI Act) dla kadry kierowniczej JST, specjalistów IT oraz przedstawicieli pracowników. Szkolenia te muszą dotyczyć AI Act, zarządzania algorytmicznego i identyfikacji uprzedzeń.16 Brak kompetencji personelu jest bezpośrednim naruszeniem przepisów.10
5. Dla OAI: Tworzenie Narzędzi Kontroli Obywatelskiej
Obywatelski Akcelerator Innowacji (OAI) powinien stworzyć i udostępnić Radom Pracowników, związkom zawodowym i pracownikom samorządowym praktyczne narzędzia audytowe – szablony zapytań prawnych, checklisty kontroli zgodności AI Act oraz wzory klauzul do negocjacji w ramach wewnętrznych regulaminów pracy. To działanie bezpośrednio wspomoże Radę Pracowników w przezwyciężeniu asymetrii wiedzy.6
6. Postulat Krajowy: Zmiana Kodeksu Pracy i Wyeliminowanie „Zgody”
Wymagane jest pilne wprowadzenie zmian do Kodeksu Pracy, które uszczegółowią i zharmonizują polskie prawo pracy z AI Act. W szczególności należy prawnie zdefiniować zarządzanie algorytmiczne oraz wykluczyć swobodną zgodę pracownika jako podstawę prawną do stosowania systemów inwazyjnego monitoringu, aby chronić pracowników przed cyfrową inwigilacją wynikającą ze stosunku zależności.10
Masz doświadczenia ze stosowaniem AI w pracy? Powiedz nam o tym!
Jeśli macie Państwo własne historie lub doświadczenia ze złym stosowaniem narzędzi sztucznej inteligencji w miejscu pracy, szczególnie w Jednostkach Samorządu Terytorialnego (JST), prosimy o kontakt i przesłanie do nas tych informacji. OAI zapewnia wstępny przegląd ryzyk, wsparcie w zapytaniach do pracodawcy i wykorzystuje te dane do wzmocnienia działań strażniczych. Państwa głos jest najważniejszy dla naszej pracy monitoringowej.
Cytowane prace
- AI na polskim rynku pracy – Polski Instytut Ekonomiczny, [dostęp: 10.11.2025]
- Technologiczny nadzór w pracy. Algorytmy śledzą choćby nasze emocje – Spider’s Web, [dostęp: 10.11.2025]
- Dialog może pomóc w zarządzaniu zmianami technologicznymi – Konfederacja Lewiatan, [dostęp: 10.11.2025]
- Harmonogram wejścia w życie przepisów AI i plan wdrożeniowy JST – Legalis Administracja, [dostęp: 10.11.2025]
- HR in the Know 12/2024 – Linklaters, [dostęp: 10.11.2025]
- Co czwarty pracodawca korzysta z algorytmów i AI do podejmowania decyzji o pracownikach – XYZ, [dostęp: 10.11.2025]
- Implementation Timeline | EU Artificial Intelligence Act, [dostęp: 10.11.2025]
- EROD przedstawia standardy przetwarzania danych osobowych w modelach AI. Co to oznacza dla podmiotów rozwijających lub wdrażających takie rozwiązania? – Kancelaria Traple Konarski Podrecki i Wspólnicy, [dostęp: 10.11.2025]
- AI nie zwolni urzędników. Sztuczna inteligencja wspomaga pracowników budżetówki. Służba cywilna i pracownicy samorządowi pracują z AI – GazetaPrawna.pl, [dostęp: 10.11.2025]
- Próba „ujarzmienia” sztucznej inteligencji – Administracja Publiczna – Centrum Szkoleniowe, [dostęp: 10.11.2025]
- AI Act – harmonogram wdrożenia i najważniejsze daty – Lawspective AI, [dostęp: 10,11.2025]
- Sztuczna inteligencja w rekrutacji pracowników – obowiązki, ryzyka i regulacje dla pracodawców – Porady.pl, [dostęp: 10.11.2025]
- Bezpieczeństwo i zgodność z RODO w Copilot Studio – o czym pamiętać przed wdrożeniem AI – Cognity, [dostęp: 10.11.2025]
- ChatGPT i Microsoft Copilot w urzędzie – legalność wg RODO i opinii EROD 28/2024?, [dostęp: 10.11.2025]
- Dyskryminacja w miejscu pracy – przykłady i sposoby reagowania | EY – Polska, [dostęp: 10.11.2025]
- Umiejętność posługiwania się sztuczną inteligencją – Pytania & Odpowiedzi, [dostęp: 10.11.2025]
- AI Act art. 4 – WSAiB, [dostęp: 10.11.2025]
- Etyka AI w administracji publicznej – IT w Administracji – Centrum Szkoleniowe, [dostęp: 10.11.2025]

1 godzina temu












