PE podzielony w sprawie regulacji odpowiedzialności za sztuczną inteligencję

5 dni temu
Zdjęcie: https://www.euractiv.pl/section/nowe-technologie/news/parlament-europejski-podzielony-w-sprawie-regulacji-odpowiedzialnosci-za-sztuczna-inteligencje/


Czy Unia Europejska potrzebuje nowych regulacji dotyczących odpowiedzialności za AI? Część europosłów i branża technologiczna uważa, iż nie, obawiając się wzrostu kosztów i zahamowania innowacji. Inni twierdzą, iż luki prawne pozostawiają użytkowników bez ochrony.

Parlament Europejski jest głęboko podzielony w kwestii nowej dyrektywy o odpowiedzialności za sztuczną inteligencję (AI). Przepisy te mają uregulować, kto ponosi odpowiedzialność za szkody wyrządzone przez AI, jednak wokół ich zasadności narasta coraz więcej kontrowersji.

Dyskusje nad dyrektywą zostały wznowione po rocznej przerwie. Komisja Spraw Legislacyjnych (JURI) i Komisja Rynku Wewnętrznego (IMCO) rozpoczęły debatę, ale nie podjęto jeszcze żadnych wiążących decyzji. Współustawodawcy wstrzymali się z głosowaniem do czasu sfinalizowania unijnego aktu o sztucznej inteligencji, który PE przegłosował już w 2023 roku.

Przeprowadzone na zlecenie Komisji Spraw Legislacyjnych w 2024 roku analizy wykazały, iż mimo istniejących regulacji, wciąż brakuje jasnych ram prawnych dotyczących odpowiedzialności za szkody wyrządzone przez systemy AI. Dyrektywa o odpowiedzialności za produkt wadliwy (PLD), uchwalona w grudniu 2024 roku, obejmują wprawdzie niektóre zagrożenia związane z AI, ale nie dotyczą kwestii takich jak dyskryminacja, naruszenia praw własności intelektualnej czy szkody wynikające z błędów generatywnych systemów AI.

Axel Voss: „Potrzebujemy tych regulacji”

Jednym z głównych zwolenników nowej dyrektywy jest Axel Voss, sprawozdawca JURI. W jego opinii dodatkowe przepisy dotyczące odpowiedzialności za sztuczną inteligencję są konieczne, aby uzupełnić jednolity rynek cyfrowy UE. Podkreśla jednak, iż nowe regulacje nie powinny nakładać nadmiernych obciążeń na przedsiębiorstwa ani zaburzać krajowych przepisów dotyczących odpowiedzialności cywilnej.

Voss zwraca uwagę, iż wciąż brakuje jednolitych standardów określających, kto ponosi odpowiedzialność za decyzje podejmowane przez algorytmy. Brak regulacji może prowadzić do sytuacji, w której poszkodowane osoby nie będą miały realnej możliwości dochodzenia roszczeń.

Sprzeciw wobec nowych przepisów

Nie wszyscy europosłowie popierają ten kierunek. Komisja Rynku Wewnętrznego (IMCO), której opinia na temat dyrektywy zostanie wydana w marcu, jest sceptyczna wobec nowych regulacji.

Kosma Złotowski, sprawozdawca IMCO, nazwał propozycję „przedwczesną i niepotrzebną”, argumentując, iż przedsiębiorstwa najpierw powinny dostosować się do już istniejących regulacji – w tym do unijnego aktu o AI oraz do przepisów o odpowiedzialności za produkt.

Podobne stanowisko zajmuje fińska europosłanka Aura Salla, która twierdzi, iż Komisja Europejska powinna rozważyć wycofanie tego „niefortunnego” projektu. Wskazuje, iż luki prawne, na które powołują się zwolennicy aktu, wciąż nie zostały jasno zidentyfikowane.

Branża technologiczna apeluje o wycofanie dyrektywy spod obrad PE

Europejski sektor technologiczny również sprzeciwia się nowym przepisom. Koalicja stowarzyszeń branżowych, w tym Business Software Alliance, Amerykańska Izba Handlowa przy UE oraz MedTech Europe, we wspólnym oświadczeniu wezwała decydentów unijnych do całkowitego wycofania projektu.

Zdaniem przedstawicieli branży uchwalenie dyrektywy skutkowałoby niepotrzebną złożonością prawną w tej materii i zwiększyłby niepewność regulacyjną w Europie. Ich główne argumenty to:

  • Nadmiar regulacji – Unia Europejska niedawno przyjęła dyrektywę o odpowiedzialności za produkt (PLD), która obejmuje już kwestie AI i oprogramowania. PLD ma wejść w życie w 2026 roku, a jej skuteczność nie została jeszcze oceniona.
  • Niepewność prawna – Nowe przepisy mogłyby kolidować z innymi unijnymi regulacjami, takimi jak ogólne rozporządzenie o ochronie danych (RODO), dyrektywa o usługach cyfrowych czy akt o cyberbezpieczeństwie.
  • Zagrożenie dla konkurencyjności – Dodatkowe obciążenia prawne mogą odstraszyć inwestorów i zniechęcić firmy do rozwijania innowacji w Europie.

Europejski Inspektor Ochrony Danych: „Każdy system AI może zaszkodzić”

Do debaty włączył się również Europejski Inspektor Ochrony Danych (EDPS), który w swojej opinii stwierdził, iż klasyfikacje ryzyka AI nie powinny mieć zastosowania do dyrektywy o odpowiedzialności za AI. Jego zdaniem każdy rodzaj systemu AI może potencjalnie wyrządzić szkody, a osoby poszkodowane powinny mieć możliwość dochodzenia odszkodowań.

Podobne stanowisko reprezentuje eurodeputowany Brando Benifei, współautor unijnego aktu o AI, który uważa, iż brak regulacji w tym obszarze mógłby prowadzić do sytuacji, w której ofiary szkód związanych z AI pozostają bez ochrony prawnej.

Co dalej z regulacjami?

Choć Parlament Europejski ma głosować nad przepisami w przyszłym roku, Rada UE zawiesiła dyskusje na ten temat na czas nieokreślony. Oznacza to, iż negocjacje między Parlamentem, Radą i Komisją zostaną wstrzymane, dopóki państwa członkowskie nie podejmą decyzji o wznowieniu prac nad projektem.

Polska prezydencja w Radzie UE zapowiedziała, iż będzie monitorować rozwój sytuacji i oceniać najnowsze wydarzenia. Nie wiadomo jednak, czy i kiedy projekt wróci do agendy unijnych decydentów.

Dyskusja nad regulacjami dotyczącymi odpowiedzialności za sztuczną inteligencję jest jedną z kluczowych debat kształtujących przyszłość europejskiej gospodarki cyfrowej. Z jednej strony pojawiają się głosy o konieczności ochrony użytkowników i uregulowania odpowiedzialności za szkody wyrządzone przez AI. Z drugiej – obawy o nadmierne regulacje, które mogą zaszkodzić innowacyjności i konkurencyjności europejskich firm. Na razie przyszłość aktu pozostaje niepewna.

Idź do oryginalnego materiału