Zakazane praktyki w zakresie AI już od 2 lutego 2025 r.
Akt w sprawie sztucznej inteligencji („AI Act”) wprowadza zakaz stosowania określonych, szczególnie szkodliwych praktyk w zakresie AI. Przepisy zakazujące stosowania tych praktyk zaczną być stosowane już od 2 lutego 2025 r. Ich nieprzestrzeganie wiąże się z ryzykiem nałożenia administracyjnej kary pieniężnej w wysokości do 35 mln EUR lub – w przypadku przedsiębiorstwa – do 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
Zgodnie z AI Act zakazane jest między innymi:
- Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI stosującego techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę.
Przykładem podanym w broszurze Ministerstwa Cyfryzacji jest system AI w centrum handlowym, który wykorzystuje techniki podprogowe poprzez emitowanie delikatnych dźwięków i obrazów w ramach reklam.
- Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę.
Broszura jako przykład podaje system AI – asystenta osobistego dla osób starszych wykorzystujący zaawansowane techniki manipulacyjne.
- Wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do określonych skutków wskazanych w AI Act.
- Wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej.
- Wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.
Przykład z broszury – wykorzystywanie kamer rejestrujących wyraz twarzy i wyciąganie na tej podstawie wniosków na temat emocji pracowników oraz tworzenie profili emocjonalnych pracowników.
- Wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
Broszura jako przykład podaje system AI stosowany w miejscu w pracy, który np. na podstawie mimiki twarzy wyciąga wnioski co do przekonań politycznych pracownika i na tej podstawie pracownicy są kategoryzowani.
Powyższe może mieć szczególnie doniosłe znaczenie dla instytucji z sektora finansowego, a także dla pracodawców planujących wykorzystywać systemy AI w miejscu pracy.
Aby zmniejszyć ryzyko ponoszenia ww. odpowiedzialności podmioty wykorzystujące w swojej działalności systemy AI powinny zweryfikować, czy korzystają z systemów AI, które mogą zostać uznane za zakazane na podstawie AI Act. Jeśli tak, powinny podjąć odpowiednie kroki, by zaprzestać korzystania z tych systemów lub odpowiednio zmienić sposób ich działania.
Karolina Romanowska, adwokat, Łukasz Rutkowski, radca prawny, praktyka ochrony danych kancelarii Wardyński i Wspólnicy