Są tacy, których ekscytują niekończące się możliwości rozwoju sztucznej inteligencji – i tacy, których one przerażają. Tych drugich powinien nieco uspokoić fakt, że AI Act wprowadzi zakaz wykorzystywania niektórych systemów AI w Unii Europejskiej ze względu na ryzyko naruszania przez nie praw podstawowych.
Grupy ryzyka, według których sklasyfikowano systemy sztucznej inteligencji, są cztery:
- systemy o niedopuszczalnym ryzyku,
- systemy wysokiego ryzyka,
- systemy o ograniczonym ryzyku,
- systemy minimalnego ryzyka.
Systemy skategoryzowane jako “niedopuszczalne” to te, które objęte zostaną bezwzględnym zakazem. Są to, między innymi, systemy AI wykorzystujące techniki podprogowe do podświadomego manipulowania naszym zachowaniem. Konsument, który padłby ofiarą takiego procederu w trakcie zakupów, mógłby zostać „wrobiony” w podjęcie decyzji sprzecznej z jego najlepszym interesem. Na koniec dnia ucierpieć może nie tylko nasz portfel, lecz także nasze zdrowie.
Zakazane będzie również korzystanie z systemów AI, które celowo wykorzystują słabości określonych grup ludzi, takich jak dzieci, osoby starsze czy osoby z niepełnosprawnością. Brzmi enigmatycznie? No to na konkretnym przykładzie: takim systemem może być „niewinnie” wyglądająca interaktywna zabawka, która manipuluje dzieckiem i popycha je do niebezpiecznych zachowań.
Szczególnie surowe regulacje dotyczą tak zwanej „oceny społecznej” (social scoring), czyli systemów AI, które klasyfikują ludzi na podstawie ich zachowania, statusu społeczno-ekonomicznego lub cech osobistych. Podobnymi restrykcjami objęto systemy AI związane z identyfikacją biometryczną, zdolne między innymi do rozpoznawania twarzy w przestrzeni publicznej. Ich wykorzystywanie do śledzenia ludzi w czasie rzeczywistym, zwłaszcza przez organy ścigania, budziło bowiem zbyt poważne obawy w zakresie prywatności i potencjalnych nadużyć.
Podsumujmy: na liście zakazanych systemów – czyli tych z grupy niedopuszczalnego ryzyka – znalazły się:
- systemy wykorzystujące podatność na manipulowanie,
- systemy stosujące techniki podprogowe,
- systemy oparte na punktowej ocenie społecznej (social scoring),
- systemy prognostyczne oparte wyłącznie na profilowaniu, z których korzysta policja,
- systemy rozpoznające emocje w miejscu pracy (z pewnymi wyjątkami, na przykład monitorowania poziomu zmęczenia pilota samolotu) i instytucjach edukacyjnych,
- systemy dokonujące nieukierunkowanego rozpoznawania twarzy z monitoringu w celu tworzenia baz danych.
Wszystkie one staną się nielegalne z dniem 2 lutego 2025 roku.
Chcesz wiedzieć więcej o zakazach, nakazach i innych konsekwencjach, jakie wdrożenie AI Act oznacza dla twojego przedsiębiorstwa? Już wkrótce kolejny wpis CK LEGAL z cyklu prawo vs sztuczna inteligencja!