Czego nie może sztuczna inteligencja

Choć wygląda na to, że Unia Europejska przegrywa dość wyraźnie ze Stanami Zjednoczonymi i Chinami w wyścigu o palmę pierwszeństwa w obszarze technologii wykorzystujących sztuczną inteligencję, to jednak nie zamierza jeszcze całkowicie odpuścić w tej batalii. W lutym ogłoszono rozpoczęcie inicjatywy InvestAI, której budżet ma wynieść nawet 200 mld euro. Jednocześnie UE chce uregulować wykorzystanie sztucznej inteligencji. Od początku lutego na terenie Unii Europejskiej zaczęły obowiązywać nowe przepisy dotyczące postępowania z AI.
Tempo rozwoju i innowacji w dziedzinie sztucznej inteligencji w ostatnich latach oznacza, że w wielu przypadkach jej wdrażanie wyprzedziło ustawodawstwo, a odpowiedzialność za zapewnienie bezpiecznego i odpowiedzialnego korzystania ze sztucznej inteligencji często spoczywa na firmach.
Dlatego też Unia Europejska postanowiła uregulować tę kwestię. W maju ubiegłego roku UE przyjęła pierwsze na świecie przepisy regulujące wykorzystanie sztucznej inteligencji, tzw. Act AI. Na europejskim rynku zaczęły one obowiązywać od 1 sierpnia 2024 r., jednak niektóre elementy nowej regulacji miały wchodzić w życie nieco później. Z dniem 2 lutego br. zaczęły np. obowiązywać zakazy i obowiązki w zakresie korzystania ze sztucznej inteligencji.
Różne rodzaje ryzyka
Act AI wprowadza m.in. ściśle określony zestaw zasad opartych na analizie ryzyka dla dostawców i podmiotów wdrażających sztuczną inteligencję w odniesieniu do konkretnych zastosowań tej technologii. Środki te mają gwarantować bezpieczeństwo i podstawowe prawa użytkowników AU, ale również powinny wzmacniać absorpcję, inwestycje i innowacje w dziedzinie sztucznej inteligencji w całej UE.
Konkretne obowiązki dostawców i odbiorców AI uzależnione są od poziomu ryzyka, z jakim wiąże się dana technologia. Ustawodawca wyodrębnił bowiem 4 kategorie ryzyk, na które dzieli się systemy AI. Są to:
- systemy niedopuszczalnego ryzyka,
- systemy wysokiego ryzyka,
- systemy ograniczonego ryzyka,
- systemy minimalnego ryzyka.
Niedopuszczalne ryzyko
Wszystkie systemy sztucznej inteligencji, które mogą stwarzać wyraźne zagrożenie dla bezpieczeństwa użytkowników, ich źródeł utrzymania czy podstawowych praw będą bezwzględnie zakazane. Wyjątkiem są sytuacji, gdy w grę wchodzi bezpieczeństwo narodowe.
UE wprowadza np. zakaz stosowania programów sztucznej inteligencji, które oceniają zachowania społeczne. W ramach tzw. punktacji społecznej mieszkańcy Chin są dzieleni na kategorie behawioralne. Na terenie UE rozpoznawanie emocji nie będzie miało miejsca ani w miejscu pracy, ani w placówkach edukacyjnych. Niedozwolone będą również manipulacyjne systemy sztucznej inteligencji, które wykorzystują techniki w celu wpływania na ludzkie zachowanie.
Unijne przepisy w sprawie sztucznej inteligencji zakazują 8 praktyk:
- szkodliwej manipulacji, technik podprogowych i innych oszustw opartych na sztucznej inteligencji,
- wykorzystywania słabości związanych z wiekiem, sytuacją społeczno-ekonomiczna czy niepełnosprawnością,
- punktacji społecznej,
- oceny ryzyka popełnienia przez osobę przestępstwa wyłącznie na podstawie profilowania lub cech osobowości,
- wykorzystania materiałów internetowych lub CCTV w celu utworzenia lub rozszerzenia baz danych rozpoznawania twarzy,
- rozpoznawania emocji w miejscach pracy i instytucjach edukacyjnych,
- kategoryzacji biometryczej w celu wydedukowania niektórych cech chronionych,
- zdalnej identyfikacji biometrycznej w czasie rzeczywistym na potrzeby ochrony porządku publicznego w przestrzeni publicznej.
Wysokie ryzyko
Niektóre systemy sztucznej inteligencji, zgodnie z ustawą AI Act, są uważane za technologie wysokiego ryzyka. Do tej grupy zaliczane są przede wszystkim przypadki użycia AI, które mogą stwarzać poważne ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych.
MOŻE ZAINTERESUJE CIĘ TAKŻE
Systemy sztucznej inteligencji wysokiego ryzyka to m.in.:
- takie, które tworzą profile osób fizycznych, automatycznie przetwarzając dane osobowe w celu oceny różnych aspektów życia danej osoby, np. sytuacji ekonomicznej, zdrowia, preferencji, zainteresowań, zachowania, lokalizacji lub przemieszczania się,
- zdalne systemy identyfikacji biometrycznej, z wyłączeniem weryfikacji biometrycznej, która potwierdza, że dana osoba jest tym, za kogo się podaje,
- elementy bezpieczeństwa w infrastrukturze krytycznej, których awaria mogłaby zagrozić życiu i zdrowiu obywateli,
- rozwiązania stosowane w instytucjach edukacyjnych, które mogą decydować o dostępie do edukacji i przebiegu czyjegoś życia zawodowego,
- narzędzia do celów zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia,
- niektóre przypadki użycia sztucznej inteligencji wykorzystywane do zapewnienia dostępu do podstawowych usług prywatnych i publicznych,
- elementy bezpieczeństwa produktów oparte na sztucznej inteligencji (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem),
- systemy wykorzystywane do oceny ryzyka stania się ofiarą przestępstwa przez daną osobę,
- rozwiązania wykorzystywane do badania i interpretowania faktów i stosowania prawa do konkretnych faktów lub wykorzystywane w alternatywnym rozwiązywaniu sporów.
Ograniczone ryzyko
Ta kategoria ryzyka związana jest z potrzebą przejrzystości w zakresie stosowania sztucznej inteligencji, zwłaszcza w przypadku tzw. generatywnych modeli AI. Nowe przepisy wprowadzają szczególne obowiązki w zakresie ujawniania informacji, żeby ludzie byli świadomi, gdy jest to konieczne do zachowania zaufania. Na przykład podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, ludzie powinni być świadomi, że wchodzą w interakcję z maszyną.
Ponadto dostawcy generatywnej sztucznej inteligencji muszą zapewnić identyfikowalność treści generowanych przez sztuczną inteligencję. Ponadto niektóre treści generowane przez AI powinny być wyraźnie oznakowane. Celem jest m.in. unikanie deepfaków w tekstach publikowanych w celu informowania opinii publicznej o sprawach leżących w interesie publicznym.
Minimalne ryzyko lub brak ryzyka
Akt w sprawie sztucznej inteligencji nie wprowadza przepisów dotyczących sztucznej inteligencji, którą uznaje się za obarczoną minimalnym ryzykiem lub nieobjętą żadnym ryzykiem. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii. Obejmuje to aplikacje, takie jak np. gry wideo z obsługą sztucznej inteligencji czy filtry antyspamowe.
Unijne przepisy w sprawie sztucznej inteligencji mają zwiększyć zaufanie do aplikacji, które bazują na sztucznej inteligencji. Wprawdzie większość systemów AI nie stwarza obecnie żadnego ryzyka i może przyczynić się do rozwiązania wielu wyzwań społecznych, nie można jednak całkowicie wykluczyć ryzyka, jakie może się wiązać z tą technologią.