AI ACT – pierwsza na świecie regulacja dotycząca sztucznej inteligencji

Sztuczna inteligencja (SI) to nowoczesna technologia, która coraz bardziej wpływa na nasze życie. Przykłady takie jak ChatGPT, Google Bard czy DALL-E2 pokazują, że SI potrafi być bardzo pomocna zarówno w naszym życiu codziennym, jak i zawodowym. Jednakże jej rozwój wiąże się również ze sporym ryzykiem dla ludzi. Z tego względu 14 czerwca 2023 roku Parlament Europejski wprowadził prawo o SI, zwane „AI ACT”, które ma zapewnić bezpieczeństwo. „AI ACT” dotyczy przede wszystkim firm z UE, jak również tych podmiotów, które sprzedają lub używają SI na terenie UE.

Zakres działania:

Regulacja ma zastosowanie do dostawców i użytkowników systemów AI w Unii Europejskiej, jak również do dostawców i użytkowników z krajów trzecich, jeśli ich systemy AI mają wpływ na obywateli UE.

Klasyfikacja ryzyka:

AI ACT dzieli ryzyko związane z SI na cztery kategorie: niskie, średnie, wysokie i niedopuszczalne.

Kategoria niskiego ryzyka – kategoria ta obejmuje systemy, które nie stanowią znaczącego zagrożenia.

Kategoria średniego ryzyka – kategoria ta obejmuje popularne w ostatnich miesiącach chatboty, takie jak np. ChatGPT.

Kategoria wysokiego ryzyka – należą do niej systemy do identyfikacji biometrycznej czy też zarządzania ruchem drogowym.

Kategoria niedopuszczalnego ryzyka – kategoria obejmuje systemy stwarzające ogromne ryzyko dla bezpieczeństwa. Przykładem są systemy przeznaczone do dokonywania oceny społecznej – takie systemu funkcjonują już w Chinach.

Transparentność:

Systemy AI muszą być przejrzyste i łatwe do zrozumienia dla użytkowników. To obejmuje obowiązek informowania użytkowników, kiedy wchodzą w interakcję z systemem AI, szczególnie w przypadku chatbotów i innych aplikacji konsumenckich.

Dane i prywatność:

Przetwarzanie danych przez systemy AI musi być zgodne z ogólnymi przepisami o ochronie danych, takimi jak RODO (GDPR).

Bezpieczeństwo i odpowiedzialność:

Systemy AI muszą być bezpieczne i wolne od wad, które mogą zagrażać bezpieczeństwu użytkowników. Odpowiedzialność za szkody spowodowane przez system AI spoczywa na dostawcach tych systemów.

Nadzór i egzekwowanie:

Państwa członkowskie UE mają obowiązek ustanowienia organów nadzorujących, które będą monitorować stosowanie przepisów dotyczących AI i egzekwować je w razie potrzeby.

Podsumowując, AI ACT stanowi próbę znalezienia równowagi między wspieraniem innowacji w dziedzinie AI a ochroną praw obywateli i bezpieczeństwa publicznego. Jest to pierwsza tego typu kompleksowa regulacja dotycząca AI na poziomie międzynarodowym. Niewątpliwie AI ACT to ważny krok w regulacji SI, ale ten akt prawny zacznie obowiązywać dopiero za 2 lata. Może więc nie nadążać za nowymi technologiami, które powstaną w najbliższym czasie.