Uchwalony w PE Artificial Intelligence Act przewiduje m.in. skategoryzowanie zakazanych praktyk w zakresie rozwiązań AI, szczególnie tych, które zagrażają prawom obywateli.
Zaliczono do nich m.in. używanie technik podprogowych oraz dyskryminujących, manipulujących zachowaniem ludzi lub wykorzystujących ich słabości. Nowe przepisy zakażą stosowania systemów sztucznej inteligencji w zakresie tzw. social scoringu, czyli klasyfikacji punktowej obywateli. Ograniczą także korzystanie z systemów identyfikacji biometrycznej dla organów ścigania – w tym przypadku przewidują pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Ponadto będzie obowiązek wyraźnego oznaczania nieautentycznych lub zmanipulowanych obrazy, treści audio lub wideo.
Regulacje są potrzebne do tego, żeby zanalizować ryzyka, które mogą przynieść konkretne zastosowania sztucznej inteligencji
Parlament Europejski zatwierdził AI Act. To pierwsza tego typu regulacja tak szeroko obejmująca obszar sztucznej inteligencji. Celem nowych przepisów jest zbudowanie środowiska prawnego, które pozwoli na rozwój tej technologii, przy jednoczesnym poszanowaniu praw podstawowych, ochronie demokracji czy praworządności przed systemami wysokiego ryzyka. – Przy wielu artykułach, które niekoniecznie są interpretowalne łatwo i w spójny sposób, proponowałbym, żeby KE, ale to może być też polska rola podczas prezydencji, przygotowała plan wdrożenia regulacji o sztucznej inteligencji – ocenia w rozmowie z agencją Newseria Biznes Michał Boni, adiunkt na Uniwersytecie SWPS, b. minister cyfryzacji.
– Trzeba zacząć od tego, że sztuczna inteligencja sama w sobie nie jest ani zła, ani dobra, jest neutralna. Zastosowania sztucznej inteligencji mogą być różnorakie i to często zależy od ludzi, państw i firm. Regulacje są potrzebne do tego, żeby zanalizować ryzyka, które mogą przynieść konkretne zastosowania sztucznej inteligencji – mówi Boni.
Kluczowa będzie ocena takiego ryzyka i potencjalnego wpływu na bezpieczeństwo obywateli
– Jeśli te ryzyka są zbyt duże, to być może powinno być ograniczenie wprowadzania w życie danego rozwiązania, a jeśli są mniejsze, ale jakieś są jednak, to wtedy firma powinna przejść test sprawdzający, czy te ryzyka wpłyną na ludzi, społeczeństwo, środowisko zewnętrzne – dodaje Michał Boni. – Takie testy zostały przygotowane przez grupę ekspertów zajmujących się m.in. etycznymi wymiarami sztucznej inteligencji. Więc to jest do okiełznania, tylko musimy podejść praktycznie od strony zastosowań i ryzyk, a nie od mówienia generalnego o sztucznej inteligencji.
W AI Act określono szczególne obowiązki dla systemów wysokiego ryzyka. Obszary, w których są one wykorzystywane, to m.in. infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych, np. wyborów. Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dodatkowo obywatele zyskają prawo do złożenia skargi dotyczących systemów SI.
Tam, gdzie różne rzeczy nie będą do końca jasne, powinniśmy pójść w stronę kodeksu dobrych praktyk
– Przy wielu artykułach, które niekoniecznie są interpretowalne łatwo i w spójny sposób, ja bym proponował, żeby Komisja Europejska, ale to może być też polska rola podczas prezydencji, przygotowała ważny dokument, czyli plan wdrożenia regulacji o sztucznej inteligencji. To jest skomplikowane, bo niektóre rzeczy z tego aktu będą wchodziły w kilka miesięcy po przyjęciu, inne w rok, inne w półtora, inne w dwa lat, do trzech, więc to będzie trwało. Po to, żeby to było sensownie zrobione, to taki plan wdrażania powinien być przygotowany – ocenia Michał Boni. – Tam, gdzie różne rzeczy nie będą do końca jasne, powinniśmy pójść w stronę kodeksu dobrych praktyk. Czyli biznes między sobą powinien ustalać, razem z innymi partnerami, np. użytkownikami, jakie rozwiązanie jest dobre i trzyma się ducha prawa o sztucznej inteligencji, które między innymi ma chronić naszą podmiotowość.
Według firmy doradczej Deloitte, postępująca cyfryzacja gospodarki sprawia, że kolejne firmy decydują się na zastosowanie narzędzi opartych na sztucznej inteligencji. Z raportu „Unlocking the power of AI” wynika, że ponad 90 proc. firm chce osiągnąć wyższy poziom dojrzałości w zakresie AI w trakcie najbliższych trzech lat. Tempo i realizacja ich planów jest jednak uzależniona od takich czynników jak: kwalifikacje personelu oraz zdolności danej organizacji do wdrożenia rozwiązań opartych na uczeniu maszynowym. Autorzy przytoczonego raportu szacują, że w ciągu dwóch najbliższych lat biznesowa wartość, która powstanie dzięki AI, może wynieść nawet 4,4 bln dol.
Wiele firm już stosuje te zasady, mechanizmy, choćby analizy ryzyka, które są wpisane do tej regulacji
Wiele środowisk na etapie tworzenia nowego prawa wyrażało obawy, że wprowadzenie wspomnianych regulacji może spowolnić rozwój rynku sztucznej inteligencji. Takiej oceny nie podziela Michał Boni.
– Myślę, że rynek będzie się tak samo dynamicznie rozwijał jak teraz, dlatego że wiele firm już stosuje te zasady, mechanizmy, choćby analizy ryzyka, które są wpisane do tej regulacji.