Przejdź do treści

AI Act wprowadza regulacje dotyczące sztucznej inteligencji

Fot. free-images.com

Wejście w życie dyrektywy ws. sztucznej inteligencji (tzw. AI Act) może wstrząsnąć praktykami zarządzania danymi w UE. Wiele instytucji już teraz przygotowuje swoje rozwiązania, zapewniając bezpieczne wykorzystanie sztucznej inteligencji (AI).

Magda Kotowska-Gawrylczyk, ekspertka ds. analityki danych z NatWest Group Polska, tłumaczy, dlaczego buduje odpowiedzialną technologię, nawet zanim AI Act stanie się obowiązującym prawem.

26 lutego Parlament Europejski może zatwierdzić AI Act (czyli unijny Akt o sztucznej inteligencji)

Firma ekspertki wprowadza rozwiązania oparte o sztuczną inteligencję, które przynoszą oszczędności czasu klientom, jak i pracownikom/pracownicom, jednocześnie dbając o bezpieczne korzystanie z narzędzi. Takie narzędzia działają przejrzyście i dają ludziom kontrolę nad ich danymi. AI Act wprowadza regulacje dotyczące sztucznej inteligencji, kategoryzując narzędzia AI według poziomów ryzyka i nakładając nowe obowiązki na rządy i firmy.

Już 26 lutego Parlament Europejski może zatwierdzić AI Act (czyli unijny Akt o sztucznej inteligencji). Później ostatecznie zatwierdzi go Rada UE, a prawo zacznie obowiązywać 24 miesiące po ogłoszeniu. Jednak krajowi pracodawcy mogą już teraz rozpocząć przygotowania do przyjęcia regulacji na podstawie AI Act, który może znacząco wpłynąć na krajobraz sztucznej inteligencji, zarówno wśród użytkowników/użytkowniczek, jak i dostawców technologii.

Goldman Sachs przewiduje, że generatywna sztuczna inteligencja może podnieść globalne PKB o 7%

Regulacja pojawiła się w momencie, gdy AI wydaje się obowiązkowym elementem rozwoju firm. Od 2017 r. 250% więcej menedżerów deklaruje wykorzystanie AI, a ci, którzy tego nie robią, mogą stracić (McKinsey & Company). Natomiast Goldman Sachs przewiduje, że generatywna sztuczna inteligencja może podnieść globalne PKB o 7%, a 300 mln pracowników na całym świecie będzie korzystać ze sztucznej inteligencji.

Według badań jest nad czym pracować, bo jak wynika z raportu Accenture 2022 Tech Vision, tylko 35% globalnych konsumentów ufa temu, w jaki sposób sztuczna inteligencja jest wdrażana przez organizacje. Ponadto 77% uważa, że organizacje muszą zostać pociągnięte do odpowiedzialności za niewłaściwe wykorzystanie sztucznej inteligencji.

Algorytmy sztucznej inteligencji uczą się wzorców z danych, np. takich jak zdjęcia owoców

Regulacja kategoryzuje narzędzia sztucznej inteligencji według różnych poziomów ryzyka, od niskiego do niedopuszczalnego, i nakłada odpowiednie obowiązki na rządy i firmy korzystające z tych narzędzi. Narzędzia AI wysokiego ryzyka, w tym te wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa, edukacji i systemach ogólnego przeznaczenia (GPAIS), takich jak Chat GPT, będą poddawane intensywnej kontroli.

– Algorytmy sztucznej inteligencji uczą się wzorców z danych, np. takich jak zdjęcia owoców. Używają reguł matematycznych do rozpoznawania i przewidywania poprawnej odpowiedzi. Analizując okrągły kształt i obecność ogonka, mogą zidentyfikować jabłka. Przy większej ilości danych poprawiają swoją dokładność. Odpowiedzialna sztuczna inteligencja zapewniłaby, że zdjęcia owoców i inne dane byłyby wykorzystywane w sposób bezpieczny i zgodny z przepisami dotyczącymi prywatności. Dodatkowo odpowiedzialna sztuczna inteligencja będzie również wyjaśniać swoje decyzje. Wyjaśniałaby, dlaczego dany owoc jest jabłkiem lub pomarańczą, pomagając użytkownikom zrozumieć przewidywania sztucznej inteligencji. Przejrzystość pomaga budować zaufanie i zapewnia, że sztuczna inteligencja podejmuje uczciwe i bezstronne decyzje – mówi Magda Kotowska-Gawrylczyk, Data & Analytics Manager w NatWest Group Polska.

Wraz z potęgą sztucznej inteligencji przychodzi odpowiedzialność za zapewnienie jej etycznego wykorzystania

– Gdyby każda interakcja trwała tylko minutę, równałoby się to 95 latom.  – Sztuczna inteligencja i automatyzacja skutecznie wspierają taką liczbą interakcji, pozwalając szybciej uzyskać informacje i oszczędzić czas. Dzięki automatyzacji zaoszczędziliśmy ponad 10 milionów funtów. Rozumiemy jednak, że wraz z potęgą sztucznej inteligencji przychodzi odpowiedzialność za zapewnienie jej etycznego wykorzystania – mówi Kotowska-Gawrylczyk.

W jej ocenie AI Act jako dowód na to, że odpowiedzialne podejście do sztucznej inteligencji jej zespołu było właściwym wyborem. – Nasze zastosowania obejmują zarówno poprawę obsługi klienta za pomocą chatbotów, jak i wykorzystanie uczenia maszynowego do zwiększenia ich cyberbezpieczeństwa.

NatWest Group Polska jest instytucją finansową w Polsce, należącą do Grupy NatWest. Bank w Polsce skupia się na wsparciu globalnym klientów biznesowych, rozwijaniu innowacyjnych rozwiązań bankowych i zaangażowaniu w etyczne praktyki.
Udostępnij: