Z artykułu dowiesz się:
Czym jest Ustawa o sztucznej inteligencji Jakie obowiązki pracodawcy wynikają z Ustawy o AI Jakie są 4 kategorie ryzyka zawarte w Ustawie Jakie są konsekwencje za nieprzestrzeganie zasad Ustawy o sztucznej inteligencjiCo to jest Ustawa o sztucznej inteligencji?
Proces cyfryzacji mocno zmotywował władze Unii Europejskiej, aby przyjrzeć się bliżej bezpieczeństwu, a właściwie zagrożeniom, jakie są z nim związane. Najpierw na paletę wzięli dane osobowe, których przepływ pomiędzy jednostkami był tak płynny, że trafiały one często w niepowołane ręce bez zgody samych zainteresowanych. Dlatego też powstało rozporządzenie o ochronie danych osobowych, czyli powszechnie znane RODO. Chodziło o to, aby jednostki, którym udostępniamy swoje dane osobowe, nie miały swobody ich rozpowszechniania, a zachowały ich poufność, wykorzystując jedynie do własnych, konkretnie sprecyzowanych celów. To samo teraz stało się ze sztuczną inteligencją.
A co dokładnie? A no już od dłuższego czasu władze Unii Europejskiej pracowały nad aktem AI. Powstały już jego pierwsze projekty, jednak ostatecznie, żaden nie spotkał się z aprobatą i nie miał szansy na wejście w życie, aż do teraz. To już rzekomo ostatni projekt, który ma zdecydowanie bardziej nakazujący charakter, niż poprzednie wersje. Ustawa precyzuje wytyczne dla technologii sztucznej inteligencji, a więc nie są to wskazówki, a warunki, które trzeba spełnić, aby korzystanie z AI było zgodne z obowiązującym prawem. Całość odnosi się do potencjalnych zagrożeń, jakie są z nią związane, a Ustawa kategoryzuje systemy sztucznej inteligencji z uwzględnieniem poziomu ryzyka.
To, że Ustawa o sztucznej inteligencji już jest i władze (najprawdopodobniej) doszły do porozumienia, to jeszcze nie oznacza konieczności wdrażania zmian w organizacjach. Organy ustawodawcze UE mają zielone światło od Parlamentu Europejskiego, ale po przyjęciu Ustawy ma rozpocząć się tzw. okres przejściowy, czyli czas na przystosowanie się do nowych wytycznych. Ma on trwać przynajmniej 18 miesięcy, więc planowany termin ostatecznych zmian wypada na przełom 2025/2026 roku.
No dobrze, ale właściwie w jakim celu powstała Ustawa o sztucznej inteligencji? Przede wszystkim w celu bezpieczeństwa i uregulowania podstawowych praw osób, które wchodzą w interakcje z systemami AI. Środowisko sztucznej inteligencji wciąż jest jak podwórko bez żadnych konkretnych zasad, można na nim robić, co i kiedy się chce (prawie). To wymaga kontroli. Ustawa ma zapewnić sprawiedliwe środowisko do wdrażania technologii sztucznej inteligencji, jak również w późniejszych etapach korzystania z niej. Sztuczna inteligencja ma być technologią działającą etycznie, odpowiedzialnie i w dobrym interesie użytkownika, a także całego społeczeństwa.
Ustawa o AI dotknie pracodawców
Dokładnie o nich też chodzi, czyli o tych, którzy odpowiadają za wdrożenie i wykorzystywanie sztucznej inteligencji w organizacjach. To właśnie pracodawców dotyczą wytyczne zawarte w Ustawie o AI, oczywiście nie tylko. Dokładnie zapoznać muszą się z nią też twórcy systemów, którzy nie będą już mieli tak dużej swobody ich projektowania. Od teraz ich działania będą zdecydowanie bardziej ograniczone. Wracając jednak do pracodawców…
Rynek pracy z każdym kolejnym miesiącem jest narażony na zmiany, na co wpływ ma wiele czynników środowiskowych, społecznych, gospodarczych i technologicznych. Podlega on ciągłym procesom zmian, na co mamy mniejszy lub większy wpływ, a niekiedy żaden. Sztuczna inteligencja mocno namieszała na rynku pracy. Przede wszystkim widzimy w niej poważnego konkurenta, który już zabrał prace wielu osobom. Sztuczna inteligencja przecież nie tyle jest w stanie zastąpić człowieka, ale na pewno w znaczącym stopniu usprawnić niektóre działania, które do tej pory były wykonywane ludzką ręką. Tym razem jednak chodzi o drugą stronę, czyli nie o tych, którzy tę pracę dostają i wykonują, ale o tych, którzy ją dają.
Ustawa o sztucznej inteligencji nakłada na pracodawców konkretne obowiązki związane z wdrożeniem i korzystaniem z systemów AI. Należy wiedzieć, że te systemy uważane są za narzędzia „wysokiego ryzyka”, zatem muszą podlegać konkretnym regulacjom. Jak wynika z aktu o AI, pracodawca musi:
Informować pracowników i wszystkich tych, którzy będą mieli kontakt z systemami sztucznej inteligencji, że będą oni nimi objęci. Pracownicy mają prawo wiedzieć, że firma korzysta z systemu AI i w jakim celu go wykorzystuje np. do rekrutacjiZatrudnić lub oddelegować konkretną osobę do nadzorowania systemu sztucznej inteligencji. Musi ona posiadać odpowiednie kompetencje, wiedzę i umiejętności
Na bieżąco monitorować korzystanie z systemu AI. W razie pojawienia się jakichkolwiek problemów, jak np. dyskryminacja musi zaprzestać korzystania z systemu, a także powiadomić o tym fakcie dostawcę technologii Przechowywać logi, które są automatycznie generowane przez system przez okres przynajmniej 6 miesięcy Stosować się do przepisów dotyczących ochrony danych osobowychCo ważne, im wyższe ryzyko związane z narzędziem, tym bardziej restrykcyjne zasady obowiązują pracodawcę. Zatem każdy przypadek powinien być rozpatrywany indywidualnie, co może nieco utrudniać ocenę, czy dana organizacja stosuje się do zasad Ustawy. Na pewno jednak zmieni się podejście do technologii sztucznej inteligencji. Pracownicy będą bardziej świadomi, z czego i dlaczego korzystają, a także jaki to ma wpływ na efekty działań, których dotyczą. Aktualnie jest wiele niewiadomych. Firmy korzystają z „jakiś” systemów, które mają „coś” usprawniać. Zdarza się, że pracownicy nawet nie są świadomi, że są poddawani procesom, które zachodzą we współpracy ze sztuczną inteligencją. Problemem nie jest sama niewiedza, a raczej to, w jaki sposób postrzegamy AI. Mówi się o niej zarówno w kontekście szansy, jak i zagrożenia, ale w obliczu niewiedzy i nieświadomości, najczęściej szala przechyla się na tę negatywną stronę i pojawia się wiele znaków zapytania, czy właściwie jestem bezpieczny i czy pracodawca zapewnia mi właściwą ochronę.
4 kategorie ryzyka w Ustawie o AI
Ważne – każdy system sztucznej inteligencji, który będzie wprowadzany na rynek, będzie podlegał Ustawie o AI. Tak, koniec swobody i robienia wszystkiego bez żadnych hamulców, będą obowiązywały zasady. Zatem wszystkie systemy, czy to od lokalnego dewelopera czy też od globalnego giganta technologicznego, będą musiały spełniać te same zasady bezpieczeństwa i standardy etyczne.
Zgodnie z Ustawą o AI będą obowiązywały 4 kategorie ryzyka:
Ryzyko niedopuszczalne – jeśli jakiś system zostanie zakwalifikowany do tej kategorii, to nie będzie mógł on zostać dopuszczony do użytku, jego wykorzystywanie w organizacjach będzie zakazane. To te technologie, które maja wyrządzać ogromne szkody dotyczące m.in. manipulowania zachowaniami człowieka poprzez wykorzystywanie ich słabych punktów czy też przesyłanie odpowiednich wiadomości. Do tych systemów zaliczamy narzędzia zaangażowane w scoring społeczny, czyli ocenę osób na podstawie ich zachowań społecznych Ryzyko wysokie – te systemy podlegają najbardziej rygorystycznym przepisom. Oznacza to, że można z nich korzystać, ale na konkretnych zasadach. Dotyczy to systemów AI, które są wykorzystywane np. w aplikacjach, które maja duże znaczenie dla bezpieczeństwa, czyli m.in. przy identyfikacji biometrycznej. Zwraca się przy nich szczególną uwagę na przejrzystość, ludzki nadzór i dobre praktyki ograniczające ryzyko Ryzyko ograniczone – systemy zakwalifikowane do tej grupy objęte są standardami w zakresie przejrzystości. Nie podlegają jednak tak restrykcyjnym regulacjom, jak narzędzia obarczone wysokim ryzykiem. W tym przypadku chodzi o systemy, w których ujawniana jest interakcja z użytkownikiem np. chatbotów Ryzyko niskie – do tej grupy kwalifikują się systemy o ryzyku niskim, a nawet braku ryzyka dla osób fizycznych. Podlegają zdecydowanie mniejszym regulacjom i nie wymagają tak szerokiego nadzoru, ponieważ mają znikomy wpływ na zdrowie, bezpieczeństwo i podstawowe prawa człowiekaZa nieprzestrzeganie przepisów aktu o AI grożą wysokie kary
To nie jest tak, że Ustawa o AI będzie tylko wskazówkami, do których można się stosować. Za nieprzestrzeganie zasad w niej zawartych będą odpowiednie, wcale niemałe kary. Co więcej, przepisy te mają dotyczyć nie tylko organizacji posiadających fizyczną obecność na terenie Unii Europejskiej, ale również tych pracodawców, którzy korzystają z systemów AI z danymi wyjściowymi przeznaczonymi do użytku na obszarze UE. Wcale więc firma nie musi być z kraju członkowskiego.
A co z karami? Będą wysokie i trzeba się spodziewać, że egzekwowanie przestrzegania praw będzie na pewno funkcjonowało niczym mechanizm w szwajcarskich zegarku. Przewidziano kary w wysokości od 7,5 mln EUR lub 1,5% całkowitego rocznego światowego obrotu firmy do 35 mln EUR lub 7% całkowitego rocznego światowego obrotu firmy. Pod uwagę będzie brana wartość wyższa. Trzeba przyznać, że pracodawcom nie opłaca się ryzyko dopuszczania do użytku w firmie podejrzanych systemów. Może to spowodować, że dobrą praktyką stanie się dokładne sprawdzanie narzędzi, z których pracownicy już korzystają i będą korzystać w firmie. Poza tym pracodawcy będą zmuszeni zainwestować w nadzór nad takimi narzędziami, aby były cały czas zgodne ze zmieniającymi się wytycznymi.
To się już dzieje i trzeba przyznać, że władze Unii Europejskiej szybko odpowiedziały na chaos, jaki zrobił się wokół systemów sztucznej inteligencji. I słusznie, ponieważ korzystanie z nich bez wątpienia wymaga regulacji, podobnie jak było to z ochroną danych osobowych i RODO. Miejmy tylko nadzieję, że Ustawa ostatecznie zostanie klepnięta, bo na chwilę obecną to wciąż regulacje prawne pozostające w zawieszeniu.