Unia Europejska postanowiła wprowadzić takie regulacje dotyczące sztucznej inteligencji, by z jednej strony zapewnić jej rozwój i możliwość wykorzystania, z drugiej - by zarówno ten rozwój jak i wykorzystywanie odbywało się w odpowiednich, bezpiecznych warunkach. Pierwsze ramy prawne pojawiły się już w kwietniu 2021 r. Proponowane przepisy różnicują możliwość wykorzystywania sztucznej inteligencji w zależności od ryzyka, które wiąże się z tym stosowaniem dla użytkowników. Poziom ryzyka ma być decydujący dla przypisania określonych obowiązków - im wyższe ryzyko, tym obowiązków więcej.
Europejskie standardy w zakresie sztucznej inteligencji
Rozwój jest nieunikniony i żadne ramy prawne nie będą w stanie go powstrzymać. Pojawienie się sztucznej inteligencji dostępnej niemalże dla każdego sprawiło jednak, że potrzeba dyskusji o prawnych ramach jej stosowania stała się niezwykle pilna. Jej efektem jest pierwszy akt prawny regulujący kwestię stosowania sztucznej inteligencji na terenie Unii Europejskiej.
Zobacz także: Oferty wsparcia dla firm z Funduszy Europejskich
Parlament Europejski określił pewne warunki używania AI na terenie Unii Europejskiej. Jej używanie ma być:
a) bezpieczne
b) przejrzyste
c) identyfikowalne
d) niedyskryminujące
e) przyjazne dla środowiska.
Przede wszystkim ma powstać neutralna technologicznie definicja sztucznej inteligencji. Założeniem jest także, by to ludzie nadzorowali systemy oparte na sztucznej inteligencji, co ma być gwarancją zapobiegania negatywnych skutków.
Zakazane systemy AI
Ważne: Zakazane będą takie systemy sztucznej inteligencji, które zostaną sklasyfikowane jako niedopuszczalne ryzyko, a więc których używanie będzie stanowiło zagrożenie dla ludzi.
Zobacz także: Rada Ministrów przyjęła Strategię Produktywności 2030
Na liście zakazanych systemów AI znalazł się więc systemy działające w zakresie:
- poznawczo-behawioralnej manipulacji ludźmi lub określonymi wrażliwymi grupami - jako przykład podano natomiast aktywowane głosem zabawki, które miałyby zachęcać do określonych zachowań, postrzeganych jako niebezpieczne
- klasyfikacji produktowej tzw. scoring obywateli - czyli klasyfikacja na podstawie statusu społeczno-ekonomicznego, konkretnych zachowań i osobistych cech
- identyfikacji biometrycznej, które działają zarówno w czasie rzeczywistym jak i zdalnie między innymi dotyczy to rozpoznawania twarzy. Przepisy zastrzegają jednak pewien wyjątek - mają być dopuszczalne takie zdalne systemy identyfikacji biometrycznej, które będą rozpoznawać ze znacznym opóźnieniem i będą wykorzystywane do ścigania poważnych przestępstw, przy czym wymagana do ich zastosowania będzie zgoda sądu.
Zobacz także: Wsparcie dla firm z sektora MŚP na rozwój pracy zdalnej
Wysokie ryzyko
Systemy AI, które znalazły się w kategorii wysokiego ryzyka, są rozumiane jako negatywnie wpływające na bezpieczeństwo lub podstawowe prawa. Wśród nich wyróżniono dwie kategorie:
a) systemy stosowane w produktach, które zostały objęte przepisami dotyczącymi bezpieczeństwa produktów (takie jak: lotnictwo, samochody, urządzenia medyczne, windy czy zabawki)
b) osiem kategorii systemów, które będą musiały zostać zarejestrowane w unijnej bazie danych. Do kategorii tych należy:
- zarządzanie infrastrukturą krytyczną i jej eksploatacja
- identyfikacja i kategoryzacja osób fizycznych na podstawie danych biometrycznych
- zatrudnianie pracowników, zarządzanie nimi a także dostęp do samozatrudnienia
- szkolenie i edukacja zawodowa
- ściganie przestępstw
- zarządzanie migracją, azylem i kontrolą granic
- dostęp oraz korzystanie z usług prywatnych oraz publicznych a także z korzyści publicznych
- pomoc w interpretacji prawnej, a także stosowanie prawa.
Ocena systemów AI należących do kategorii wysokiego ryzyka ma się odbywać zarówno przed wprowadzeniem na rynek, jak i podczas całego okresu ich używania.
Chat GPT
Niezwykle popularny stał się Chat GPT. Jest to narzędzie należące do generatywnej sztucznej inteligencji, rozumianej jako systemy tworzące nowe treści (systemy audio, obrazy, teksty czy filmy). Zgodnie z nową regulacją, tego rodzaju systemy będą musiały spełnić określone wymogi w zakresie przejrzystości, m.in.:
a) nie mogą generować nielegalnych treści
b) muszą podawać informację o tym, że treść jest wygenerowana przez sztuczną inteligencję.
Informacja opublikowana na oficjalnej stronie internetowej Parlamentu Europejskiego - portal europarl.europa.eu
