Doszło do porozumienia w sprawie „AI Act”, czyli ustawy regulującej używanie sztucznej inteligencji.
Powstały regulacje uwzględniające system zarządzania, przeznaczenie, ocenę ryzyka oraz zakazy stosowania.
Niestety nie zostały zwarte 2 ważne kwestie, które mają znaczący wpływ na funkcjonowanie AI.
Już od jakiegoś czasu mówi się o tym jak sztuczna inteligencja rozwija się w zawrotnym tempie. Jej możliwości jednych zachwycają, a innych przerażają. Dzięki odpowiednim narzędziom możecie wygenerować realnie wyglądających ludzi, czy nawet stworzyć fałszywą wypowiedź na bazie próbki głosu konkretnej osoby.
Takie materiały mogą zostać wykorzystane zarówno jako żart czy rozrywka albo zagrozić czyjemuś wizerunkowi czy karierze. Jedno jest pewne, powstaje ustawa mająca na celu uregulowanie jakie działania są dozwolone przy użyciu AI. Ta po 2 latach od zaproponowania w końcu rusza z miejsca, ale czy na dobre?
Pierwsze porozumienia
W zeszłym tygodniu doszło do porozumienia pomiędzy Parlamentem Europejskim, a Radą Europejską. Ustanowione zostały obowiązki dotyczące systemów sztucznej inteligencji ogólnego przeznaczenia nad którymi będzie czuwać GPAI (Global Partnership on Artificial Intelligence).
Ma być nadzorowane czy spełniane są określone kryteria, takie jak oceny ryzyka, testy kontradyktoryjne (testy sprzeczności), raporty o wszelkich incydentach i nie tylko. Samo działanie systemu musi być przejrzyste, dlatego też niezbędne będzie tworzenie dokumentów technicznych i „szczegółowych podsumowań treści wykorzystywanych do szkoleń”.

Wszystko to w myśl kierowania odpowiedzialnym rozwojem i wykorzystaniem sztucznej inteligencji w sposób szanujący prawa człowieka i wspólne wartości demokratyczne jej członków. Jednocześnie ma być możliwy wzrost innowacyjności i utorowanie drogi, aby Europa była liderem w tej dziedzinie.
Dla bezpieczeństwa obywateli UE wspólnie podjęto decyzję o zakazie używania:
- systemu kategoryzacji biometrycznej wykorzystującej wrażliwe cechy (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę);
- nieukierunkowanego pobierania wizerunków twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych umożliwiających rozpoznawanie twarzy;
- rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych;
- punktacji społeczna opartych na zachowaniach społecznych lub cechach osobistych;
- systemów sztucznej inteligencji manipulujących ludzkimi zachowaniami w celu obejścia ich wolnej woli;
- sztucznej inteligencji do wykorzystywania słabości ludzi (ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).
To tylko fragment regulacji, które mają obowiązywać w segmencie dotyczącym AI. Jeśli jesteście ciekawi co jeszcze zostało tam umieszczone, to możecie przeczytać resztę na stronie Parlamentu Europejskiego.
Co będzie leżeć w obowiązkach firm?
Jednak nie znajdziecie tam ustaleń odnośnie wymagań jakie mają zostać nałożone na firmy udostępniające sztuczną inteligencję do użytkowania.
„W bardzo krótkiej perspektywie kompromis w sprawie unijnej ustawy o sztucznej inteligencji nie będzie miał dużego, bezpośredniego wpływu na uznanych projektantów sztucznej inteligencji z siedzibą w USA, ponieważ zgodnie z jego warunkami prawdopodobnie zacznie obowiązywać dopiero w 2025 r.”
Najwięksi giganci dostarczający usługi oparte o AI to: OpenAI, Microsoft, Google i Meta. Ci wszyscy będą zapewne zacięcie walczyć w najbliższym czasie. Chociażby ze względu na fakt, że nie ustalono jeszcze żadnych konkretnych nakazów i zakazów wycelowanych bezpośrednio w ich stronę. Mowa jedynie o klarowności i przejrzystości wymaganych od firm.

Wprowadzane przepisy w UE mogą być podstawą dla innych krajów w tym USA, aby stworzyć własne ustawy. Jednak nie wiadomo jak szybko dojdzie do podjęcia rozmów i działań w Stanach Zjednoczonych.
Spór i złagodzenie rygoru
Szybki rozwój AI sprawił, że regulowanie działań w jej zakresie stało się skomplikowane. Coraz więcej możecie zrobić przy użyciu sztucznej inteligencji, co niesie ogromne ryzyko z tym związane. Musiały powstać rygorystyczne przepisy, co niestety wzbudziło obawy niektórych państw członkowskich. Między innymi, że UE będzie mało zachęcającym rynkiem dla rozwoju AI.
W związku z tym niektóre przepisy zostały złagodzone w porównaniu z ich pierwszą wersją jak chociażby wprowadzono dwupoziomowy system identyfikacji AI oraz wyjątki dla organów ścigania, kiedy mogą wykorzystać AI do takich działań jak zdalna identyfikacja biometryczna.

Niezgodność powstała również w kwestii wykorzystywania pozornie publicznych danych, ale jednak mogących mieć charakter wrażliwych czy nawet chronionych prawem autorskim. Niestety na ten moment nie doszło do ustanowienia nowych przepisów w tej kwestii, zatem aktualnie firmy muszą przestrzegać jedynie wytycznych RODO. Jednak te mogą nie być gotowe na wyzwania związane z wykorzystywaniem danych przez sztuczną inteligencję.
Ustawa Unii Europejskiej o sztucznej inteligencji ma przypuszczalnie nie nakładać surowych kar na twórców oprogramowania open source, badaczy czy mniejsze firmy pracujące na dalszych etapach tworzenia.
Stworzone ustalenia mają być drogowskazem dla krajów wchodzących w skład Unii Europejskiej oraz innych krajów w zakresie używania sztucznej inteligencji. Przyszłe oprogramowania będą musiały dostosować się do ustawy i jej wymogów. Jednak prawdopodobnie dopiero za 2 lata od momentu wejścia w życie. Do tego czasu jej treść może się jeszcze zmienić.
Źródło: Rada Europejska, Parlament Europejski, The Verge
Dodaj komentarz