Na wstępie zaznaczę, że znajdują się w nim tylko państwa, które uznałem za kluczowe na danym kontynencie. Natomiast jeśli chodzi o treść to przypominam, że przepisy dynamicznie ulegają zmianie, więc nie wszystkie z tych informacji muszą być aktualne w momencie, w którym czytasz ten artykuł, więc polecam nie brać wszystkiego za pewnik.
Źródła: White & Case, iapp, Dentons, Diplomacy, White & Case, White & Case, Chambers and Partners, AI Watch, gov.pl
Europa

Polska
Polska, w kontekście regulacji sztucznej inteligencji (AI), wykazuje tendencję do harmonizacji swojego podejścia z szerokimi regulacjami Unii Europejskiej. Równocześnie można zauważyć, że Polska stara się dostosować do wymogów unijnych, proponując własny projekt ustawy o systemach sztucznej inteligencji, który koncentruje się na zapewnieniu bezpieczeństwa oraz ochrony praw obywatelskich. Przykładem tego jest przyjęcie Rozporządzenia w sprawie AI przez Parlament Europejski, które ma na celu stworzenie jednolitego środowiska prawnego dla AI w całej Unii, w tym także w Polsce.
Podczas gdy Unia Europejska przyjmuje restrykcyjne podejście do AI, wprowadzając zasady oparte na ocenie ryzyka, zakazując niektórych systemów AI oraz stawiając wymagania dotyczące systemów wysokiego ryzyka, Polska również kładzie nacisk na bezpieczeństwo i ochronę praw obywatelskich w swoim projekcie ustawy. W szczególności polskie regulacje mają na celu wspieranie innowacji, co jest zgodne z celami Unii Europejskiej, która dąży do harmonizacji przepisów i ochrony użytkowników.
Polska może jednak wciąż potrzebować dostosować swoje przepisy do już przyjętych regulacji unijnych, aby w pełni sprostać wymaganiom określonym w AI Act oraz innym powiązanym aktom prawnym, takim jak GDPR czy DSA.
W porównaniu do intensywności działań Unii Europejskiej, która wprowadza szczegółowe przepisy dotyczące AI w oparciu o zharmonizowane zasady, Polska wciąż jest na etapie rozwijania swoich regulacji. W związku z tym, chociaż Polska podejmuje kroki w kierunku regulacji AI, jej działania mogą być postrzegane jako mniej intensywne i bardziej ukierunkowane na dostosowanie się do unijnych standardów, niż jako autonomiczne i samodzielne przedsięwzięcie.
W Polsce powstało kilka organów i instytucji, które mają zajmować się zagadnieniami związanymi z sztuczną inteligencją. Wśród nich znajduje się Zespół ds. Sztucznej Inteligencji, powołany przez Ministerstwo Cyfryzacji, który składa się z przedstawicieli administracji publicznej, przemysłu oraz nauki. Jego celem jest koordynacja działań związanych z rozwojem i wdrażaniem AI w kraju. Ponadto planuje się utworzenie Instytutu Sztucznej Inteligencji, który zajmowałby się badaniami, rozwojem technologii oraz wsparciem innowacji w tej dziedzinie. Również Urząd Ochrony Danych Osobowych (UODO) pełni istotną rolę, nadzorując regulacje dotyczące AI, zwłaszcza w kontekście ochrony danych osobowych. Wspierające projekty badawcze oraz innowacyjne inicjatywy związane z AI, realizowane są przez Narodowe Centrum Badań i Rozwoju (NCBR) oraz Polską Akademię Nauk (PAN), która prowadzi badania w tym obszarze.

Unia Europejska
Co prawda Unia Europejska to nie państwo, ale koniecznie trzeba wyodrębnić ten sojusz w tym raporcie. UE przyjmuje restrykcyjne podejście do sztucznej inteligencji (AI), zwłaszcza w kontekście zapewnienia bezpieczeństwa i ochrony praw obywateli. Działania UE są intensywne i szeroko zakrojone, szczególnie w porównaniu do innych państw i regionów. W grudniu 2023 roku zakończył się etap polityczny prac nad Aktami AI (AI Act), który ustanawia jednolite przepisy dotyczące wprowadzenia AI na rynek unijny, mające zastosowanie zarówno w UE, jak i wobec dostawców z krajów trzecich. Kluczową częścią tej regulacji jest podejście oparte na ryzyku, które zakazuje stosowania niektórych systemów AI i stawia szczególne wymagania wobec tzw. systemów wysokiego ryzyka, zapewniając tym samym wspólne zasady dotyczące przejrzystości i bezpieczeństwa. W porównaniu z innymi państwami, UE intensywnie działa na rzecz uregulowania AI, w szczególności w zakresie harmonizacji przepisów i ochrony praw użytkowników.
W grudniu 2023 roku zakończono etap trilogu politycznego w sprawie AI Act w Unii Europejskiej, co oznacza osiągnięcie porozumienia między Komisją Europejską, Radą i Parlamentem. Ustawa wprowadza:
- Zharmonizowane zasady dotyczące wprowadzania systemów AI na rynek UE.
- Regulacje obowiązujące zarówno w UE, jak i wobec dostawców z krajów trzecich oferujących AI na rynku europejskim.
- Podejście oparte na ocenie ryzyka.
- Zakaz używania niektórych systemów AI i określenie wymagań dla systemów wysokiego ryzyka.
- Zasady przejrzystości dla wybranych systemów AI.
W 2018 roku Komisja Europejska opublikowała komunikat w sprawie podejścia do AI w Europie, który uzyskał wsparcie Parlamentu, Rady, Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów.
Odpowiedzialność za regulacje i nadzór nad AI w UE spoczywa na przyszłej Europejskiej Radzie ds. AI, a także na już istniejących instytucjach takich jak:
- Europejska Rada Ochrony Danych,
- Specjalna Komisja ds. AI w erze cyfrowej,
- Narodowe organy ochrony danych w poszczególnych państwach członkowskich, takie jak m.in. CNIL we Francji, Urząd Ochrony Danych Osobowych w Polsce, a także inne krajowe agencje, np. Hiszpańska Agencja ds. Nadzoru nad AI.
Ważne regulacje prawne, które współgrają z AI Act, to m.in.:
- Ogólne rozporządzenie o ochronie danych (GDPR),
- Akt o usługach cyfrowych (DSA),
- Akt o rynkach cyfrowych (DMA),
- Dyrektywa o odpowiedzialności za AI (projekt),
- Akt o odporności cybernetycznej (projekt),
- Wytyczne dotyczące etyki i zaufania w AI.
UE jest także stroną zasad AI OECD oraz brała udział w szczycie AI w Wielkiej Brytanii w 2023 roku, zakończonym przyjęciem Deklaracji z Bletchley. Unia Europejska przyjęła również Rekomendację UNESCO dotyczącą etyki AI. Ważnym elementem strategii UE jest także Skorelowany Plan dotyczący AI, który powstał w 2018 roku i został zaktualizowany w 2021 roku. Plan ten podkreśla współpracę międzynarodową, szkolenia oraz przygotowanie rynku pracy na wyzwania związane z AI.
W styczniu 2024 roku Komisja Europejska ogłosiła utworzenie Biura ds. AI w UE, które ma koordynować politykę AI na poziomie europejskim oraz nadzorować wdrażanie i egzekwowanie przepisów nadchodzącego AI Act.

Wielka Brytania
Wielka Brytania przyjmuje podejście proporcjonalne i kontekstowe do regulacji sztucznej inteligencji (AI), bazując na istniejących przepisach sektorowych, które mają na celu ustanowienie odpowiednich zabezpieczeń dla systemów AI. Rząd brytyjski promuje innowacyjne podejście do regulacji AI, a w tym zakresie dostępne są różne zasoby, takie jak:
- Proinnowacyjne podejście do regulacji AI,
- Algorytmiczne standardy przejrzystości,
- Hub standardów AI, nowa brytyjska inicjatywa dedykowana rozwojowi i internacjonalizacji standardów technologii AI,
- Przewodnik dotyczący używania AI w sektorze publicznym,
- Przewodnik rządowy na temat etyki i bezpieczeństwa AI,
- Raport badawczy Centrum Etyki Danych i Innowacji dotyczący zarządzania AI,
- Wytyczne dotyczące ram audytowych AI opracowane przez Biuro Komisarza Informacji,
- Przewodnik ICO i Instytutu Alana Turinga dotyczący wyjaśniania decyzji podejmowanych przy użyciu AI.
W kontekście odpowiednich organów, w Zjednoczonym Królestwie funkcjonują:
- Biuro AI,
- Biuro Komisarza Informacji,
- Forum Współpracy Regulacyjnej w Zakresie Cyfrowym,
- Urząd ds. Regulacji Finansowej,
- Rada AI,
- Departament Nauki, Innowacji i Technologii.
Istnieje także wiele obowiązujących przepisów, takich jak Ustawa o Ochronie Danych Osobowych, Ustawa o Ochronie Konsumentów, czy Ustawa o Rynkach Usług Finansowych. W projekcie znajduje się również Ustawa o Regulacji AI.
W szerszym kontekście, Wielka Brytania jest stroną zasad OECD dotyczących AI oraz przyjęła zalecenia UNESCO w zakresie etyki AI. Kraj zorganizował w 2023 roku szczyt AI, który doprowadził do powstania Deklaracji Bletchley. Jako część G7, Wielka Brytania poparła również 11 międzynarodowych zasad dotyczących zaawansowanych systemów AI.
W ramach działań mających na celu rozwój AI, rząd brytyjski planuje uruchomienie krajowego programu badań i analiz w zakresie AI, rozwijanie zróżnicowanej siły roboczej w dziedzinie AI, zapewnienie lepszej dostępności danych oraz stworzenie krajowej strategii dla AI w zakresie zdrowia i opieki społecznej. Ponadto planowane jest wykorzystanie AI do łagodzenia zmian klimatycznych, pilotaż hubu standardów AI oraz rozwój ogólnokrajowych standardów przejrzystości algorytmicznej.
Dzięki tym działaniom Wielka Brytania staje się jednym z wiodących krajów w dziedzinie regulacji i innowacji związanych z AI, co czyni ją relatywnie intensywnym graczem na arenie międzynarodowej w porównaniu do innych państw.
Ameryka Północna

USA
Stany Zjednoczone mają umiarkowane podejście do regulacji sztucznej inteligencji, które nie można określić jako restrykcyjne. W porównaniu do innych krajów, działania USA w zakresie AI są relatywnie intensywne, co przejawia się w licznych inicjatywach i legislacji, mających na celu zapewnienie amerykańskiego przywództwa w badaniach oraz rozwoju AI. Amerykański rząd wprowadził wiele ram i wytycznych dotyczących AI, aby kontrolować jej zastosowanie przez rząd oraz zachować przewagę na arenie międzynarodowej. W maju 2023 roku administracja Biden-Harris zaktualizowała Krajowy Plan Strategiczny Badań i Rozwoju AI, podkreślając znaczenie współpracy międzynarodowej w tym obszarze.
Biuro ds. Nauki i Technologii wydało prośbę o informacje, aby uzyskać opinie publiczne na temat wpływu AI, a Krajowa Administracja Telekomunikacji i Informacji zbierała opinie na temat polityk, które mogą budować zaufanie do systemów AI poprzez prośbę o komentarz w sprawie polityki odpowiedzialności AI. Do specyficznych regulacji dotyczących AI należą zamówienia wykonawcze, takie jak: Utrzymanie Przywództwa Ameryki w AI, Promowanie Użycia Godnej Zaufania AI w Rządzie Federalnym oraz Bezpieczny, Pewny i Odpowiedzialny Rozwój i Wykorzystanie AI. Wśród aktów prawnych znajdują się Ustawa o Szkoleniu w Zakresie AI, Ustawa o Krajowej Inicjatywie AI oraz Ustawa o AI w Rządzie, które są już w mocy, a także projekty ustaw dotyczące Odpowiedzialności Algorytmicznej i Komisji AI.
Władze odpowiedzialne za te działania obejmują Biuro ds. Nauki i Technologii, Biuro Krajowej Inicjatywy AI, Federalną Komisję Handlu, Biuro Ochrony Konsumentów, Departament Sprawiedliwości oraz Krajową Komisję ds. Równości Zatrudnienia. Do innych istotnych przepisów należy Ustawa FTC, Sekcja 5, Ustawa o Sprawiedliwym Raportowaniu Kredytowym, Ustawa o Równych Szansach Kredytowych, Ustawa o Tytule VII Ustawy o Prawach Obywatelskich oraz Ustawa o Niepełnosprawnych Amerykanach.
USA są stroną zasad AI OECD i uczestniczyły w Szczycie AI w Wielkiej Brytanii w 2023 roku, co doprowadziło do Deklaracji Bletchley. Kraj ten również przyjął Zalecenie UNESCO dotyczące Etyki AI i jako część G7 poparł 11 Międzynarodowych Zasad Przewodnich Procesu Hiroshima dotyczących zaawansowanych systemów AI. Ogólnie rzecz biorąc, podejście USA do zarządzania AI ma charakter powolny i stopniowy, koncentrując się na ochronie praw cywilnych i ludzkich podczas wdrażania AI oraz mobilizowaniu współpracy międzynarodowej, która promuje wartości demokratyczne i wzajemny rozwój.
Dodatkowo, amerykański Instytut Bezpieczeństwa AI oraz wysłuchania na temat legislacji dotyczącej AI, zorganizowane przez Podkomisję ds. Prywatności, Technologii i Prawa Senatu USA, pokazują zaangażowanie w tę dziedzinę. Senatorowie USA spotkali się z przedstawicielami przemysłu technologicznego w ramach zamkniętej sesji na temat regulacji AI, zwanej Forum Wglądu AI. Inicjatywa Singapore VerifyAI, znana jako „crosswalk”, została zaprezentowana na inauguracyjnym Dialogu USA-Singapur dotyczącego krytycznych i wschodzących technologii, łącząc system weryfikacji AI z amerykańskim Ramowym Zarządzaniem Ryzykiem AI NIST.

Kanada
Kanada przyjmuje dość restrykcyjne podejście do regulacji sztucznej inteligencji (AI), szczególnie w kontekście ochrony praw obywateli przed ryzykownymi systemami AI oraz zapewnienia odpowiedzialnego rozwoju tej technologii. W porównaniu z innymi krajami, działania Kanady są intensywne i obejmują szeroką gamę inicjatyw prawnych oraz politycznych, co podkreśla jej zaangażowanie w stworzenie bezpiecznego i etycznego ekosystemu AI. Zaproponowana ustawa AI and Data Act, będąca częścią większego projektu ustawy (Bill C-27), wprowadza konkretne zasady mające na celu ograniczenie nieodpowiedzialnych i złośliwych zastosowań AI, a także ustanawia mechanizmy egzekwowania prawa. Wprowadzenie kodeksu postępowania dla generatywnej AI oraz dyrektywa dotycząca automatycznego podejmowania decyzji dodatkowo świadczą o proaktywnym podejściu kraju do regulacji w tej dziedzinie. Działania Kanady, takie jak zakładanie instytutów badawczych, współpraca międzynarodowa i plany stworzenia ekosystemu AI, stawiają ją w czołówce globalnych wysiłków na rzecz zrównoważonego rozwoju AI.
Kanada planuje wprowadzić ustawę o AI i danych (AI and Data Act), będącą częścią Bill C-27, której celem jest ochrona Kanadyjczyków przed systemami wysokiego ryzyka, zapewnienie odpowiedzialnego rozwoju AI oraz promowanie kanadyjskich wartości i firm w globalnym rozwoju AI. Ustawa ma na celu:
- Zagwarantowanie, że systemy AI o dużym wpływie spełniają istniejące wymogi dotyczące bezpieczeństwa i praw człowieka.
- Zakazanie nieodpowiedzialnych i złośliwych zastosowań AI.
- Umożliwienie Ministrowi Innowacji, Nauki i Przemysłu egzekwowanie przepisów.
W oczekiwaniu na przyjęcie ustawy o AI i danych, Kanada opublikowała kodeks postępowania dotyczący rozwoju i wykorzystania generatywnej AI, aby zapewnić zgodność z nowymi regulacjami. Kraj ten wydał także Dyrektywę dotyczącą automatycznego podejmowania decyzji, która narzuca szereg wymagań na systemy automatycznego podejmowania decyzji wykorzystywane przez rząd federalny.
Do głównych organów odpowiedzialnych za regulacje w zakresie AI należą Ministerstwo Innowacji, Nauki i Rozwoju Gospodarczego, Kanadyjski Instytut Badań Zaawansowanych, Biuro Komisarza ds. Prywatności Kanady oraz Stały Komitet Izby Gmin ds. Przemysłu, Nauki i Technologii. W Kanadzie obowiązują również przepisy, takie jak Ustawa o ochronie prywatności, Ustawa o bezpieczeństwie produktów konsumpcyjnych, Kodeks karny i wiele innych, które w różnym stopniu mają zastosowanie do AI.
Kanada uczestniczy także w globalnych inicjatywach, takich jak zasady AI przyjęte przez OECD, szczyt AI w Wielkiej Brytanii w 2023 roku, który zakończył się przyjęciem Deklaracji z Bletchley, oraz proces G7 w Hiroszimie dotyczący zaawansowanych systemów AI. Kraj ten przyjął również Rekomendację UNESCO dotyczącą etyki AI. Kanada dąży do stworzenia ekosystemu AI opartego na doskonałości naukowej, współpracy publiczno-prywatnej i technologii przynoszących pozytywne zmiany społeczne, gospodarcze i środowiskowe. Aby osiągnąć te cele, powstały trzy instytuty badawcze: Amii w Edmonton, Mila w Montrealu oraz Vector Institute w Toronto.
Dodatkowo, Stały Komitet Izby Gmin ds. Przemysłu, Nauki i Technologii wydał w 2019 roku raport z zaleceniami dotyczącymi AI, a w prowincji Ontario proponowana jest nowelizacja Ustawy na rzecz pracowników, która wymagałaby od firm ujawnienia, czy korzystają z AI w procesach rekrutacyjnych.
Azja

Chiny
Chiny przyjmują bardzo restrykcyjne podejście do sztucznej inteligencji (AI), co jest widoczne w licznych przepisach i regulacjach, które już obowiązują w zakresie różnych zastosowań AI. Państwo to było jednym z pierwszych na świecie, które wdrożyło przepisy dotyczące AI, a obecnie chińscy ustawodawcy pracują nad kompleksowymi regulacjami dotyczącymi AI. Działania Chin w obszarze regulacji AI są wyjątkowo intensywne w porównaniu do innych krajów, co widać w szerokim zakresie obowiązujących regulacji dotyczących zarządzania rekomendacjami algorytmicznymi, usług generatywnej AI i głębokiej syntezy. Chiny starają się również aktywnie kształtować międzynarodowe zasady dotyczące AI, co potwierdzają ich działania na arenie międzynarodowej, takie jak udział w szczycie AI w Wielkiej Brytanii.
Chiny były jednym z pierwszych krajów, które wdrożyły regulacje dotyczące AI. Chińscy ustawodawcy obecnie pracują nad stworzeniem kompleksowego prawa regulującego AI. Istniejące regulacje i polityki dotyczą specyficznych zastosowań AI, w tym:
- Przepisy dotyczące zarządzania rekomendacjami algorytmicznymi,
- Tymczasowe środki zarządzania usługami generatywnej AI,
- Przepisy dotyczące zarządzania głęboką syntezą,
- Wytyczne dotyczące AI oraz podsumowanie obowiązujących regulacji,
- Regulacje dotyczące etyki naukowej i technologicznej,
- Plan rozwoju AI nowej generacji.
Za nadzór nad tymi kwestiami odpowiadają m.in. Administracja Cyberprzestrzeni Chin, Ministerstwo Przemysłu i Technologii Informacyjnych, Ministerstwo Bezpieczeństwa Publicznego, Państwowa Administracja Regulacji Rynku oraz Narodowa Komisja Rozwoju i Reform.
Inne ważne ustawy i przepisy, które mają wpływ na AI w Chinach, obejmują:
- Prawo o cyberbezpieczeństwie,
- Prawo o bezpieczeństwie danych,
- Prawo o ochronie danych osobowych,
- Regulację dotyczącą promocji przemysłu AI w specjalnej strefie ekonomicznej w Shenzhen.
Chiny są również stroną zasad AI OECD i brały udział w szczycie AI w Wielkiej Brytanii w 2023 roku, który zakończył się przyjęciem Deklaracji z Bletchley. Ponadto Chiny przyjęły Rekomendację UNESCO dotyczącą etyki AI. Warto również zwrócić uwagę na Plan rozwoju AI w Chinach oraz dokument Ministerstwa Nauki i Technologii z 2021 roku, który opisuje normy etyczne dotyczące stosowania AI.

Japonia
Japonia przyjmuje elastyczne podejście do sztucznej inteligencji (AI), promując koncepcję „agilnego zarządzania”, w której rząd oferuje nieobowiązkowe wskazówki i pozwala sektorowi prywatnemu na dobrowolne samoregulowanie się. W porównaniu do innych państw, Japonia prowadzi relatywnie intensywne działania w zakresie regulacji AI, wydając różne dokumenty i białe księgi, które mają na celu określenie zasad i wytycznych dotyczących rozwoju i wykorzystania AI.
W 2022 roku Japonia opublikowała Krajową Strategię AI, a w 2023 roku Rada Strategii AI przedstawiła projekt wytycznych dla operatorów AI, które wyjaśniają, w jaki sposób operatorzy powinni rozwijać, dostarczać i używać AI. W tym kontekście wydano następujące dokumenty:
- AI Governance in Japan Ver. 1.1.
- Wytyczne dotyczące wdrażania zasad AI.
- Wytyczne dotyczące wykorzystania AI, które są inicjatywą wdrożenia zasad AI OECD.
Wśród kluczowych instytucji odpowiedzialnych za regulację AI w Japonii znajdują się:
- Ministerstwo Gospodarki, Handlu i Przemysłu,
- Rada Nauki, Technologii i Innowacji,
- Komisja Ochrony Danych Osobowych,
- Komisja Sprawiedliwości Gospodarczej.
Japonia posiada również istotne przepisy prawne wpływające na regulację AI, w tym:
- Ustawę o poprawie przejrzystości i uczciwości platform cyfrowych,
- Ustawę o instrumentach finansowych i wymianie,
- Ustawę o ochronie danych osobowych,
- Ustawę antymonopolową,
- Ustawę o odpowiedzialności za produkt,
- Ustawę o prawie autorskim.
Japonia jest stroną zasad AI OECD i wzięła udział w Szczycie AI w Wielkiej Brytanii w 2023 roku, który zakończył się przyjęciem Deklaracji z Bletchley. Jako członek G7, Japonia poparła 11 Międzynarodowych Zasad Wiodących w zakresie zaawansowanych systemów AI. Kraj ten również przyjął Zalecenie UNESCO w sprawie etyki AI. Dodatkowo, Minister Edukacji, Kultury, Sportu, Nauki i Technologii, Keiko Nagaoka, zadeklarowała, że japońskie przepisy o prawie autorskim nie mogą być egzekwowane w odniesieniu do materiałów używanych w zbiorach danych do szkolenia AI. Ministerstwo Gospodarki, Handlu i Przemysłu wprowadziło również Wytyczne dotyczące umów w zakresie użycia AI i danych, które mają na celu pomoc stronom zaangażowanym w transakcje biznesowe związane z AI.

Indie
Indie prezentują relatywnie otwarte podejście do sztucznej inteligencji (AI), które skupia się na promowaniu innowacji i dostępu do technologii, a nie na restrykcjach. Działania Indii są intensywne, zwłaszcza w kontekście ich ambicji, aby stać się centrum AI dla rozwijających się gospodarek. Kraj ten dąży do stworzenia regulacji, które będą wspierać rozwój technologii, a nie je ograniczać. Przykładem jest planowane wprowadzenie Ustawy o Cyfrowych Indiach, która ma zastąpić Ustawę o IT z 2000 roku i regulować systemy AI wysokiego ryzyka. Rząd indyjski promuje środowisko „AI dla wszystkich”, które ma być inkluzywne i skoncentrowane na obywatelach.
W ramach swoich działań Indie ustanowiły zespół roboczy, którego celem jest formułowanie rekomendacji dotyczących etyki, prawa i problemów społecznych związanych z AI oraz utworzenie organu regulacyjnego ds. AI. Zgodnie z Krajową Strategią AI, Indie aspirują do stania się „warsztatem AI” dla krajów rozwijających się, oferując rozwiązania, które mogą być łatwo wdrażane i projektowane na potrzeby globalnego rynku.
Kluczowe instytucje zaangażowane w regulację AI w Indiach to:
- NITI Aayog (think tank rządowy),
- Ministerstwo Elektroniki i Technologii Informacyjnej,
- Ministerstwo Handlu i Przemysłu,
- Zespół ds. AI.
Do istniejących aktów prawnych, które mają wpływ na regulację AI, należą m.in.:
- Ustawa o technologii informacyjnej,
- Zasady dotyczące technologii informacyjnej,
- Ustawa o konkurencji,
- Ustawa o pojazdach mechanicznych,
- Ustawa o ochronie danych osobowych,
- Ustawa o prawie autorskim,
- Krajowy plan e-administracji.
Indie są stroną zasad AI OECD i uczestniczyły w Szczycie AI w Wielkiej Brytanii w 2023 roku, który zakończył się przyjęciem Deklaracji z Bletchley. Kraj ten również przyjął Rekomendację UNESCO w sprawie etyki AI. NITI Aayog uruchomił platformę badań, analityki i przyswajania wiedzy o AI, aby lepiej określić wymagania dotyczące AI w Indiach. Warto również wspomnieć o programie India AI, który jest inicjatywą Ministerstwa Elektroniki i Technologii Informacyjnej, mającą na celu rozwój i implementację technologii AI w kraju.

Zjednoczone Emiraty Arabskie
Zjednoczone Emiraty Arabskie (ZEA) mają unikalne i proaktywne podejście do regulacji sztucznej inteligencji (AI), co przejawia się w ustanowieniu w 2017 roku pierwszego na świecie ministerstwa AI. Rząd ZEA, za pośrednictwem Rady AI i Blockchain, dąży do stworzenia ekosystemu sprzyjającego AI, wspierając badania oraz przyspieszając współpracę między sektorem publicznym a prywatnym. Strategia Narodowa dla AI zakłada, że ZEA mają stać się centrum badań, innowacji, współpracy i edukacji w dziedzinie AI.
Dla wsparcia polityki w zakresie AI wydano szereg dokumentów, w tym:
- Krajowy Program AI,
- Zasady i Wytyczne Etyczne AI,
- Przewodnik po Generatywnej AI,
- Licencję na programowanie AI,
- Narzędzie samooceny etyki systemów AI,
- Wytyczne dotyczące wdrażania AI w usługach rządowych,
- Regulacje dotyczące przetwarzania danych osobowych w systemach autonomicznych i półautonomicznych w Dubai International Financial Centre.
W kontekście odpowiednich organów, w ZEA funkcjonują m.in.:
- Ministerstwo AI, Gospodarki Cyfrowej i Zdalnych Zastosowań,
- Rada AI i Blockchain,
- Biuro Danych,
- Rada ds. Cyfrowego Dobrostanu,
- Laboratorium Regulacji,
- Biuro Ochrony Danych Abu Dhabi Global Market.
W ZEA wprowadzono także szereg aktów prawnych, takich jak Ustawa o Ochronie Danych Osobowych, Regulamin Banku Centralnego oraz Ustawa o Cyberprzestępczości.
W szerszym kontekście, ZEA są aktywnym uczestnikiem międzynarodowych inicjatyw dotyczących AI, takich jak zasady OECD dotyczące AI oraz rekomendacje UNESCO w zakresie etyki AI. Abu Dhabi staje się miejscem z rosnącą społecznością startupową, nowoczesnymi ośrodkami uczenia maszynowego oraz instytucjami edukacyjnymi, takimi jak Uniwersytet Mohameda bin Zayeda, który nawiązał współpracę z IBM, aby otworzyć Centrum Doskonałości AI. Władze ZEA planują wdrożenie AI w kluczowych sektorach, takich jak energetyka i transport.
Dzięki tym działaniom ZEA nie tylko rozwija krajowy ekosystem AI, ale także aspiruje do roli lidera w tej dziedzinie na skalę globalną, co czyni je jednym z bardziej zaawansowanych państw w kwestii regulacji i rozwoju AI w porównaniu do innych krajów.

Arabia Saudyjska
Arabia Saudyjska przyjmuje elastyczne i otwarte podejście do sztucznej inteligencji (AI), co odzwierciedla jej Krajowa Strategia dotycząca Danych i AI. Strategia ta zakłada stworzenie stabilnego i zachęcającego ram regulacyjnych, które mają przyciągnąć firmy zajmujące się AI, inwestorów oraz talenty. Kraj dąży do stania się jednym z wiodących gospodarek w wykorzystywaniu i eksportowaniu danych oraz AI po 2030 roku, wykorzystując swoją „młodą i dynamiczną populację” oraz „unikalny zcentralizowany ekosystem”. Arabia Saudyjska zamierza przyciągnąć zewnętrzne inwestycje, organizując globalne wydarzenia związane z AI i umacniając swoją pozycję jako centrum technologicznego na Bliskim Wschodzie.
Władze odpowiedzialne za rozwój AI w Arabii Saudyjskiej obejmują:
- Saudyjską Agencję Danych i AI,
- Krajowe Biuro Zarządzania Danymi,
- Ministerstwo Komunikacji i Technologii Informacyjnej.
W ramach polityki ochrony danych w kraju obowiązują również następujące przepisy:
- Ustawa o Ochronie Danych Osobowych,
- Standardy Zarządzania Danymi i Ochrony Danych Osobowych,
- Polityka Ochrony Danych Dzieci i Osób Niepełnosprawnych,
- Polityka Klasyfikacji Danych,
- Ogólne Zasady Przenoszenia Danych Osobowych poza Granice Królestwa,
- Polityka Udostępniania Danych,
- Polityka Wolności Informacji,
- Polityka Otwartch Danych.
Arabia Saudyjska jest stroną zasad AI OECD oraz przyjęła Zalecenie UNESCO w sprawie Etyki AI. Rząd Arabii Saudyjskiej, we współpracy z Saudyjską Agencją Danych i AI, podpisał memorandum o zrozumieniu w celu utworzenia centrum AI dedykowanego segmentowi energetycznemu.

Korea Południowa
Południowa Korea ma progresywne podejście do sztucznej inteligencji (AI), koncentrując się na dostosowywaniu regulacji do dynamicznie rozwijającego się środowiska technologicznego. Kraj ten pracuje nad kompleksową ustawą o AI, która ma na celu zapewnienie dostępności technologii AI dla wszystkich deweloperów bez konieczności uzyskiwania zgody rządu, jednak wprowadza pewne wymogi dotyczące niezawodności. Dodatkowo, Południowa Korea ustanawia nowe standardy dotyczące praw autorskich do treści generowanych przez AI.
W ramach Krajowej Strategii AI Południowa Korea wdraża liczne inicjatywy polityczne dotyczące AI i technologii, w tym Strategię Badań i Rozwoju AI, Strategię Aktywacji Przemysłu Danych oraz Strategię Systemów Półprzewodnikowych. Kraj ten zamierza wykorzystać wysoki poziom wykształcenia, powszechne przyjęcie nowych technologii oraz doskonałą infrastrukturę IT do realizacji tych inicjatyw. W sierpniu 2023 roku, Komisja Ochrony Danych Osobowych opublikowała wytyczne dotyczące bezpiecznego korzystania z danych osobowych w erze AI.
Wśród kluczowych organów odpowiedzialnych za rozwój AI w Południowej Korei znajdują się:
- Ministerstwo Nauki i ICT,
- Komisja Ochrony Danych Osobowych,
- Komisja Komunikacji,
- Agencja Internetu i Bezpieczeństwa,
- Komisja Usług Finansowych,
- Komisja Sprawiedliwości Gospodarczej,
- Krajowa Agencja Społeczeństwa Informacyjnego,
- Koreańskie Stowarzyszenie AI.
Południowa Korea przyjęła również Zalecenie UNESCO w sprawie Etyki AI oraz stworzyła Cyfrowy Nowy Ład, mający na celu promowanie zarówno edukacyjnych, jak i przemysłowych wysiłków związanych z możliwościami, jakie niesie ze sobą AI. Dodatkowo, istnieje Hub Innowacji AI, który wspiera rozwój i współpracę w obszarze sztucznej inteligencji.

Tajwan
Tajwan przyjmuje holistyczne podejście do rozwoju środowiska sztucznej inteligencji (AI), co oznacza, że dąży do zharmonizowania różnych aspektów związanych z AI, takich jak definicje prawne, ochrona prywatności, zarządzanie danymi, kontrola ryzyka oraz zasady etyczne. Rząd Tajwanu aktualnie opracowuje projekt ustawy dotyczącej AI, która ma obejmować te wszystkie elementy. W celu wsparcia polityki w tym zakresie wydano szereg dokumentów, w tym Politykę Innowacji AI opracowaną przez Narodową Radę Naukową i Technologiczną (NSTC), Plan Działania AI Tajwanu oraz Raport Oceny Gotowości AI z 2022 roku.
Kluczowe organy odpowiedzialne za regulacje dotyczące AI na Tajwanie to:
- Komisja Sprawiedliwości Gospodarczej,
- Narodowa Rada Naukowa i Technologiczna (dawniej Ministerstwo Nauki i Technologii),
- Ministerstwo Zdrowia i Opieki Społecznej,
- Yuan Wykonawczy Tajwanu,
- Ministerstwo Spraw Cyfrowych,
- Instytut Badań Technologii Przemysłowej,
- Tajwańskie Centrum Doskonałości w Dziedzinie AI.
Tajwan wprowadził także szereg ustaw, takich jak Ustawa o Ochronie Danych Osobowych, Ustawa o Uczciwych Praktykach Handlowych, Ustawa o Zarządzaniu Cyberbezpieczeństwem oraz inne przepisy dotyczące ochrony praw autorskich i patentów.
Kontekst szerszy dla rozwoju AI na Tajwanie obejmuje różne programy i inicjatywy, takie jak Program Rozwoju Narodowego w Dziedzinie Cyfrowej i Innowacyjnej Gospodarki, Plan Innowacji Przemysłowej 5+2, Smart Taiwan 2030, oraz Tajwańskie Laboratoria AI. Dodatkowo, w ramach wysiłków na rzecz innowacji technologicznych, istnieje Sandbox Technologii Pojazdów Bezzałogowych, który ma na celu testowanie i rozwijanie nowych technologii.
Wszystkie te działania sugerują, że Tajwan ma na celu stworzenie sprzyjającego środowiska dla rozwoju AI, z jednoczesnym uwzględnieniem zasad etycznych i bezpieczeństwa.

Izrael
Izrael wykazuje otwarte i elastyczne podejście do sztucznej inteligencji (AI), koncentrując się na innowacjach i regulacjach, które promują rozwój technologii, a nie jej ograniczanie. Działania Izraela w zakresie AI są relatywnie intensywne, zwłaszcza w kontekście dążenia do ustanowienia standardów oraz ram regulacyjnych, które mają zapewnić bezpieczeństwo i etykę w rozwoju AI. Na podstawie projektu polityki dotyczącej regulacji i etyki w AI, Izrael zamierza stworzyć jednolity instrument zarządzania ryzykiem, ustanowić rządowe centrum wiedzy i koordynacji oraz utrzymać zaangażowanie w międzynarodowe regulacje i standaryzację.
Kraj ten preferuje dobrowolne standardy, samo-regulację w sektorach oraz eksperymenty modułowe, takie jak tzw. „sandboxy”. W tym kontekście dostępne są następujące dokumenty, które służą jako przewodniki polityczne:
- Biała Księga dotycząca regulacji i polityki AI w Izraelu,
- Raport „Wykorzystywanie innowacji: izraelskie spojrzenie na etykę i zarządzanie AI”,
- Polityka dotycząca regulacji i etyki AI.
W kluczowe instytucje zaangażowane w regulację AI w Izraelu wchodzą:
- Ministerstwo Innowacji, Nauki i Technologii,
- Ministerstwo Sprawiedliwości,
- Urząd Ochrony Prywatności,
- Izraelski Narodowy Dyrektorat Cybernetyczny.
Izrael posiada również kilka istotnych aktów prawnych, które wpływają na regulację AI, takich jak:
- Ustawa zasadnicza: Godność i wolność człowieka,
- Ustawa o ochronie prywatności,
- Regulacja dotycząca bezpieczeństwa danych,
- Ustawa o danych kredytowych,
- Ustawa o prawie autorskim.
Izrael jest stroną zasad AI OECD i wziął udział w Szczycie AI w Wielkiej Brytanii w 2023 roku, który zakończył się przyjęciem Deklaracji z Bletchley. Dodatkowo, Ministerstwo Sprawiedliwości Izraela wydało opinię, że uczenie maszynowe będzie podlegać zasadzie dozwolonego użytku w ramach ustawy o prawie autorskim w kraju.

Bangladesz
Bangladesz nie przyjmuje restrykcyjnego podejścia do sztucznej inteligencji (AI), choć jego działania są jeszcze stosunkowo umiarkowane w porównaniu z bardziej zaawansowanymi w tej dziedzinie państwami. Przyjęcie Krajowej Strategii AI na lata 2019-2024 oraz wdrażanie innych ram prawnych pokazują, że Bangladesz chce aktywnie rozwijać technologie AI, jednak na tle takich krajów jak Australia czy kraje Unii Europejskiej, jego inicjatywy w tej dziedzinie są mniej intensywne. Mimo to, kraj dostrzega znaczenie AI dla rozwoju społecznego i gospodarczego oraz kładzie nacisk na przezwyciężanie wyzwań związanych z wdrażaniem tych technologii. Jego podejście koncentruje się raczej na wspieraniu wzrostu i innowacji, a nie na surowej regulacji AI, choć pewne przepisy mają zapewniać odpowiednią ochronę i bezpieczeństwo w tym obszarze.
Bangladesz opracował Krajową Strategię AI na lata 2019-2024, która obejmuje tworzenie strategii i planów rozwoju, przezwyciężanie wyzwań związanych z wykorzystaniem AI oraz wykorzystanie sztucznej inteligencji do wzrostu społecznego i gospodarczego. Kluczowe organy odpowiedzialne za zarządzanie AI to Wydział Technologii Informacyjnych i Komunikacyjnych.
Kraj wprowadził także kilka obowiązujących i projektowanych przepisów, takich jak Ustawa o Bezpieczeństwie Cyfrowym oraz projekt Ustawy o Ochronie Danych, a także projekt regulacji Komisji Regulacji Telekomunikacji dotyczących mediów cyfrowych, mediów społecznościowych i platform OTT.
Do innych obowiązujących przepisów należą Konstytucja Ludowej Republiki Bangladeszu, Ustawa o Prawie do Informacji, Ustawa o Prawach Autorskich oraz Ustawa o Telekomunikacji. Na arenie międzynarodowej Bangladesz przyjął Rekomendację UNESCO dotyczącą etyki AI, a działania związane z AI wpisują się w szerszą wizję rozwoju cyfrowego kraju, zwaną Cyfrowy Bangladesz.
Ameryka Południowa

Brazylia
Brazylia przyjmuje umiarkowanie restrykcyjne podejście do sztucznej inteligencji (AI), dążąc do wprowadzenia regulacji, które zapewnią ochronę praw człowieka oraz odpowiedzialność twórców AI. Działania kraju w tym obszarze są dość intensywne w porównaniu z innymi państwami, zwłaszcza jeśli weźmiemy pod uwagę szczegółowość propozycji legislacyjnych, takich jak ustawa o AI. Choć nie jest to najostrzejsze podejście w skali globalnej, Brazylia kładzie duży nacisk na ochronę praw jednostek i ograniczanie ryzyka, co wyróżnia ją na tle wielu innych krajów. Publikacja strategii AI oraz zaproponowane regulacje dotyczące odpowiedzialności cywilnej dla dostawców AI, a także zakazy dla systemów o „nadmiernym ryzyku”, sugerują, że Brazylia stara się wyważyć innowacje z koniecznością zapewnienia bezpieczeństwa i odpowiedzialności.
Brazylia opublikowała Strategię AI, która zakłada finansowanie projektów badawczych stosujących etyczne rozwiązania, ustanowienie wymogów technicznych dla etycznych aplikacji oraz opracowanie technik redukcji uprzedzeń algorytmicznych. W strategii mowa jest również o tworzeniu parametrów ludzkiej interwencji w przypadkach wysokiego ryzyka, kiedy decyzje podejmowane są automatycznie. Wprowadzenie kodeksów postępowania ma na celu zapewnienie śledzenia procesów decyzyjnych i ochronę praw obywatelskich. Brazylia promuje także udostępnianie danych zgodnie z Ustawą o ochronie danych osobowych (LGPD) oraz planuje utworzenie obserwatorium AI do monitorowania wpływu tej technologii i publikowania otwartych kodów wykrywających trendy dyskryminacyjne.
Brazylia zaproponowała również kompleksową ustawę o AI, która kładzie nacisk na prawa człowieka oraz tworzy reżim odpowiedzialności cywilnej dla twórców AI. Ustawa przewiduje:
- Zakaz stosowania systemów o „nadmiernym ryzyku”.
- Ustanowienie organu regulacyjnego odpowiedzialnego za egzekwowanie prawa.
- Wprowadzenie odpowiedzialności cywilnej dla dostawców AI.
- Obowiązek zgłaszania incydentów zagrażających bezpieczeństwu.
- Gwarantowanie praw jednostkowych, takich jak prawo do wyjaśnienia decyzji, niedyskryminacji, poprawiania wykrytych uprzedzeń i zapewnienia mechanizmów dochodzenia sprawiedliwości.
W lipcu 2023 roku Krajowy Urząd Ochrony Danych (ANPD) opublikował wstępną analizę projektu ustawy nr 2338/2023 dotyczącej stosowania AI w Brazylii, a później przedstawił swoją ostateczną opinię na temat tego projektu. Ważnymi instytucjami w zarządzaniu AI w Brazylii są Ministerstwo Nauki, Technologii i Innowacji oraz ANPD.W kontekście szerszych przepisów w Brazylii obowiązują także: Ustawa o ochronie danych osobowych (LGPD), Krajowe ramy praw obywatelskich dotyczące Internetu oraz Kodeks ochrony konsumenta. Brazylia jest również stroną zasad AI przyjętych przez OECD oraz uczestniczyła w Szczycie AI w Wielkiej Brytanii w 2023 roku, co doprowadziło do przyjęcia Deklaracji z Bletchley. Brazylia przyjęła także Rekomendację UNESCO dotyczącą etyki AI i realizuje Strategię Cyfrowej Transformacji. ANPD podpisał umowę o współpracy technicznej z Bankiem Rozwoju Ameryki Łacińskiej w celu opracowania „eksperymentalnego narzędzia regulacyjnego” wspierającego innowacje związane z AI.

Argentyna
Krótko mówiąc, Argentyna ma zrównoważone i proaktywne podejście do sztucznej inteligencji, w którym stara się wspierać innowacje, jednocześnie wprowadzając odpowiednie środki ochronne. Nie można powiedzieć, że ma restrykcyjne podejście, ale raczej uregulowane i ostrożne, z uwzględnieniem kwestii etycznych i praw obywateli.
Argentyna podjęła kroki w kierunku zarządzania sztuczną inteligencją poprzez różne inicjatywy polityczne. Opracowała projekt Narodowego Planu AI, który ma na celu wspieranie wykorzystania i rozwoju sztucznej inteligencji w kraju. Dodatkowo, na mocy Rezolucji 2/2023, Argentyna wydała rekomendacje dotyczące wiarygodnej i godnej zaufania sztucznej inteligencji, skierowane szczególnie do sektora publicznego.
Kilka instytucji odgrywa także kluczowe role w zarządzaniu AI, w tym Krajowe Obserwatorium Big Data, Ministerstwo Nauki, Technologii i Innowacji Produkcyjnych, Krajowy Komitet ds. Etyki w Nauce i Technologii, Podsekretariat ds. Technologii Informacyjnych i Komunikacyjnych, Agencja Dostępu do Informacji Publicznej oraz Krajowa Komisja Papierów Wartościowych.
Do istotnych ustaw i polityk należy Krajowa Strategia Cyberbezpieczeństwa, która jest obecnie obowiązująca, oraz projekt ustawy o ochronie danych osobowych. Inne ważne regulacje to Ustawa 27.699 o ochronie osób w związku z automatycznym przetwarzaniem danych osobowych, Komunikat Banku Centralnego A 7724 oraz Postanowienie 18/2015, które jest przewodnikiem po dobrych praktykach dotyczących prywatności przy tworzeniu aplikacji – wszystkie te przepisy są obecnie obowiązujące.
Argentyna jest zgodna z szerszymi międzynarodowymi ramami dotyczącymi sztucznej inteligencji, będąc stroną zasad AI Organizacji Współpracy Gospodarczej i Rozwoju (OECD) oraz przyjmując Rekomendację UNESCO dotyczącą etyki AI. Na poziomie krajowym Argentyna przedstawiła swoją Cyfrową Agendę 2030 i utworzyła Centrum Innowacji Fintech. W 2023 roku krajowy organ ds. ochrony danych osobowych, Agencja Dostępu do Informacji Publicznej, wprowadził Program Przejrzystości i Ochrony Danych Osobowych w AI na mocy Rezolucji nr 161/23. Ponadto, szef gabinetu prezydenta utworzył Międzyresortowy Zespół ds. Sztucznej Inteligencji na mocy Decyzji Administracyjnej nr 750/2023.
Na bardziej praktycznym poziomie Argentyna testuje Platformę AI IBM poprzez projekt związany z akwakulturą, dążąc do formalnego włączenia tej technologii w prace Ministerstwa Nauki, Technologii i Innowacji Produkcyjnych.
Australia

Australia
Australia przyjmuje zrównoważone, oparte na etyce i konsultacjach podejście do sztucznej inteligencji. Regulacje są tworzone w sposób wspierający innowacje, przy jednoczesnym dbaniu o bezpieczeństwo i odpowiedzialność w wykorzystaniu AI. Ograniczenia dotyczą głównie zastosowań wysokiego ryzyka, co nie wskazuje na generalnie restrykcyjne podejście.
Australijski rząd podkreślił znaczenie istniejących ram regulacyjnych dotyczących sztucznej inteligencji (AI). W 2021 roku rząd opublikował Plan Działań na rzecz AI, który zakładał budowanie zdolności w zakresie AI oraz przyspieszenie rozwoju i wdrażania zaufanych, bezpiecznych i odpowiedzialnych technologii AI w Australii. W czerwcu 2023 roku rząd opublikował dokument dyskusyjny na temat bezpiecznej i odpowiedzialnej AI, który miał na celu konsultacje w sprawie tego, czy Australia posiada odpowiednie mechanizmy zarządzania dla wspierania bezpiecznego i odpowiedzialnego rozwoju i użycia AI. W styczniu 2024 roku rząd przedstawił wstępną odpowiedź na temat bezpiecznej i odpowiedzialnej AI.
Główne instytucje odpowiedzialne za zarządzanie AI to: Departament Przemysłu, Nauki i Zasobów, Commonwealth Scientific and Industrial Research Organisation, Urząd Komisarza ds. eBezpieczeństwa, Urząd Australijskiego Komisarza ds. Informacji, Komisja ds. Konkurencji i Konsumentów, Sieć Odpowiedzialnej AI w ramach Narodowego Centrum AI oraz Narodowa Rada ds. Nauki i Technologii.
Australia posiada szereg obowiązujących ustaw, które mają wpływ na zarządzanie AI, w tym: Ustawa o patentach, Ustawa o prawach autorskich, Ustawa o prywatności, Ustawa o dostępności i przejrzystości danych oraz Prawo do danych konsumenckich. Oprócz tego, obowiązuje również Ustawa o konkurencji i konsumentach oraz polityka zgodności i egzekwowania Prawa do danych konsumenckich.
Australia była jednym z pierwszych krajów na świecie, które przyjęły zasady etyki dotyczące AI, w tym solidne ramy etyczne. Należą do nich: Ramy etyczne AI oraz 8 zasad etyki AI. Australia jest również stroną zasad AI OECD i brała udział w szczycie AI w Wielkiej Brytanii w 2023 roku, który zakończył się Deklaracją z Bletchley. Australia przyjęła także Rekomendację UNESCO dotyczącą etyki AI.
W kontekście szerszych działań, Australia wdraża Strategię Cyfrowej Transformacji do 2025 roku. Rząd ogłosił także utworzenie organu doradczego składającego się z ekspertów z przemysłu i środowiska akademickiego, który ma pomóc w opracowaniu ram prawnych dla „wysokiego ryzyka” zastosowań AI. Instytut Technologii Człowieka na Uniwersytecie Technologicznym w Sydney niedawno opublikował raport „Stan zarządzania AI w Australii”. Ponadto, Narodowa Rada ds. Nauki i Technologii opublikowała raport informacyjny o generatywnej AI. W marcu 2020 roku rząd przedstawił AI Standards Roadmap: Making Australia’s Voice Heard, opracowane przez Standards Australia i zamówioną przez Departament Przemysłu, Nauki, Energii i Zasobów Australii. Głównym celem tej “mapy drogowej” jest „zapewnienie Australii skutecznego wpływu na rozwój standardów AI na arenie międzynarodowej”.
Afryka

Afryka Południowa
W Afryce Południowej podejście do regulacji sztucznej inteligencji (AI) można określić jako nieformalne i mało restrykcyjne, zwłaszcza w porównaniu do bardziej rozwiniętych krajów. Obecnie nie istnieją konkretne przepisy prawne regulujące AI, choć są różne ustawy, które mogą wpływać na jej rozwój i wykorzystanie, takie jak Ustawa o ochronie danych osobowych, Ustawa o prawach autorskich, czy Ustawa o konkurencji.
Nie ma jednolitej definicji „sztucznej inteligencji”, a dokument dotyczący narodowego planu AI odnosi się do definicji zaproponowanej przez Komisję Europejską. W związku z brakiem specyficznych regulacji, nie ma też szczególnych obowiązków dla twórców czy użytkowników AI, poza kwestiami automatycznego przetwarzania danych. Kluczowy przepis chroni osoby przed podejmowaniem decyzji wyłącznie na podstawie automatycznych analiz, które mogą mieć skutki prawne.
Dokument dotyczący planowania AI wskazuje na ważne obszary do rozważenia w przyszłości, takie jak dezinformacja, dyskryminacja, nadużycia w zakresie praw autorskich oraz ochrona prywatności. Obecnie nie ma dedykowanego organu regulacyjnego dla AI, ale Departament Komunikacji i Technologii Cyfrowych pracuje nad strategią AI we współpracy z Doradczą Radą Ekspertów. Egzekwowanie przepisów dotyczących AI odbywa się w ramach istniejących regulacji, takich jak POPIA.

Egipt
Egipt przyjmuje umiarkowane podejście do regulacji sztucznej inteligencji (AI), które można określić jako raczej zorganizowane, ale nie bardzo restrykcyjne w porównaniu do bardziej zaawansowanych krajów. Kraj ten wdrożył Krajową Strategię AI, która koncentruje się na czterech filarach: AI w administracji publicznej, AI dla rozwoju, budowaniu zdolności oraz działalności międzynarodowej. Dodatkowo, Egipt opracował mapę drogową AI oraz Karty Odpowiedzialnej AI.
Główne organy zaangażowane w te inicjatywy to Narodowa Rada AI oraz Ministerstwo Komunikacji i Technologii Informacyjnej. W kraju obowiązują także różne ustawy, takie jak Ustawa nr 151 z 2020 roku o ochronie danych osobowych, Ustawa nr 175 z 2018 roku dotycząca przestępstw związanych z cyberprzestępczością, Ustawa regulująca telekomunikację (Ustawa nr 10 z 2003 roku) oraz Ustawa nr 82 z 2002 roku o ochronie praw własności intelektualnej.
Egipt jest stroną zasad AI OECD oraz przyjął zalecenia UNESCO dotyczące etyki AI. Kraj ten przewodniczył również kilku spotkaniom Arabskiej Grupy Roboczej ds. AI, co umożliwia przedstawicielom krajów arabskich dyskusję na temat strategii AI. W ramach aktywności legislacyjnych, Senacka Komisja Edukacji podkreśliła pilność wydania dokumentu oceniającego etykę i kontrolę AI w Egipcie.

Kenia
Kenia wykazuje umiarkowane podejście do regulacji sztucznej inteligencji (AI), które można określić jako nieco opóźnione w porównaniu do innych państw, gdyż obecnie nie ma konkretnych przepisów ani ustaw bezpośrednio regulujących AI. Ministerstwo Informacji, Komunikacji i Gospodarki Cyfrowej współpracuje z różnymi interesariuszami w celu opracowania Krajowej Strategii AI, której projekt ma być ukończony jeszcze w tym roku.
Krajowe Biuro Standardów (KEBS) opublikowało projekt Kodeksu Praktyki dotyczącego AI, mającego na celu pomoc organizacjom w odpowiedzialnym rozwijaniu i wykorzystywaniu AI, przy jednoczesnym poszanowaniu praw obywateli. Kod jest wciąż w fazie roboczej, a KEBS zachęca do składania uwag do 13 czerwca 2024 roku. Również Stowarzyszenie Robotyki Kenii opracowało projekt ustawy o Robotyce i AI, który jeszcze nie został opublikowany i nie uzyskał wsparcia rządu, spotykając się z oporem ze strony kluczowych graczy sektora prywatnego.
W 2019 roku powołano Zespół ds. Technologii Zdecentralizowanych i Sztucznej Inteligencji, którego zadaniem było zbadanie cyfrowych technologii, takich jak AI, blockchain czy 5G, które mogą znacząco wpłynąć na gospodarkę Kenii. Zespół zauważył, że wyzwaniem dla regulacji AI jest zrównoważenie wsparcia dla innowacji i konkurencji z ochroną konsumentów oraz stabilnością rynku.
Inne przepisy, które mogą wpływać na AI w Kenii, to Ustawa o Ochronie Danych z 2019 roku, Ustawa o Nadużyciach Komputerowych i Cyberprzestępczości z 2018 roku oraz Ustawa o Ochronie Konsumentów z 2012 roku. Pomimo braku szczegółowych regulacji dotyczących definicji AI, projekt Kodeksu Praktyki wymienia trzy charakterystyki AI, a projekt ustawy o Robotyce i AI definiuje sztuczną inteligencję jako zdolność maszyn do wykonywania zadań typowych dla ludzkiej inteligencji, takich jak uczenie się i rozwiązywanie problemów.

Nigeria
Nigeria przyjmuje umiarkowane podejście do regulacji sztucznej inteligencji (AI), które można uznać za nieco opóźnione w porównaniu do innych krajów. Obecnie nie istnieją szczegółowe przepisy ani ustawy bezpośrednio regulujące AI. Narodowa Agencja Rozwoju Technologii Informacyjnej (NITDA) w 2022 roku zapowiedziała współpracę z interesariuszami w celu opracowania Krajowej Polityki Sztucznej Inteligencji (NAIP), a w marcu 2023 roku ogłoszono ukończenie pierwszego projektu tej polityki. W sierpniu 2023 roku Ministerstwo Komunikacji, Innowacji i Gospodarki Cyfrowej wydało dokument, w którym zapowiedziano dalsze prace nad kompleksową strategią AI.
Mimo braku bezpośrednich regulacji dotyczących AI, istnieją inne przepisy, które mogą wpływać na rozwój i stosowanie technologii AI w Nigerii. Do najważniejszych należy Ustawa o Cyberprzestępczości z 2015 roku, Ustawa o Ochronie Danych z 2023 roku oraz przepisy dotyczące usług doradztwa robo. Chociaż Nigerijska Komisja Komunikacji przyjęła definicję AI zaczerpniętą ze słownika American Heritage, sama nie zawiera szczegółowych regulacji dotyczących sztucznej inteligencji.
Regulacje, takie jak Ustawa o Ochronie Danych, wprowadzają zasady dotyczące przetwarzania danych osobowych przy użyciu AI, a także wymagają, aby decyzje oparte na przetwarzaniu automatycznym były możliwe do zakwestionowania przez osoby, których dotyczą. W szczególności, zarówno przepisy SEC dotyczące doradztwa robo, jak i Ustawa o Ochronie Danych, koncentrują się na zapobieganiu stronniczości i promowaniu przejrzystości w systemach AI.
Regulacja AI w Nigerii opiera się na już istniejących przepisach, co może prowadzić do trudności w pełnej implementacji skutecznych regulacji dotyczących tej technologii. Z tego powodu, mimo podejmowanych działań, Nigeria nie jest postrzegana jako lider w dziedzinie regulacji AI w porównaniu do bardziej zaawansowanych krajów, ale zapowiedzi dotyczące opracowania polityki krajowej mogą przyczynić się do poprawy sytuacji w przyszłości.
Podsumowanie
Regulacje dotyczące sztucznej inteligencji (AI) na świecie są bardzo zróżnicowane i rozwijają się w różnym tempie w zależności od kraju i regionu. Podczas gdy Unia Europejska przyjęła restrykcyjne podejście, czego przykładem jest AI Act, inne państwa dopiero tworzą swoje ramy prawne, koncentrując się na wspieraniu innowacji i jednoczesnym zapewnieniu bezpieczeństwa. Niektóre kraje, jak Nigeria czy Kenia, znajdują się na etapie konsultacji społecznych i opracowywania narodowych strategii AI. Różnorodność w podejściu do regulacji AI wynika z lokalnych uwarunkowań, poziomu zaawansowania technologii oraz priorytetów rządów. Raporty AI publikowane przez różne organizacje podkreślają potrzebę harmonizacji globalnych zasad, ale w praktyce wdrażanie regulacji postępuje zróżnicowanie w poszczególnych krajach.
Dodaj komentarz