Ludzie coraz częściej mają problem w odróżnieniu czy dana grafika lub tekst została wykonana przez człowieka czy AI.
Giganci zobowiązali się do stworzenia systemu, który oznaczy treści stworzone przez sztuczną inteligencję.
Dwa sposoby wydają się jedynym rozwiązaniem na ten moment, choć nie najlepszym.
AI i jego zastosowania to niekończący się temat, do którego tylko dochodzi więcej nowych wątków. Rozwój sztucznej inteligencji poszedł na tyle do przodu, że aktualnie ciężko odróżnić czy dana grafika jest tworem ludzkim czy też nie.
Jednak odróżnianie rzeczywistości od twórczości AI stanie się teraz łatwiejsze, a przynajmniej jest taka nadzieja. Giganci technologiczni, a dokładniej: Google, Microsoft, Meta, Amazon oraz grupy odpowiedzialne za AI, czyli OpenAI, Anthropic i Inflection “zobowiązują się z własnej woli” do tworzenia treści przy pomocy AI, które będą specjalnie oznakowane.
Firmy te złożyły takie poręczenie do rąk administracji Biden-Harris. Rzekomo dzięki temu ma zostać stworzony system, który pozwoli rozróżniać twórczość AI, od dzieła człowieka lub rzeczywistości. Oczywiście poczyniono takie kroki w celu zmniejszenia dezinformacji, zaprzestania tworzenia uprzedzeń i w trosce o bezpieczeństwo.
Jedyne rozwiązania na ten moment
Pierwszym potencjalnym rozwiązaniem tych firm jest zwykły znak wodny, który miałby być generowany już na etapie procesu tworzenia grafiki. Co ciekawe, przypisany byłby do konkretnego dzieła, a nie “autora” który zainicjował proces tworzenia. Zatem wygląda na to, że urzędy i organizacje akurat w tej kwestii stawiają także na prywatność.
Jest jednak problem w tym rozwiązaniu, ponieważ już na ten moment są ogólnodostępne narzędzia również bazowane na AI, które są wyspecjalizowane w usuwaniu znaków wodnych. Ba, nawet smartfony od Samsunga czy Google mają taką możliwość w domyślnej aplikacji galerii. Także takie rozwiązanie może okazać się mało skuteczne w praktyce, bo już w tym momencie każdy jest w stanie takie oznaczenie usunąć.
Drugim pomysłem są identyfikatory usługi lub modelu w jakim zostało stworzone cokolwiek przez sztuczną inteligencję, które byłyby głęboko zapisywane w wygenerowanym pliku. Takie rozwiązanie jest o wiele bardziej sensowne, o ile ktoś nie wpadnie na pomysł wykonania zwykłego zrzutu ekranu grafiki. Wtedy identyfikator przepadnie i nie będzie można dojść do źródła.
Powaga sytuacji zmusza do działania
Każdy kto śledził rozwój AI wie, że wejście w życie jakichkolwiek systemów przeciwdziałania dezinformacji było, a właściwie nadal jest nieuniknione. Szczególnie jeśli zwrócimy uwagę na przykładowe wydarzenia pokazujące jakie zagrożenia stwarza sztuczna inteligencja.
Fałszywe zdjęcie Pentagonu spowite dymem w wyniku eksplozji wpłynęło na ceny akcji na rynku. Nie zostało potwierdzone wykorzystanie AI, ale samo obraz zawierał niespójne, dziwne elementy, jak chociażby wtapiające się w siebie wzajemnie elementy.
Niewątpliwie nie brakuje również manipulacji wizerunkami polityków, jak chociażby reklamy mającej na celu wsparcia gubernatora Florydy, która zawierała sztucznie wygenerowany głos Donalda Trumpa.
Jak widać sytuacja faktycznie jest niebezpieczna, bo wiele osób nie jest w stanie odróżnić rzeczywistości od fikcji, którą generuje AI. Przeprowadzono nawet w czerwcu badanie, które pokazało, że zwykły tweet napisany przez człowieka był mniej wiarygodny niż ten stworzony przy użyciu ChatGPT, co tylko pokazuje realia problemu.
Identyfikatory czy narzędzia weryfikujące dzieła wizualne, jak i te dźwiękowe są pewną forma rozwiązania, ale na pewno nie idealną. To głównie od firm zależy jak uporają się z tym kłopotem, jednak weryfikacja i oznakowanie na ten moment są uciążliwe i trudne w wykonaniu.
Źródło: Business Insider
Źródło miniaturki: Stable Diffusion
Dodaj komentarz