Dwa miesiące. Tyle czasu wystarczyło, aby ludzie zaczęli wykorzystywać twórczość sztucznej inteligencji do własnych celów. Nie ma w tym nic złego, po to jest tworzona i rozwijana technologia, aby ułatwić Wam codzienne życie.
Sprawa ma się inaczej, gdy w ten sposób oszukuje się innych i przywłaszcza sobie te treści. Rodzą się też obawy osób, które zajmują się tak zwaną pracą kreatywną, że ich stanowiska mogą być zagrożone.
“Code Red” – Nawet Google się boi
Musi być na prawdę poważnie, skoro nawet osoby pracujące w Google są pełne obaw co wyniknie z tak szybko rozwijającej się sztucznej inteligencji. Pół żartem, pół serio – jest to problem. Pieniądze muszą się zgadzać, a miliony osób nie mogą stracić swoich stanowisk.

W końcu wystarczy krótki opis, aby ChatGPT stworzył obszerną i w miarę rzetelną treść. W filmach twory przewyższające ludzkość są przerażające i nic dziwnego, skoro mogą szybko się rozrastać, bez niczyjego nadzoru. Ale mają też dostęp do ogromnego zbioru wiedzy – Internetu. W tym wypadku chodzi o tę drugą kwestię.
W związku z tym dzieło Open AI może lepiej pomagać przy znajdowaniu informacji, niż nawet wyszukiwarka Google. Pałeczka mogła zostać szybko przejęta, co nie specjalnie podoba się największemu rynkowemu gigantowi.
Google chce, żebyście z takim samym natężeniem korzystali z ich usług. “Kto mieczem wojuje, ten od miecza ginie”. Tak firma dyskutuje nad stworzeniem własnej sztucznej inteligencji. Ta miałaby równie sprawnie co ChatGPT odpowiadać na Wasze pytania.
Ale chwila… przecież jest LaMDA – bot AI, tyle że ten nie jest udostępniany światu. Przyczyna jest prosta, ponieważ są ogromne obawy przed poruszaniem delikatnych tematów i wygłaszaniem przez twór pewnych opinii politycznych, ale też mowy nienawiści. W maju ma mieć miejsce konferencja I/O i możliwe, że wtedy wyjdą na światło dzienne nowe informacje o nadchodzących planach.
Wiele problemów, jedno rozwiązanie
Z tą myślą Open AI wymyśliło sposób na ułatwienie weryfikacji, czy dany tekst został stworzony przez człowieka, czy nie – znak wodny. I nie ma to być żadna wizualna forma jak symbol, który mógł Wam się skojarzyć. Tu będzie to w formie frazy z konkretnych słów użytych w danym układzie, które będą na pierwszy rzut oka niewidoczne.
Z pozoru normalne i losowe słowa okażą się sposobem weryfikacji. Na razie wszystko jest w fazie dyskusji i ustalania. Pomysł na pewno pomógłby w zidentyfikowaniu treści tworzonych przez sztuczną inteligencję, co zmniejszyłoby falę oszustw.
We wrześniu było głośno o konkursie, w którym zwycięzca poprawił obraz wygenerowany przez DALL-E. Możecie o tym przeczytać w naszym tekście.
Przekręty z wykorzystaniem technologii jak widać dopiero mają swój początek. Trzeba działać natychmiast, gdy problem się pojawia, aby nie rozwinęło się to na szerszą skalę. Jednak może powstać nowy problem.
Co w przypadku, gdy gotową już pracę wrzucicie do bota i przerobicie? Czy “znak wodny” ulegnie wtedy zniszczeniu? Open AI nie ma jeszcze odpowiedzi na to pytanie, ale trwają dyskusje na temat całego konceptu.

Może też okazać się, że spółka w celu zniwelowania problemu i z myślą o zarabianiu będzie wymagać opłaty za korzystanie z ogólnodostępnego ChatGPT. Pieniądze bardzo dobrze mogą przekonywać, jak i odstraszać. Tym bardziej, że nie każdemu będzie na rękę wydać pieniądze tylko po to, by sztuczna inteligencja wyręczyła kogoś z obowiązków.
A czy wy skorzystalibyście świadomie z takiej “opcji” łatwego tworzenia treści? Czy stoicie w obronie praw autorskich i brzydzicie się podpisywaniem pod nie swoją pracą? Open AI z pewnością musi podjąć pewne kroki w tej sprawie, inaczej nic nie ulegnie zmianie.
Źródło: Data Science Central
Dodaj komentarz