Pracownicy Samsunga wykorzystali ChatGPT podczas rozwiazywania problemu programistycznego.
Wyciek kodu źródłowego sprawił, że firma postanowiła zakazać używania AI pracownikom.
ChatGPT trochę ponad miesiąc wcześniej miał przeciek informacji udostępnianych w rozmowach.
Wszechstronne narzędzie i źródło informacji
Sztuczna inteligencja, która ostatnio się rozrasta i jest źródłem ulepszeń narzędzi firm staje się coraz bardziej powszechna. Wyszukiwarki, generatory obrazów, wtyczki czy chatboty, to wszystko zostało stworzone i “zasilone” jej siłami.
Zakres możliwości jedynie jest poszerzany wraz z upływem czasu i rozwijania AI. Wydaje się, że rozwóju już nic nie zatrzyma zważając na fakt, że ChatGPT ma dostęp do Internetu, a coraz więcej firm jest głodnych posiadania takiego oprogramowania.
Ostatnio ChatGPT był wykorzystywany do pisania wypracowań przez uczniów, ale i do tworzenia małych dzieł sztuki czy jako pomoc dla pracowników w codziennej pracy. Ludzie chcąc ułatwić sobie pracę wrzucają polecenia wraz z przykładami czy nawet poufnymi danymi, aby utworzyć na przykład odpowiedź na e-maile.
O ile w samym posługiwaniu się narzędziem nie ma nic złego, bo do tego zostało stworzone, tak udostępnianie poufnych informacji w nim jest już niebezpieczne. Oczywiście OpenAI nie ma wglądu do wszystkich informacji przypływających z Internetu, czy tych wpisywanych bezpośrednio przez użytkowników.
Sprawa ma się inaczej jeśli dane zostaną wprowadzone przez interfejs internetowy z poziomu ustawień, wtedy jest to widoczne dla zespołu badawczego.
Informuje on również, aby użytkownicy nie udostępniali poufnych danych podczas korzystania z czatu, ponieważ wszelkie rozmowy mogą być wykorzystywane do szkolenia przyszłych wersji ChatGPT. Z tego również powodu wprowadzono ostatnio tryb incognito w przeglądarce, który nie zapisuje historii rozmów.
Samsung zapobiega po fakcie
Cyberbezpieczeństwo jeszcze nigdy nie było aż takim problemem jakim jest na dziś dzień. I świadomość tego ma Samsung, który zakazał korzystania ze sztucznej inteligencji takiej jak ChatGPT.
To właśnie on stanowi największe zagrożenie ze względu na popularność jego fenomenu, jaki i używanie go przez różne grupy społeczne. Oprócz ogólnego zakazu posługiwania się AI na urządzeniach firmowych, poproszono o nie przesyłanie poufnych informacji biznesowych za pośrednictwem komputerów osobistych.
HQ dokonuje przeglądu środków bezpieczeństwa w celu stworzenia bezpiecznego środowiska do bezpiecznego korzystania z generatywnej sztucznej inteligencji w celu zwiększenia produktywności i wydajności pracowników. Jednak do czasu przygotowania tych środków tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji. Prosimy o staranne przestrzeganie naszych wytycznych dotyczących bezpieczeństwa, a niezastosowanie się do nich może spowodować naruszenie lub narażenie na szwank informacji firmowych, co może skutkować wszczęciem postępowania dyscyplinarnego, włącznie z rozwiązaniem stosunku pracy.
Dlaczego w ogóle doszło do takiej sytuacji? Ze względu na poczynania niektórych pracowników, którzy wykorzystali ChatGPT do rozwiązania problemu programistycznego i tym samym udostępnili wewnętrzny kod źródłowy.
Po fakcie Samsung nie ma żadnego wpływu co się z nim stanie w rękach OpenAI. A doszło do wprowadzenia rozporządzenia miesiąc po błędzie w ChatGPT i ukazaniu na światło dzienne informacji zawarte w rozmowach z czatu czy płatności za subskrypcję użytkowników. Nic więc dziwnego, że gigant jest pełen obaw.
W ubiegłym miesiącu pisaliśmy o Włoszech, które zakazały korzystania z ChatGPT ze względu na ochronę danych osobowych:
Samsung ma przed sobą zadanie, aby umożliwić pracownikom korzystanie ze sztucznej inteligencji, w bezpieczny sposób, aby dalej usprawniać pracę. Oczywiście dotyka to tylko pracowników, konsument kupujący produkty spod szyldu Samsunga nie będą mieli w żaden sposób ograniczonego dostępu do możliwości AI.
Źródło: The Verge
Dodaj komentarz