Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT
31/03/2023
27 marca br. Europol opublikował raport flash, ostrzegając, że ChatGPT i inne generatywne systemy sztucznej inteligencji mogą być wykorzystywane do oszustw internetowych i innych cyberprzestępstw – donosi Euractive.
Od końca listopada, kiedy to ChatGPT został uruchomiony, stał się on jedną z najszybciej rozwijających się usług internetowych, przekraczając 100 milionów użytkowników w ciągu pierwszych dwóch miesięcy. Dzięki bezprecedensowej zdolności do generowania tekstu podobnego do ludzkiego na podstawie podpowiedzi, model stał się wirusowy.
"Przestępcy zazwyczaj szybko wykorzystują nowe technologie i szybko wymyślają konkretne przestępstwa, dostarczając pierwszych praktycznych przykładów zaledwie kilka tygodni po publicznym wydaniu ChatGPT" – czytamy w Raporcie.
Agencja UE zwraca uwagę na fakt, że zasady moderacji ChatGPT można obejść za pomocą tak zwanej szybkiej inżynierii, praktyki dostarczania danych wejściowych w modelu AI właśnie w celu uzyskania określonego wyniku.
Ponieważ ChatGPT jest stosunkowo nową technologią, luki są stale znajdowane pomimo ciągłego wdrażania poprawek. Te luki mogą przybrać formę poproszenia sztucznej inteligencji o dostarczenie podpowiedzi, poproszenia jej o udawanie fikcyjnej postaci lub udzielenia odpowiedzi w kodzie.
Inne obejścia mogą zastąpić słowa wyzwalające lub zmienić kontekst później podczas interakcji. Organ UE podkreślił, że najpotężniejsze obejścia, które są w stanie uwolnić model od wszelkich ograniczeń, stale ewoluują i stają się coraz bardziej złożone.
Unijne organy ścigania zidentyfikowały szereg nielegalnych przypadków użycia ChatGPT, które utrzymują się również w najbardziej zaawansowanym modelu OpenAI, GPT-4, gdzie potencjał szkodliwych reakcji systemu był w niektórych przypadkach jeszcze bardziej zaawansowany.
Jak wynika z publikacji Europol prognozuje, że wyzwanie stawiane przez te systemy będzie tylko rosło, gdy staną się one coraz bardziej dostępne i wyrafinowane, na przykład wraz z generowaniem wysoce przekonujących deep fake'ów.
Innym ryzykiem jest to, że te duże modele językowe mogą stać się dostępne w ciemnej sieci bez żadnych zabezpieczeń i zostać przeszkolone ze szczególnie szkodliwymi danymi. Rodzaj danych, które będą zasilać te systemy i sposób ich nadzorowania, są głównymi znakami zapytania na przyszłość.
Pod tym adresem można zapoznać się z treścią Raportu Europolu:
Jeżeli chcesz być informowany na bieżąco o naszych publikacjach dołącz do nas i polub nas na Facebooku https://www.facebook.com/odoserwis.pl.2016/
-----------------------------------------------------
Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl