Zarejestruj się i uzyskaj dostęp do licznych narzędzi

Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

31/03/2023

27 marca br. Europol opublikował raport flash, ostrzegając, że ChatGPT i inne generatywne systemy sztucznej inteligencji mogą być wykorzystywane do oszustw internetowych i innych cyberprzestępstw – donosi Euractive.


Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

Od końca listopada, kiedy to  ChatGPT został uruchomiony, stał się on jedną z najszybciej rozwijających się usług internetowych, przekraczając 100 milionów użytkowników w ciągu pierwszych dwóch miesięcy. Dzięki bezprecedensowej zdolności do generowania tekstu podobnego do ludzkiego na podstawie podpowiedzi, model stał się wirusowy.

 

"Przestępcy zazwyczaj szybko wykorzystują nowe technologie i szybko wymyślają konkretne przestępstwa, dostarczając pierwszych praktycznych przykładów zaledwie kilka tygodni po publicznym wydaniu ChatGPT" – czytamy w Raporcie.

 

Agencja UE zwraca uwagę na fakt, że zasady moderacji ChatGPT można obejść za pomocą tak zwanej szybkiej inżynierii, praktyki dostarczania danych wejściowych w modelu AI właśnie w celu uzyskania określonego wyniku.

Ponieważ ChatGPT jest stosunkowo nową technologią, luki są stale znajdowane pomimo ciągłego wdrażania poprawek. Te luki mogą przybrać formę poproszenia sztucznej inteligencji o dostarczenie podpowiedzi, poproszenia jej o udawanie fikcyjnej postaci lub udzielenia odpowiedzi w kodzie.

Inne obejścia mogą zastąpić słowa wyzwalające lub zmienić kontekst później podczas interakcji. Organ UE podkreślił, że najpotężniejsze obejścia, które są w stanie uwolnić model od wszelkich ograniczeń, stale ewoluują i stają się coraz bardziej złożone.

 

Unijne organy ścigania zidentyfikowały szereg nielegalnych przypadków użycia ChatGPT, które utrzymują się również w najbardziej zaawansowanym modelu OpenAI, GPT-4, gdzie potencjał szkodliwych reakcji systemu był w niektórych przypadkach jeszcze bardziej zaawansowany.

 

Jak wynika z publikacji Europol prognozuje, że wyzwanie stawiane przez te systemy będzie tylko rosło, gdy staną się one coraz bardziej dostępne i wyrafinowane, na przykład wraz z generowaniem wysoce przekonujących deep fake'ów.

 

Innym ryzykiem jest to, że te duże modele językowe mogą stać się dostępne w ciemnej sieci bez żadnych zabezpieczeń i zostać przeszkolone ze szczególnie szkodliwymi danymi. Rodzaj danych, które będą zasilać te systemy i sposób ich nadzorowania, są głównymi znakami zapytania na przyszłość.

 

Pod tym adresem można zapoznać się z treścią Raportu Europolu:

https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

 

Źródło https://www.euractiv.com/section/artificial-intelligence/news/europol-warns-against-potential-criminal-uses-for-chatgpt-and-the-likes/

 

 

Jeżeli chcesz być informowany na bieżąco o naszych publikacjach dołącz do nas i polub nas na Facebooku https://www.facebook.com/odoserwis.pl.2016/

-----------------------------------------------------

Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl

 

 

Konferencja UODO - Wyzwania dla ochrony danych osobowych dzieci
Konferencja UODO - Wyzwania dla ochrony danych osobowych dzieci
Rząd Holandii może zrezygnować z Facebooka z powodu obaw dotyczących prywatności
Rząd Holandii może zrezygnować z Facebooka z powodu obaw dotyczących prywatności
Chiny wprowadzają modyfikacje w transgranicznym przekazywaniu danych, co może zainteresować korporacje międzynarodowe
Chiny wprowadzają modyfikacje w transgranicznym przekazywaniu danych, co może zainteresować korporacje międzynarodowe