Zarejestruj się i uzyskaj dostęp do licznych narzędzi

Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

25/09/2024

Ai, Dane Osobowe, Chatgpt, Chatbot, Odpowiedzialnośćzaai, Dane Osobowe A Sztuczna Inteligencja,

Wraz z rosnącą popularnością chatbotów opartych na dużych modelach językowych pojawiają się nowe wyzwania związane z ochroną danych osobowych. Kto powinien ponosić odpowiedzialność za wprowadzane i generowane przez te modele dane – użytkownicy, dostawcy technologii czy wdrażający chatboty


Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

Polecamy wnikliwy artykuł Lokka Moerel i Marijn Storm, w którym autorzy poruszają kluczowy problem ochrony danych dotyczący dużych modeli językowych (LLM) takich jak ChatGPT: określenie, kto powinien być uznawany za "administratora" wprowadzanych danych i generowanych treści. Dyskusja koncentruje się na tym, czy odpowiedzialność za realizację żądań osób, których dane dotyczą, powinna spoczywać na użytkownikach korzystających z chatbotów LLM, czy na dostawcach tych modeli.

 

Europejska Rada Ochrony Danych (EDPB) oraz różne organy ochrony danych (DPA) mają odmienne zdania na ten temat. Komisarz ds. ochrony danych w Hamburgu argumentuje, że za realizację żądań osób, których dane dotyczą, powinni odpowiadać wdrażający LLM, a nie dostawcy modeli. Z kolei Grupa Zadaniowa EDPB dotycząca ChatGPT podkreśla, że odpowiedzialność nie powinna być przenoszona na osoby, których dane dotyczą, zgodnie z zasadą rzetelności wynikającą z RODO.

 

Artykuł uwypukla złożoność przypisywania kontroli i odpowiedzialności w kontekście nowych technologii oraz zgodności z RODO. Wzywa dostawców LLM do przyjęcia odpowiedzialności za wprowadzane dane, które mogą zawierać dane osobowe, zamiast przenoszenia tej odpowiedzialności na indywidualnych użytkowników.

 

Polecamy zapoznanie się z pełnym artykułem, aby lepiej zrozumieć te wyzwania związane z ochroną danych, perspektywy regulacyjne oraz implikacje dla zarówno osób indywidualnych, jak i przedsiębiorstw korzystających z chatbotów LLM.

 

Link do artykułu: https://iapp.org/news/a/data-subjects-as-controllers-violation-of-gdpr-s-fairness-principle

 

 

 

Masz pytania?

Jeśli masz więcej pytań dotyczących RODO i sztucznej inteligencji- więcej informacji znajdziesz w naszym serwisie. Przejrzyj nasze zasoby!

 

Jeżeli chcesz być na bieżąco z tematyką RODO, prawa nowych technologii i AI obserwuj nas!

Facebook https://www.facebook.com/odoserwis.pl.2016/

Linkedin https://www.linkedin.com/company/odoserwis-pl/

Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl

Jeżeli chciałbyś skorzystać z opinii lub porady prawnej nie wahaj się skontaktować z nami office@jds.com.pl ; www.jds.com.pl

 

 

Ai, Dane Osobowe, Chatgpt, Chatbot, Odpowiedzialnośćzaai, Dane Osobowe A Sztuczna Inteligencja,
Rozpoczęcie skoordynowanego egzekwowania prawa do usunięcia danych przez EROD
Rozpoczęcie skoordynowanego egzekwowania prawa do usunięcia danych przez EROD
Hiszpański Urząd Ochrony Danych (AEPD) publikuje ciekawy artykuł na temat transparentności w kontekście sztucznej inteligencji (AI)
Hiszpański Urząd Ochrony Danych (AEPD) publikuje ciekawy artykuł na temat transparentności w kontekście sztucznej inteligencji (AI)
Francja: Noyb złożył trzy skargi do CNIL w sprawie nielegalnego przetwarzania danych przez trzy popularne aplikacje
Francja: Noyb złożył trzy skargi do CNIL w sprawie nielegalnego przetwarzania danych przez trzy popularne aplikacje