Zarejestruj się i uzyskaj dostęp do licznych narzędzi

Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

25/09/2024

Ai, Dane Osobowe, Chatgpt, Chatbot, Odpowiedzialnośćzaai, Dane Osobowe A Sztuczna Inteligencja,

Wraz z rosnącą popularnością chatbotów opartych na dużych modelach językowych pojawiają się nowe wyzwania związane z ochroną danych osobowych. Kto powinien ponosić odpowiedzialność za wprowadzane i generowane przez te modele dane – użytkownicy, dostawcy technologii czy wdrażający chatboty


Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

Kluczowe zagadnienia ochrony danych w dużych modelach językowych: Kto odpowiada za wprowadzane i generowane treści?

Polecamy wnikliwy artykuł Lokka Moerel i Marijn Storm, w którym autorzy poruszają kluczowy problem ochrony danych dotyczący dużych modeli językowych (LLM) takich jak ChatGPT: określenie, kto powinien być uznawany za "administratora" wprowadzanych danych i generowanych treści. Dyskusja koncentruje się na tym, czy odpowiedzialność za realizację żądań osób, których dane dotyczą, powinna spoczywać na użytkownikach korzystających z chatbotów LLM, czy na dostawcach tych modeli.

 

Europejska Rada Ochrony Danych (EDPB) oraz różne organy ochrony danych (DPA) mają odmienne zdania na ten temat. Komisarz ds. ochrony danych w Hamburgu argumentuje, że za realizację żądań osób, których dane dotyczą, powinni odpowiadać wdrażający LLM, a nie dostawcy modeli. Z kolei Grupa Zadaniowa EDPB dotycząca ChatGPT podkreśla, że odpowiedzialność nie powinna być przenoszona na osoby, których dane dotyczą, zgodnie z zasadą rzetelności wynikającą z RODO.

 

Artykuł uwypukla złożoność przypisywania kontroli i odpowiedzialności w kontekście nowych technologii oraz zgodności z RODO. Wzywa dostawców LLM do przyjęcia odpowiedzialności za wprowadzane dane, które mogą zawierać dane osobowe, zamiast przenoszenia tej odpowiedzialności na indywidualnych użytkowników.

 

Polecamy zapoznanie się z pełnym artykułem, aby lepiej zrozumieć te wyzwania związane z ochroną danych, perspektywy regulacyjne oraz implikacje dla zarówno osób indywidualnych, jak i przedsiębiorstw korzystających z chatbotów LLM.

 

Link do artykułu: https://iapp.org/news/a/data-subjects-as-controllers-violation-of-gdpr-s-fairness-principle

 

 

 

Masz pytania?

Jeśli masz więcej pytań dotyczących RODO i sztucznej inteligencji- więcej informacji znajdziesz w naszym serwisie. Przejrzyj nasze zasoby!

 

Jeżeli chcesz być na bieżąco z tematyką RODO, prawa nowych technologii i AI obserwuj nas!

Facebook https://www.facebook.com/odoserwis.pl.2016/

Linkedin https://www.linkedin.com/company/odoserwis-pl/

Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl

Jeżeli chciałbyś skorzystać z opinii lub porady prawnej nie wahaj się skontaktować z nami office@jds.com.pl ; www.jds.com.pl

 

 

Ai, Dane Osobowe, Chatgpt, Chatbot, Odpowiedzialnośćzaai, Dane Osobowe A Sztuczna Inteligencja,
Hiszpański Urząd Ochrony Danych (AEPD) publikuje ciekawy artykuł na temat transparentności w kontekście sztucznej inteligencji (AI)
Hiszpański Urząd Ochrony Danych (AEPD) publikuje ciekawy artykuł na temat transparentności w kontekście sztucznej inteligencji (AI)
Francja: Noyb złożył trzy skargi do CNIL w sprawie nielegalnego przetwarzania danych przez trzy popularne aplikacje
Francja: Noyb złożył trzy skargi do CNIL w sprawie nielegalnego przetwarzania danych przez trzy popularne aplikacje
Datatilsynet rozszerza wytyczne dotyczące prawa do usunięcia danych z wyszukiwarek
Datatilsynet rozszerza wytyczne dotyczące prawa do usunięcia danych z wyszukiwarek