Ustawa o AI w Parlamencie Europejskim
17/02/2023
Sprawozdawcy Parlamentu Europejskiego ds. ustawy o sztucznej inteligencji (AI) ogłosili, że udostępnili program swojego spotkania politycznego. Obejmowało nowe kompromisy dotyczące definicji sztucznej inteligencji, jej zakresu i zakazanych praktyk. W zestawieniu znalazły się również kategorie wysokiego ryzyka. W niniejszej publikacji szczegółowo prezentujemy wszystkie ww. zagadnienia.
.jpg)
Ustawa o AI w Parlamencie Europejskim
Definicja sztucznej inteligencji
Wspólne rozumienie sztucznej inteligencji jest niezbędne do jej wykorzystania. Wielu urzędników w Unii Europejskiej zasugerowało użycie definicji AI opracowanej przez amerykański Narodowy Instytut Standardów i Technologii.
Sztuczna inteligencja jest zdefiniowana jako system zbudowany lub oparty na maszynie, który może generować treści, prognozy, zalecenia lub decyzje mające wpływ na środowiska rzeczywiste lub wirtualne. Systemy sztucznej inteligencji są zaprojektowane do autonomicznego działania z różnymi poziomami funkcjonalności.
SI muszą być zdolne do samodzielnego funkcjonowania przy niewielkiej ingerencji człowieka. Mogą się uczyć, stosując automatyzmy. Ma to na celu zapewnienie, że sztuczna inteligencja nie będzie wykazywać w pełni przewidywalnych lub identyfikowalnych cech.
Duże modele zwane sztuczną inteligencją ogólnego przeznaczenia są w stanie wykonywać wiele zadań przy niewielkich zmianach. Należy uwzględnić krytyczną dyskusję dotyczącą celów tych modeli.
Jawne lub ukryte cele mogą być powiązane z ogólnym celem systemu, ale w rzeczywistości są one związane z procesem optymalizacji poszczególnych parametrów modelu. Ten cel nie jest istotny dla zamierzonego celu lub funkcji systemu.
Stwierdza się, że wszelkie programy, które wchodzą w interakcje ze sztuczną inteligencją, należy traktować jako część większego systemu.
Definicja AI nie jest już załącznikiem do ustawy; zamiast tego jest częścią samego prawa. Oznacza to, że Komisja Europejska nie może później zmienić definicji.
Zakres
Sprawozdawcy chcą wiedzieć, czy rozporządzenie w sprawie sztucznej inteligencji powinno uniemożliwiać europejskim przedsiębiorstwom wdrażanie systemów punktacji społecznej lub innych zabronionych systemów sztucznej inteligencji jako podstawowych elementów jednolitego rynku. Dodatkowo chcą wiedzieć, czy to rozporządzenie powinno również zapobiegać eksportowi tych systemów poza Jednolity Rynek.
Proponuje się częściowe zamknięcie alternatyw dla sztucznej inteligencji typu open source.
„Jako płatność za sam system sztucznej inteligencji, świadczenie systemu sztucznej inteligencji jako usługi lub świadczenie wsparcia technicznego dla systemu sztucznej inteligencji jako usługi, niniejsza klauzula ma zastosowanie do czasu publicznego udostępnienia tych systemów”.
Praktyki uważane za tabu.
Wykorzystywanie danych biometrycznych do identyfikacji osób na podstawie wrażliwych atrybutów lub orientacji religijnej i seksualnej skutkuje naruszeniem ogólnego rozporządzenia o ochronie danych. Przepisy nakazują, aby chronione informacje obejmowały rasę i orientację seksualną. Dodatkowo systemy sztucznej inteligencji wykorzystujące te dane są zabronione.
Obecnie modele AI zapełniają bazy danych rozpoznawania twarzy. Modele te pozyskują wszelkie zdjęcia z twarzami z profili w mediach społecznościowych, nagrań z monitoringu i innych zastosowań wysokiego ryzyka. Wielu czołowych eurodeputowanych chce zakazać tej praktyki.
Klasyfikacja wysokiego ryzyka.
W rozporządzeniu wymieniono systemy i cele z załącznika III, które stwarzają wysokie ryzyko. Systemy te są uregulowane jako sztuczna inteligencja wysokiego ryzyka, ponieważ mają zdolność wyrządzenia krzywdy innej osobie.
Podczas tworzenia modelu AI należy wziąć pod uwagę jego zamierzony cel. Pomysł ten wywodzi się z początkowej propozycji i odnosi się do przypadków użycia i celów modeli. Nie dotyczy to jednak niektórych modeli, takich jak systemy sztucznej inteligencji wykorzystywane przez partie polityczne lub do badań naukowych.
Twórcy sztucznej inteligencji mogą powiadomić organ krajowy lub organ ds. sztucznej inteligencji, jeśli ich system zostanie uznany za obarczony wysokim ryzykiem, nawet jeśli jest uwzględniony w załączniku III. Wynika to z faktu, że każdy kraj UE, którego dotyczy ich system, wymagałby natychmiastowej uwagi.
Współsprawozdawcy dodali do swojej wersji kompromisowej klauzulę „milczącej zgody”. Oznacza to, że władze muszą wyrazić milczącą zgodę, zanim będą mogły zwolnić się z obowiązku przestrzegania przepisów. Jeśli tego nie zrobią, zgodność zostanie uznana za uzasadnioną, jeśli odpowiedź zajmie im więcej niż trzy miesiące.
UE przechowuje dane w centralnej bazie danych.
Tworząc systemy sztucznej inteligencji, prywatne firmy i władze publiczne muszą być zarejestrowane w ogólnoświatowej bazie danych. Ustawodawca sugeruje rozszerzenie tego wymogu na dostawców systemów AI obarczonych wyższym ryzykiem.
Niektóre wytyczne dotyczą wszystkich.
Nowe wytyczne dla wszystkich systemów sztucznej inteligencji obowiązują na zasadzie dobrowolności. Biuro AI i Komisja musiałyby stworzyć nowe zalecenia dotyczące przestrzegania tych zasad, gdyby wymagał tego stworzony przez nich system.
Aby projekt mógł zostać uznany za blockchain zgodny z zasadami, musi spełniać następujące wytyczne: odpowiednią wyjaśnialność, uczciwość, niedyskryminację i ekologię, zgodność z przepisami w zakresie ochrony danych, nadzór ludzki i solidność techniczną.
Zrozumienie sztucznej inteligencji jest konieczne, aby zostać uznanym za posiadającego wiedzę.
W miejscach pracy, w których wykorzystywana jest sztuczna inteligencja, pracownicy muszą być świadomi jej konsekwencji. Dotyczy to zarówno dostawców, jak i wdrażających sztuczną inteligencję. Muszą również posiadać wiedzę na temat rozporządzenia w sprawie sztucznej inteligencji jako całości.
Jeżeli chcesz być informowany na bieżąco o naszych publikacjach dołącz do nas i polub nas na Facebooku https://www.facebook.com/odoserwis.pl.2016/
-----------------------------------------------------
Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl