Article 1

UODO zabiera głos ws. sztucznej inteligencji. Prywatność i dane osobowe muszą pozostać nadrzędną wartością

Rozwój sztucznej inteligencji w Polsce musi uwzględniać ochronę danych osobowych i prywatności obywateli – to główny wniosek, jaki znalazł się w oficjalnym stanowisku Urzędu Ochrony Danych Osobowych wobec rządowego projektu „Polityki rozwoju AI do 2030 roku”. Uwagi zostały przekazane do Ministerstwa Cyfryzacji po wewnętrznej debacie ekspertów z UODO.

Prezes Urzędu, Mirosław Wróblewski, jednoznacznie podkreślił, że zasada ochrony prywatności musi być traktowana jako horyzontalna i nadrzędna dla wszystkich sektorów objętych strategią rozwoju sztucznej inteligencji. Dotyczy to nie tylko obszarów takich jak edukacja, infrastruktura, administracja publiczna czy rynek innowacji, ale także sektora zdrowia, w którym przetwarzanie danych wrażliwych wymaga szczególnej ostrożności.

UODO zaznacza, że dokument rządowy w obecnym kształcie nie zapewnia dostatecznych gwarancji prawnych dla obywateli. Brakuje jasnych mechanizmów kontroli nad tym, w jaki sposób dane osobowe będą wykorzystywane przez algorytmy AI w usługach publicznych, jak również brak przejrzystości w zakresie odpowiedzialności instytucji wdrażających te rozwiązania.

Obawy UODO nie są odosobnione. Na europejskim forum toczy się dyskusja o konieczności wprowadzenia tzw. AI Act – aktu prawnego, który miałby uregulować zastosowanie sztucznej inteligencji w krajach UE. Polska strategia, zdaniem ekspertów UODO, powinna być spójna z tymi założeniami i nie może pozostawiać kwestii ochrony danych osobowych wyłącznie w gestii ogólnych deklaracji.

W oficjalnym stanowisku UODO znalazły się również rekomendacje dotyczące konieczności prowadzenia oceny ryzyka dla prywatności na etapie projektowania każdego rozwiązania AI oraz postulaty dotyczące udziału przedstawicieli ochrony danych osobowych w zespołach wdrażających AI w sektorze publicznym.

Jak wynika z analizy urzędu, sztuczna inteligencja może przynieść ogromne korzyści, ale jednocześnie niesie ze sobą poważne ryzyko naruszeń praw podstawowych. Dlatego – jak podkreślają przedstawiciele UODO – niezbędne są regulacje, które jasno określą granice dla działań algorytmów, zwłaszcza w obszarach takich jak zdrowie czy edukacja, gdzie skutki nieprzemyślanych decyzji technologicznych mogą być szczególnie dotkliwe społecznie.