Prezes Urzędu, Mirosław Wróblewski, jednoznacznie podkreślił, że zasada ochrony prywatności musi być traktowana jako horyzontalna i nadrzędna dla wszystkich sektorów objętych strategią rozwoju sztucznej inteligencji. Dotyczy to nie tylko obszarów takich jak edukacja, infrastruktura, administracja publiczna czy rynek innowacji, ale także sektora zdrowia, w którym przetwarzanie danych wrażliwych wymaga szczególnej ostrożności.
UODO zaznacza, że dokument rządowy w obecnym kształcie nie zapewnia dostatecznych gwarancji prawnych dla obywateli. Brakuje jasnych mechanizmów kontroli nad tym, w jaki sposób dane osobowe będą wykorzystywane przez algorytmy AI w usługach publicznych, jak również brak przejrzystości w zakresie odpowiedzialności instytucji wdrażających te rozwiązania.
Obawy UODO nie są odosobnione. Na europejskim forum toczy się dyskusja o konieczności wprowadzenia tzw. AI Act – aktu prawnego, który miałby uregulować zastosowanie sztucznej inteligencji w krajach UE. Polska strategia, zdaniem ekspertów UODO, powinna być spójna z tymi założeniami i nie może pozostawiać kwestii ochrony danych osobowych wyłącznie w gestii ogólnych deklaracji.
W oficjalnym stanowisku UODO znalazły się również rekomendacje dotyczące konieczności prowadzenia oceny ryzyka dla prywatności na etapie projektowania każdego rozwiązania AI oraz postulaty dotyczące udziału przedstawicieli ochrony danych osobowych w zespołach wdrażających AI w sektorze publicznym.
Jak wynika z analizy urzędu, sztuczna inteligencja może przynieść ogromne korzyści, ale jednocześnie niesie ze sobą poważne ryzyko naruszeń praw podstawowych. Dlatego – jak podkreślają przedstawiciele UODO – niezbędne są regulacje, które jasno określą granice dla działań algorytmów, zwłaszcza w obszarach takich jak zdrowie czy edukacja, gdzie skutki nieprzemyślanych decyzji technologicznych mogą być szczególnie dotkliwe społecznie.