Przyjęcie przez Włochy w październiku 2025 roku pierwszej krajowej ustawy regulującej sztuczną inteligencję stanowi jedno z najważniejszych wydarzeń prawnych ostatnich lat w Europie w obszarze nowych technologii. Choć na poziomie Unii Europejskiej trwają intensywne prace nad wdrożeniem AI Act, włoski ustawodawca zdecydował się na wcześniejsze i bardziej szczegółowe uregulowanie tej materii w prawie krajowym. Ustawa ta nie tylko wyprzedza unijną regulację w zakresie praktycznego stosowania zasad odpowiedzialności i nadzoru nad systemami AI, lecz także stanowi istotny punkt odniesienia dla przedsiębiorców technologicznych, dostawców oprogramowania oraz twórców rozwiązań opartych na uczeniu maszynowym.

Włoska ustawa o sztucznej inteligencji nie została skonstruowana jako samodzielny, oderwany akt prawny, lecz jako element szerszego systemu regulacyjnego, który obejmuje ochronę danych osobowych, odpowiedzialność cywilną, prawo karne oraz prawo konsumenckie. Ustawodawca włoski wyraźnie przyjął założenie, że sztuczna inteligencja nie jest jedynie neutralnym narzędziem technologicznym, lecz systemem zdolnym do wywierania realnego wpływu na prawa i wolności jednostek, a w konsekwencji wymagającym szczególnego nadzoru prawnego. To założenie przenika całą strukturę ustawy i stanowi jej ideowy fundament.

Jednym z kluczowych elementów włoskiej regulacji jest wprowadzenie obowiązku klasyfikacji systemów AI według poziomu ryzyka. Choć koncepcja ta jest znana z projektu unijnego AI Act, włoski ustawodawca poszedł o krok dalej, precyzując w prawie krajowym przykłady zastosowań uznawanych za szczególnie wrażliwe. Obejmuje to w szczególności systemy wykorzystywane w rekrutacji, ocenie zdolności kredytowej, analizie zachowań konsumenckich, profilowaniu użytkowników oraz w sektorze publicznym, w tym w wymiarze sprawiedliwości i administracji. W praktyce oznacza to, że znaczna część rozwiązań IT wykorzystywanych przez przedsiębiorców będzie podlegała obowiązkowi dodatkowej dokumentacji, audytu oraz zapewnienia mechanizmów kontroli człowieka nad decyzjami podejmowanymi przez algorytmy.

Szczególne znaczenie ma wprowadzenie w ustawie obowiązku transparentności działania systemów AI. Włoskie prawo wymaga, aby użytkownik końcowy był jednoznacznie poinformowany o tym, że ma do czynienia z systemem opartym na sztucznej inteligencji, a nie z człowiekiem. Obowiązek ten dotyczy zarówno chatbotów, systemów rekomendacyjnych, jak i narzędzi generujących treści tekstowe, wizualne czy dźwiękowe. Dla sektora IT oznacza to konieczność przebudowy interfejsów użytkownika, dokumentacji produktowej oraz regulaminów świadczenia usług cyfrowych. Co istotne, naruszenie tego obowiązku zostało powiązane z sankcjami administracyjnymi, których wysokość może sięgać kilku procent rocznego obrotu przedsiębiorstwa.

Na szczególną uwagę zasługuje również sposób, w jaki włoska ustawa reguluje odpowiedzialność za szkody wyrządzone przez systemy AI. Ustawodawca przyjął model rozszerzonej odpowiedzialności podmiotów wdrażających lub oferujących rozwiązania oparte na sztucznej inteligencji, niezależnie od tego, czy są one twórcami algorytmu, czy jedynie jego dystrybutorami. W praktyce oznacza to, że przedsiębiorca wdrażający system AI w swojej działalności może ponosić odpowiedzialność cywilną za skutki jego działania, nawet jeżeli korzysta z gotowego rozwiązania dostarczonego przez zewnętrznego dostawcę. Jest to istotna zmiana w podejściu do odpowiedzialności technologicznej, która dotychczas była często rozproszona i trudna do przypisania konkretnemu podmiotowi.

Ustawa wprowadza także szczególne regulacje dotyczące wykorzystywania danych do trenowania modeli AI. Włoski ustawodawca wyraźnie podkreśla konieczność zgodności takich procesów z przepisami o ochronie danych osobowych oraz prawem autorskim. W praktyce oznacza to, że masowe wykorzystywanie danych, w tym treści chronionych prawem autorskim, do trenowania modeli językowych lub systemów generatywnych może być uznane za naruszenie prawa, jeżeli nie istnieje odpowiednia podstawa prawna. To rozwiązanie stanowi wyraźny sygnał dla firm technologicznych, że dotychczasowe podejście polegające na nieograniczonym „scrapowaniu” danych z Internetu może zostać zakwestionowane na gruncie prawa krajowego.

Wpływ włoskiej ustawy o AI na sektor IT jest wielowymiarowy. Z jednej strony wprowadza ona istotne obciążenia regulacyjne, które mogą stanowić barierę wejścia na rynek dla mniejszych podmiotów technologicznych. Konieczność przeprowadzania audytów, prowadzenia dokumentacji technicznej oraz zapewnienia nadzoru człowieka nad systemami AI wiąże się z dodatkowymi kosztami operacyjnymi. Z drugiej strony, regulacja ta może przyczynić się do zwiększenia zaufania użytkowników do technologii AI oraz do ujednolicenia standardów rynkowych, co w dłuższej perspektywie sprzyja stabilnemu rozwojowi innowacji.

Nie bez znaczenia pozostaje również fakt, że włoska ustawa może stać się wzorem dla innych państw członkowskich Unii Europejskiej, które zdecydują się na wprowadzenie własnych regulacji uzupełniających AI Act. Dla przedsiębiorców działających transgranicznie oznacza to konieczność monitorowania nie tylko prawa unijnego, lecz także krajowych inicjatyw legislacyjnych, które mogą znacząco różnić się zakresem i szczegółowością regulacji. W praktyce sektor IT musi przygotować się na funkcjonowanie w środowisku wielopoziomowej regulacji, w którym zgodność z prawem stanie się jednym z kluczowych elementów strategii biznesowej.

Podsumowując, włoska ustawa o sztucznej inteligencji stanowi przełomowy krok w kierunku prawnego uporządkowania dynamicznie rozwijającego się obszaru technologii AI. Jej znaczenie wykracza daleko poza granice Włoch, wpływając na sposób, w jaki prawo postrzega relację między innowacją a odpowiedzialnością. Dla sektora IT oznacza to konieczność przemyślenia dotychczasowych modeli rozwoju oprogramowania, zarządzania ryzykiem prawnym oraz komunikacji z użytkownikami. W perspektywie najbliższych lat regulacja ta może okazać się jednym z najważniejszych punktów odniesienia w europejskiej debacie o przyszłości sztucznej inteligencji.