Amerykańska senator Marsha Blackburn opublikowała 291-stronicowy projekt legislacyjny, który pod szyldem innowacji i bezpieczeństwa narodowego proponuje coś fundamentalnie innego – całkowite uchylenie Sekcji 230 ustawy o łączności, czyli prawnego fundamentu współczesnego internetu. Propozycja zatytułowana „TRUMP AMERICA AI Act” jest prezentowana jako środek mający chronić dzieci, twórców, konserwatystów i społeczności, jednocześnie zapewniając dominację USA w globalnym wyścigu o sztuczną inteligencję. Rzeczywista struktura projektu ujawnia jednak kompleksowy system centralizujący uprawnienia regulacyjne, zwiększający narażenie platform na ryzyko prawne i tworzący nowe mechanizmy kontrolowania wyników działań AI oraz przepływów informacji cyfrowej.
Sekcja 230 od lat chroni platformy internetowe przed traktowaniem ich jako wydawców treści generowanych przez użytkowników, zabezpieczając je przed odpowiedzialnością cywilną za to, co publikują internauci. Ramy zaproponowane przez Blackburn eliminują tę ochronę całkowicie, tworząc w zamian wiele nowych ścieżek odpowiedzialności – egzekwowanych nie tylko przez federalne organy regulacyjne, ale także przez prokuratorów generalnych stanów i podmioty prywatne. Platformy i deweloperzy AI mogą stanąć w obliczu działań prawnych za „wadliwy projekt”, „brak ostrzeżenia” lub tworzenie systemów uznanych za „nadmiernie niebezpieczne”.

Obowiązek dołożenia starań – gumowy paragraf do dowolnej interpretacji
Ustawa nakłada na deweloperów AI wymóg „obowiązku dołożenia starań”, nakazując im zapobieganie „racjonalnie przewidywalnym szkodom” wynikającym z ich systemów. Język tego przepisu jest szeroki i celowo niedookreślony. To, co kwalifikuje się jako „szkoda”, co jest „przewidywalne” oraz kiedy system AI jest uznawany za „czynnik przyczyniający się”, nie są stałymi standardami – określają je po fakcie organy regulacyjne, sądy i strony sporów.
Tworzy to model egzekwowania wstecznego, w którym wyniki działań AI mogą zostać uznane za niezgodne z prawem na podstawie ewoluujących interpretacji. Firmy są zmuszane do prewencyjnego ograniczania tego, co ich systemy mogą generować.
Ramy wielokrotnie podkreślają potrzebę wyeliminowania „mozaiki praw stanowych” i zastąpienia jej jednym krajowym standardem. Władza konsoliduje się na szczeblu federalnym – agencje takie jak FTC, Departament Sprawiedliwości, NIST i Departament Energii otrzymują uprawnienia do definiowania i egzekwowania zasad dotyczących AI w całym kraju.
CYNICZNYM OKIEM: Ustawa nazywa się „TRUMP AMERICA AI Act” i obiecuje wolność innowacji. W środku – 291 stron nowych zakazów, obowiązków raportowych i gumowych paragrafów. Marketing polityczny osiągnął poziom sztucznej inteligencji.
Dzieci, algorytmy i koniec dozwolonego użytku
W ramach przepisów dotyczących ochrony dzieci ustawa uderza bezpośrednio w cechy konstrukcyjne platform cyfrowych – spersonalizowane systemy rekomendacji, nieskończone przewijanie, autoodtwarzanie oraz powiadomienia zachęcające do zaangażowania. Platformy byłyby zobowiązane do modyfikacji lub ograniczenia tych funkcji, aby zapobiegać szkodom takim jak lęk, depresja i „kompulsywne użytkowanie”. Nie jest to moderacja treści – to regulacja sposobu, w jaki informacje są rankingowane, dostarczane i wzmacniane.
Ustawa nakazuje również NIST opracowanie krajowych standardów znakowania wodnego mediów generowanych przez AI, śledzenia pochodzenia treści cyfrowych i wykrywania treści syntetycznych. Dostawcy AI mają umożliwić właścicielom treści dołączanie danych o pochodzeniu, a ich usuwanie będzie zakazane.
Kluczowy przepis dotyczy praw autorskich – ramy wyraźnie stwierdzają, że wykorzystywanie materiałów chronionych prawem autorskim do szkolenia modeli AI nie kwalifikuje się jako dozwolony użytek, co otwiera drogę do masowych sporów sądowych przeciwko deweloperom AI. Ustanowiono również odpowiedzialność za nieautoryzowane użycie głosu lub wizerunku osoby w treściach generowanych przez AI.
Firmy będą musiały składać kwartalne raporty na temat wpływu AI na zatrudnienie, w tym zwolnień i stanowisk wyeliminowanych przez automatyzację. Federalny „Program Ewaluacji Zaawansowanej Sztucznej Inteligencji” ma monitorować zagrożenia takie jak scenariusze utraty kontroli i użycie systemów AI jako broni.
Propozycja obejmuje utworzenie Narodowych Zasobów Badawczych Sztucznej Inteligencji – wspólnej infrastruktury publiczno-prywatnej zapewniającej moc obliczeniową, duże zbiory danych i narzędzia badawcze. Kontrola nad tymi zasobami umieszcza kierunek rozwoju AI w scentralizowanych ramach.
CYNICZNYM OKIEM: Odpowiedzialność prawna jako narzędzie cenzury – treści nie trzeba zakazywać, wystarczy sprawić, by ich publikacja była zbyt ryzykowna finansowo. Orwell by się nie powstydził, ale pewnie zażądałby tantiemów za inspirację.
Dla niezależnych dziennikarzy i wydawców konsekwencje są jednoznaczne. Pytaniem nie jest już, czy reportaż jest dokładny i oparty na źródłach, ale czy jego publikacja może wywołać ryzyko prawne dla platformy, na której się ukazuje. Przewidywalnym rezultatem jest prewencyjne ograniczanie zasięgów, zaostrzanie polityk i usuwanie treści, które mogłyby zostać uznane za szkodliwe – zwłaszcza doniesień o zdrowiu publicznym, programach rządowych czy innych kwestiach o wysokiej stawce. Kontrowersyjne reportaże nie muszą być wprost zakazywane – muszą jedynie stać się zbyt kosztowne, by platformy chciały je udostępniać. Kontrola nad odpowiedzialnością prawną staje się w praktyce kontrolą nad widocznością.


