To pierwszy taki wyrok w Europie i prawdopodobnie zapowiedź nowej ery: sąd w Monachium uznał, że modele ChatGPT naruszają prawa autorskie, odtwarzając chronione teksty piosenek. Decyzja, choć jeszcze nieprawomocna, już teraz zatrzęsła światem nowych technologii i wywołała trzęsienie ziemi w branży AI.
42. Wydział Cywilny Sądu Rejonowego Monachium I orzekł, że GPT-4 i GPT-4o zawierały „odtwarzalne” fragmenty dziewięciu niemieckich utworów, m.in. „Atemlos” Kristiny Bach i „Wie schön, dass du geboren bist” Rolfa Zuckowskiego. Model – zdaniem sądu – nie tylko inspirował się, ale wręcz „zapamiętał” i potrafił odtworzyć tekst w niemal niezmienionej formie.
Sąd: model pamięta, więc kopiuje
Wyrok jasno stwierdza, że takie zapamiętanie oznacza „utrwalenie dzieła” w strukturze modelu, co spełnia definicję reprodukcji w świetle unijnego prawa autorskiego. Innymi słowy – nawet jeśli AI nie ma fizycznej kopii utworu, to i tak go posiada – w parametrach własnej sieci neuronowej.
Sąd zacytował fragment, który może stać się precedensem: „Trenowanie modeli nie jest zwykłą i oczekiwaną formą korzystania, którą właściciel praw musi przewidzieć.” W praktyce to oznacza, że firmy AI nie mogą już bezkarnie używać materiałów chronionych do nauki swoich algorytmów.
Wyrok nakazuje OpenAI ujawnić dane o użytych tekstach treningowych i zapłacić odszkodowanie właścicielom praw. To może otworzyć lawinę podobnych spraw w całej Europie – od wytwórni muzycznych po wydawców książek.
OpenAI: to nie kopiowanie, to statystyka
OpenAI zaprzecza, jakoby modele kopiowały dane. W oświadczeniu firma podkreśla: „Nie przechowujemy utworów – uczymy się wzorców.” Z technicznego punktu widzenia to prawda: model generuje nowe sekwencje tokenów, bazując na prawdopodobieństwie występowania fragmentów języka. Ale monachijski sąd uznał, że statystyka nie wyklucza plagiatu, jeśli wynik jest identyczny z oryginałem.
Firma próbuje bronić się, powołując na wyjątki prawne dotyczące analizy tekstów i danych (tzw. text and data mining), lecz sąd odrzucił ten argument: „Pełne reprodukcje dzieł, nawet w formie statystycznej, wykraczają poza dozwolony użytek.”
CYNICZNYM OKIEM: OpenAI przekonywało, że ChatGPT „nie pamięta”. Problem w tym, że pamiętał zbyt dobrze.
Kto naprawdę łamie prawo – maszyna czy człowiek?
Spór o granice twórczości maszynowej toczy się nie tylko w sądach, ale i w etyce. Jeśli model uczy się na ludzkiej kulturze, to czy kiedykolwiek może być naprawdę „autorem”? A jeśli efekt jego pracy jest zbyt podobny do oryginału, czy odpowiedzialność ponosi algorytm, twórca modelu, czy użytkownik, który zadał pytanie?
Wyrok z Monachium omija ten dylemat. Wskazuje jasno: odpowiada właściciel systemu, czyli OpenAI. Ale to rozstrzygnięcie tworzy paradoks – firma odpowiada za czyny narzędzia, którego nie potrafi w pełni kontrolować.
To trochę tak, jakby sąd kazał producentowi młotka odpowiadać za wszystkie gwoździe wbite w nieodpowiednie miejsce.
Pierwszy wyrok, który może zmienić wszystko
Choć decyzja nie jest prawomocna, konsekwencje mogą być kolosalne. Jeśli utrzyma się w apelacji, firmy wykorzystujące sztuczną inteligencję będą musiały ujawniać źródła swoich danych treningowych, a to uderzy w całą branżę – od Google po Anthropic.
Dla twórców to szansa na realną ochronę. Dla programistów – potencjalny koszmar regulacyjny. Po raz pierwszy europejski sąd orzekł, że model językowy może „posiadać” cudze dzieło, mimo że nie przechowuje go dosłownie.
To filozoficzna zmiana w postrzeganiu sztucznej inteligencji: od narzędzia do uczestnika odpowiedzialności.
CYNICZNYM OKIEM: ChatGPT właśnie dołączył do historii muzyki – nie jako kompozytor, lecz jako pozwany.
Wyrok z Monachium jest sygnałem ostrzegawczym dla całego sektora. Nowe europejskie regulacje o sztucznej inteligencji już zapowiadają wymóg przejrzystości danych treningowych i pełnej identyfikowalności źródeł. Dla wielu firm – w tym polskich startupów AI – to oznacza koniec „szarej strefy danych”, gdzie można było uczyć modele na wszystkim, co wpadło do internetu.
Muzyka była tylko pierwszym polem bitwy, bo łatwo udowodnić podobieństwo. Następne będą teksty literackie, obrazy i wideo.
W tym kontekście wyrok z Bawarii nie dotyczy tylko ChatGPT. To decyzja o granicach kultury, własności i ludzkiej twórczości w epoce, gdy uczenie maszynowe staje się nową formą kopiowania świata.
Bo jeśli maszyna potrafi doskonale powtórzyć człowieka – czy to jeszcze technologia, czy już konkurencja?
CYNICZNYM OKIEM: Geniusz ludzkości polegał na tym, że potrafiła stworzyć narzędzie, które łamie jej własne prawa – dosłownie.


