Z wielkim zainteresowaniem przeczytałem wywiad z dr Zbigniewem Okoniem „Dziś zablokowanie AI dostępu do treści to fikcja”, DGP nr 21/2024.

W rozmowie bardzo przejrzyście zaprezentowano historię prac nad dyrektywą o prawie autorskim z 2019 r. (DSM) czy mechanizm trenowania generatywnych systemów AI. Doktor Okoń przede wszystkim uznał jednak możliwość zastosowania art. 4 dyrektywy do trenowania generatywnych algorytmów, nawet jeśli dostrzegł pewne niedostatki tego przepisu. W wywiadzie zaznaczono także, że właśnie finalizowany projekt aktu o AI niejako post factum legalizuje oparcie trenowania generatywnych algorytmów na wyjątku TDM (Text and Data Mining).

Od samego początku miałem i mam potężne wątpliwości, czy art. 4 dyrektywy DSM może mieć zastosowanie do generatywnych modeli. Z pełnym przekonaniem twierdzę, że często postponowany argument o braku wyobraźni odnośnie do funkcjonowania tego rodzaju modeli w momencie pracy nad dyrektywą, jest zgodny z prawdą. Jest faktem, że ani sama dyrektywa, ani dokumenty jej towarzyszące słowem nie wspominają o modelach generatywnych. Sami bezpośredni uczestnicy prac nad dyrektywą (posłowie Parlamentu Europejskiego) zaświadczają, że nie była ona przedmiotem debaty. Przyjmuję do wiadomości, że na ostatniej prostej prac nad dyrektywą liczono się z eksplozją generatywnych zdolności maszyn. Trudno jednak byłoby założyć, że na podstawie mglistych wyobrażeń możliwe jest takie skonstruowanie przepisu, aby czynił on zadość interesom tych, którzy są uprawnieni do danych treningowych. Jeśli zatem – a to chyba pozostaje poza sporem – prawodawca nie mógł mieć jasności co do niezwykle inwazyjnego sposobu działania generatywnych modeli, nie mógł obejmować ich prawodawczym zamiarem. Tym bardziej że funkcjonują one jednak w inny, dwufazowy sposób, o czym mowa poniżej.

Choć w publicznej debacie zafunkcjonował przede wszystkim spór o historię prac nad dyrektywą DSM, nie jest to przecież jedyny argument. Funkcjonowanie tych modeli na obecnym etapie jest dwufazowe. Pierwszy etap, nazywany fazą input, obejmuje pozyskanie oraz wewnętrzne ustrukturyzowanie możliwie obszernych zasobów danych dla wyekstrahowania z nich zawartości informacyjnej. Wewnętrzne struktury modeli nie stanowią jakiegoś amalgamatu zminiaturyzowanych obrazków czy treści pozyskanych z sieci. Niczym sok z cytryny wyciskają one wiedzę na temat sposobu przedstawienia tego czy innego elementu i przyswajają ją. Dzięki tej umiejętności mogą one odtwarzać te kształty na drugim etapie (faza output). Gdyby przyjąć zastosowanie wyjątku TDM, mógłby objąć wyłącznie pierwszy etap (input), nie drugi – output. Tym samym doszłoby do sztucznej i do tej pory niespotykanej sytuacji, w której jeden niepodzielny proces w postaci funkcjonowania generatywnych modeli zostałby jedynie częściowo usprawiedliwiony dozwolonym użytkiem. W drugiej fazie (tj. gdyby output naruszał cudze prawa autorskie) już jednak nie.

Bodaj najistotniejszym argumentem jest jednak absurdalnie asymetryczne ukształtowanie art. 4 dyrektywy DSM, gdyby uznać jego zastosowanie wobec generatywnej AI. Po pierwsze, brak jest jakiegokolwiek zabezpieczenia interesu uprawnionych do danych treningowych, ponieważ zastrzeżenie możliwości TDM (opt-out) jest wielopoziomowo kompletnie dysfunkcjonalne. Doświadczenia branży kreatywnej w tym zakresie stanowią dostateczny dowód. Po drugie, igra się z pomysłem dopuszczenia możliwości komercyjnego trenowania na wszelkich dostępnych w internecie danych. Dla jasności, wedle tego zapatrywania dane nie muszą pochodzić z legalnego źródła, wystarczająca jest ich dostępność w sieci internetowej (czyli np. nieumieszczenie za paywallem). Manifestacyjnie pirackie strony internetowe, których treści mogą się pokrywać z pieczołowicie chronionymi zasobami wydawców czy producentów filmów, mogą tym samym przyczyniać się do wzbogacania generatywnych modeli. Po trzecie, niektórzy odmawiają nawet możliwości ustanowienia systemu rekompensaty za „komercyjny TDM” (dla jasności, nie chodzi o żądanie odpłatności za korzystanie wskutek umieszczenia zastrzeżenia, lecz sytuację korzystania bez umieszczenia opt-outu).

Mamy wreszcie rok 2022. Wtedy światło dzienne ujrzały zaawansowane graficzne czy tekstowe narzędzia AI (typu DALL-E czy ChatGPT). Były to w pełni funkcjonalne, bo już wytrenowane na cudzych treściach narzędzia. Sięgnięto zatem po cudze treści po cichu, bez wiedzy, zgody, jakiejkolwiek rekompensaty. Interpretując zakres art. 4 dyrektywy DSM, ja przynajmniej nie potrafię abstrahować od tej sytuacji, która w istocie rzeczy jest dotkliwym przykładem braku poszanowania cudzej własności intelektualnej, ujmując najłagodniej całą rzecz. Określenie tej sytuacji jako wtórna wiktymizacja byłoby może bardziej trafne.

Czy w świetle powyższego naprawdę można twierdzić, że art. 4 dyrektywy czyni zadość choćby w minimalnym stopniu interesowi uprawnionych do danych treningowych? Przecież w istocie rzeczy są oni sponsorami modeli generatywnej AI.

Na jednej z platform społecznościowych przeczytałem celną metaforę tej sytuacji: kiedy sprzedaję na ulicy kanapki, nie proszę sąsiadów o zrzucenie się na jej składniki, bo to w końcu ja na nich zarabiam.©℗