Wystarczy jedno zdjęcie i próbka głosu, by stworzyć cyfrową osobę, która powie, co tylko jej każemy.

Microsoft pokazał nowe narzędzie do generowania syntetycznych filmów. Dzięki niemu będzie można wprawić w ruch dowolną osobę i podłożyć jej głos na podstawie tylko jednego zdjęcia. Narzędzie pozwala na wykonanie bardzo realistycznych animacji i nazywa się VASA-1. Stworzyli je pracownicy azjatyckiego regionu tej jednej z największych spółek technologicznych na świecie. Filmy, które generuje, cechują się precyzyjną synchronizacją ruchu ust, naturalnymi ruchami głowy i mimiką do złudzenia przypominającą ludzką. A wszystko to w czasie rzeczywistym. Według inżynierów, którzy opracowali technologię, może ona przynieść znaczące korzyści w edukacji, stanowić wsparcie terapeutyczne czy pomóc stworzyć „towarzystwo” dla osób samotnych.

Amerykański gigant nie zamierza na razie udostępniać swojego modelu szerokiemu gronu odbiorców ze względu na potencjalne ryzyka. „Nie planujemy udostępniać wersji demonstracyjnej online (…) dopóki nie będziemy mieć pewności, że technologia ta będzie używana w sposób odpowiedzialny i zgodny z odpowiednimi przepisami” – tłumaczy firma.

Nie tylko Microsoft testuje podobne narzędzia. Kilka tygodni temu zbliżoną funkcjonalność przedstawili inżynierowie z Chin. Należące do Alibaba Group laboratorium Institute for Intelligent Computing dwa miesiące temu pokazało swój model, który nazwało EMO. Open AI, czyli spółka, która stworzyła ChatGPT, idzie w testowaniu narzędzi wideo jeszcze dalej – w połowie lutego zaprezentowała narzędzie SORA, które potrafi wygenerować cały film wyłącznie na podstawie opisu.

Upowszechnianie się podobnego oprogramowania stanowi wyzwanie dla legislatorów na całym świecie. Jak dotąd nie ma bowiem skutecznych narzędzi, które pozwalałyby na usuwanie z internetu filmów w technologii deepfake’u. Można próbować z nimi walczyć na podstawie prawa krajowego.

– W tego typu sytuacjach mogą zostać naruszone przepisy ustawy o prawie autorskim i prawach pokrewnych (wykorzystanie wizerunku osoby bez zgody), kodeksu cywilnego, a nawet karnego (przestępstwo zniesławienia, art. 112 kodeksu karnego) – przypomina podkomisarz Marcin Zagórski z zespołu prasowego Centralnego Biura Zwalczania Cyberprzestępczości. – Każdy, kto się dowie, że jego wizerunek został wykorzystany w internecie bez jego wiedzy i zgody, może zawiadomić o tym fakcie najbliższą jednostkę policji lub prokuraturę – dodaje.

Technologia deepfake’u to coraz większy problem. Według danych Deeptrace Labs, firmy, która buduje narzędzia do wykrywania syntetycznych treści, 96 proc. takich filmów to pornografia. W ostatnich tygodniach głośna stała się sprawa Giorgii Meloni, której wizerunek został zmontowany z filmem pornograficznym. Premier Włoch pozwała dwóch mężczyzn, którzy wykorzystali jej zdjęcie do stworzenia wideo, i domaga się od nich 100 tys. euro odszkodowania. Jeśli sąd przyzna jej rację, będzie to drogowskaz dla ofiar takich przestępstw. Padają nimi głównie kobiety.

Podobnie może zadziałać sprawa piosenkarki Taylor Swift. Po tym, jak pornograficzne filmy z jej rzekomym udziałem zaczęły zyskiwać popularność w serwisie X (dawniej Twitter), amerykańscy kongresmeni wyszli z inicjatywą wprowadzenia zakazu używania takiej technologii. ©℗

Więcej o tym, w jaki sposób można zidentyfikować i uniknąć pułapek deepfake’u, w najnowszym programie wideo „Wittenberg rozmawia o technologiach”. Obejrzyj już teraz na gazetaprawna.pl