W erze cyfrowej manipulacji: jak AI tworzy i wykrywa fałszywe informacje

W dzisiejszych czasach coraz trudniej odróżnić prawdę od manipulacji. Dezinformacja nie jest już tylko domeną propagandy czy plotek krążących w mediach społecznościowych – tworzy ją również sztuczna inteligencja. Zaawansowane modele potrafią tworzyć realistyczne teksty, obrazy, a nawet wideo, które do złudzenia przypominają rzeczywistość. Deepfake’i, fałszywe artykuły i zmanipulowane wypowiedzi znanych osób zalewają internet, utrudniając odbiorcom ocenę, co jest prawdziwe, a co nie.

To, co jeszcze kilka lat temu wymagało specjalistycznej wiedzy i zaawansowanego sprzętu, dziś jest dostępne dla każdego. Dzięki publicznie dostępnym narzędziom AI wystarczy kilka kliknięć, by stworzyć fałszywe nagranie głosowe znanego polityka, realistyczne zdjęcie z nieistniejącego wydarzenia czy zmanipulowaną wypowiedź eksperta. Nigdy wcześniej tworzenie dezinformacji nie było tak proste i tak skuteczne.

W tym artykule przyjrzymy się, jak sztuczna inteligencja wpływa na zjawisko dezinformacji, w jaki sposób narzędzia oparte na AI przyczyniają się do jej rozprzestrzeniania, ale też jak mogą pomóc ją zwalczać. Gdzie leży granica między innowacją a zagrożeniem? I czy możemy jeszcze ufać temu, co widzimy i czytamy w sieci?

AI jako narzędzie dezinformacji

Sztuczna inteligencja, która zrewolucjonizowała wiele dziedzin życia, stała się także narzędziem wykorzystywanym do tworzenia i rozpowszechniania dezinformacji.

Deepfakes to realistyczne obrazy, nagrania wideo i audio wygenerowane przez sztuczną inteligencję, przedstawiające osoby wypowiadające słowa lub wykonujące czynności, których w rzeczywistości nigdy nie zrobiły. Jej działanie opiera się m.in. na tzw. generatywnych sieciach przeciwstawnych (GAN – Generative Adversarial Networks), czyli systemie dwóch sieci neuronowych: jedna generuje fałszywe dane, a druga ocenia ich autentyczność. Z czasem obie uczą się nawzajem, aż generowane materiały są niemal nie do odróżnienia od prawdziwych.

Obecnie technologia deepfake korzysta także z modeli text-to-image i text-to-video. Dzięki nim wystarczy wpisać krótki opis, by otrzymać materiał filmowy, który wygląda jak nagrany kamerą, choć w rzeczywistości powstał całkowicie syntetycznie. Możliwość generowania ruchu ust, mimiki i głosu konkretnej osoby sprawia, że materiały te zyskują szczególną siłę oddziaływania.

Pierwsze znane przypadki użycia deepfake’ów miały charakter rozrywkowy — użytkownicy internetu tworzyli np. fałszywe filmiki z aktorami w alternatywnych rolach. Z czasem jednak technologia zaczęła być wykorzystywana w bardziej kontrowersyjny sposób. Jednym z najbardziej głośnych przykładów była fałszywa wypowiedź prezydenta Ukrainy Wołodymyra Zełenskiego, w której nawoływał swoich rodaków do poddania się. Film pojawił się w 2022 roku w mediach społecznościowych i wzbudził duże zamieszanie, zanim jego autentyczność nie została podważona.

Skutki społeczne i polityczne związane z rozwojem tej technologii są poważne. Deepfake’i mogą być wykorzystywane do szerzenia dezinformacji, wpływania na wyniki wyborów, szantażowania osób publicznych czy niszczenia czyjejś reputacji. W sytuacji rosnącej polaryzacji społecznej i niskiego zaufania do mediów, fałszywe nagrania mogą wprowadzać chaos informacyjny.

Wykrywanie dezinformacji za pomocą AI

Chociaż sztuczna inteligencja może służyć do generowania fałszywych treści, coraz częściej staje się też narzędziem do ich wykrywania. Firmy technologiczne, organizacje fact-checkingowe oraz środowiska akademickie rozwijają systemy oparte na AI, które potrafią identyfikować manipulacje tekstowe, graficzne czy wideo.

Jednym z najważniejszych obszarów działań jest analiza tekstu. Modele NLP (Natural Language Processing) są wykorzystywane do automatycznego oznaczania podejrzanych wiadomości, analizowania źródeł oraz identyfikowania wzorców typowych dla fake newsów. Przykładem może być system ClaimBuster, który rozpoznaje wypowiedzi publiczne nadające się do fact-checkingu (weryfikowania informacji). Podobne rozwiązania rozwija Full Fact, organizacja zajmująca się sprawdzaniem informacji, która łączy klasyczne zasady dziennikarskie z technologią AI, by skracać czas potrzebny na analizę wypowiedzi publicznych.

Jednym ze znanych i funkcjonalnych rozwiązań jest Reality Defender – narzędzie zaprojektowane do wykrywania deepfake’ów w czasie rzeczywistym. Ten system pozwala organizacjom integrować jego funkcje z własnymi systemami. Reality Defender wykorzystuje własne modele AI do analizowania treści wideo, audio, tekstowych oraz graficznych, przypisując im ocenę wiarygodności. System zaznacza, czy dana treść może być zmanipulowana, dzięki czemu osoby korzystające z narzędzia mogą szybko zareagować.

Powyższe narzędzia to tylko kilka przykładów – na rynku dostępnych jest dużo więcej systemów i inicjatyw wspierających walkę z dezinformacją, mimo tego ta walka nie jest prosta. Algorytmy bywają podatne na błędy, a niektóre z nich mogą niesłusznie oznaczać treści jako fałszywe. Istotne jest też to, że twórcy dezinformacji nieustannie adaptują się do metod wykrywania – co sprawia, że potrzebna jest ciągła aktualizacja i „uczenie” modeli. Niemniej jednak sztuczna inteligencja w rękach odpowiedzialnych instytucji może odegrać ważną rolę w ograniczaniu wpływu fake newsów.

Kto odpowiada za treści generowane przez AI? Prawo, platformy i etyka

Wraz z rozwojem technologii generatywnej, powstaje kluczowe pytanie: kto ponosi odpowiedzialność za fałszywe lub szkodliwe treści wygenerowane przez sztuczną inteligencję? Czy odpowiedzialność spada na twórcę modelu, osobę korzystającą z narzędzia, a może na platformę, na której treść została udostępniona?

Obecnie wiele państw oraz organizacji międzynarodowych podejmuje próby uregulowania tej przestrzeni. W Unii Europejskiej kluczowe znaczenie ma AI Act, którego celem jest wprowadzenie ram prawnych dla rozwoju i zastosowania sztucznej inteligencji. W jego projekcie przewidziano m.in. obowiązek oznaczania treści wygenerowanych przez AI, a także kategorie ryzyka, do których mogą zostać przypisane konkretne zastosowania technologii. Treści służące do manipulacji opinią publiczną – np. deepfake’i polityczne – mają być uznawane za wysokiego ryzyka, co oznacza większy nadzór i odpowiedzialność po stronie twórców oraz użytkowników takich narzędzi.

Duże platformy internetowe wdrażają systemy automatycznego wykrywania deepfake’ów, weryfikację treści przez niezależnych fact-checkerów i oznaczanie zmanipulowanych materiałów. Przykładowo, firma Meta wprowadziła oznaczanie treści wygenerowanych przez sztuczną inteligencję na swoich platformach (Facebook, Instagram, Threads). Problem polega jednak na tym, że skala produkcji fałszywych treści jest gigantyczna, a algorytmy wykrywające dezinformację nadal niedoskonałe.

Dodatkowo, niektóre modele AI są otwartoźródłowe, co oznacza, że praktycznie każdy może z nich korzystać i modyfikować ich zachowanie. O ile to promuje otwartość i rozwój, to jednocześnie utrudnia egzekwowanie norm czy zasad etycznych.

Na tym tle coraz głośniej mówi się o potrzebie odpowiedzialnego rozwoju AI (Responsible AI) – koncepcji zakładającej, że twórcy powinni uwzględniać społeczne skutki swoich działań, zapobiegać potencjalnym nadużyciom i projektować systemy z myślą o bezpieczeństwie.

Choć pojawiają się konkretne rozwiązania, to technologia rozwija się szybciej niż regulacje i istnieje luka między możliwościami twórców a narzędziami wykrywającymi dezinformacje.

Podsumowanie

Dzięki sztucznej inteligencji możliwe stało się tworzenie niezwykle realistycznych materiałów – od tekstów, przez zdjęcia, aż po wideo i nagrania głosowe. Niestety, ta sama technologia, która może wspierać rozwój, bywa wykorzystywana do kreowania dezinformacji i manipulacji opinią publiczną. 

Coraz większe znaczenie mają nie tylko narzędzia wykrywające fałszywe treści, ale także świadomość użytkowników. Umiejętność krytycznego myślenia, ostrożność w dzieleniu się informacjami i znajomość mechanizmów działania AI są niezbędne we współczesnym świecie.

Choć wyzwań jest wiele, rośnie również liczba inicjatyw, które mają na celu ograniczenie nadużyć – od technologii wykrywania deepfake’ów, przez oznaczanie treści generowanych przez AI, po działania edukacyjne. Ostatecznie to nie sama technologia decyduje o jej wpływie na społeczeństwo, lecz sposób, w jaki ją wykorzystujemy – dlatego warto być świadomym nie tylko jej zalet, ale również i wad.