
Deepfaki, czyli wygenerowane bądź też zmanipulowane przez sztuczną inteligencję zdjęcia, dźwięki lub treści wideo, to jedna z najbardziej kontrowersyjnych technologii naszych czasów. Do jej tworzenia wykorzystywane są zaawansowane algorytmy AI, dlatego użytkownikom coraz trudniej jest odróżnić treści rzeczywiste od fałszywych. Z raportu „Dezinformacja oczami Polaków 2024” wynika, że cztery na 10 badanych osób miało do czynienia z takimi treściami. To o tyle istotne, że deepfaki bywają wykorzystywane do manipulacji, szantażu, niszczenia reputacji, oszustw i wyłudzeń finansowych.
Ryzyko związane z deepfake’ami rośnie wraz z coraz większym dostępem do narzędzi sztucznej inteligencji. Dziś niemal każdy, kto ma dostęp do internetu, może stworzyć filmy lub obrazy przedstawiające sytuacje, które w rzeczywistości nigdy nie miały miejsca. Wyniki raportu Fundacji Digital Poland przygotowanego w ramach inicjatywy „Razem przeciwko dezinformacji” wskazują, że trzy czwarte ankietowanych (77 proc.) przewiduje wzrost skali tego zjawiska w ciągu nadchodzących 10 lat.
– Ryzyko w kwestii generowania deepfake’ów i bycia na nie podatnym tak naprawdę rośnie każdego dnia. Co ciekawe, z dnia na dzień te deepfaki stają się też coraz lepsze, bo jak już raz została ta technologia stworzona, to teraz nawet sztuczna inteligencja sama siebie doskonali. To powoduje, że ludzkie oko i słuch już za tym nie nadążają – mówi agencji Newseria Tomasz Turba, specjalista ds. bezpieczeństwa z serwisu Sekurak.pl. – Co gorsza, cały świat, łącznie ze światem przestępczym, skierował się w stronę mikropłatności. Czyli dzisiaj nie musimy mieć superkomputera, nie musimy mieć superusługi za 1 tys. dol. za dzień, żeby wygenerować taki materiał, tylko wystarczy model subskrypcyjny i 5 dol. miesięcznie i przestępcy takie deepfaki generują.
Portale społecznościowe są zalewane przez wygenerowane za pomocą AI filmy i nagrania przedstawiające polityków, osoby zaufania publicznego czy celebrytów wygłaszających kontrowersyjne poglądy, reklamujących fałszywe produkty czy usługi finansowe. Deepfaki są również wykorzystywane do tworzenia kompromitujących treści, które mogą powodować straty wizerunkowe czy finansowe. Zanim jednak platformy zareagują i odpowiednio je oznaczą, deepfaki stają się viralami, które docierają do milionów odbiorców.
– Na razie walka z deepfake’ami jest bardzo nierówna z tego względu, że w świecie cyberbezpieczeństwa zawsze było tak, że przestępcy wyprzedzali wszelkie mechanizmy obrony. Tutaj przestępcy nie muszą już być pierwsi, tylko muszą być dokładniejsi w tworzeniu – mówi Tomasz Turba. – Kluczową rolę powinna odgrywać nasza czujność, bo jak patrzymy na jakiś materiał wideo czy czytamy jakiegoś newsa, to często nie jesteśmy już w stanie dojrzeć, czy to jest wygenerowane przez człowieka, na przykład zdjęcie przez fotografa, czy jednak przez sztuczną inteligencję.
Co ciekawe, mogą nas w tym wspierać również narzędzia oparte na sztucznej inteligencji.
– Z jednej strony rozwija się gałąź przestępcza AI z deepfake’ami, ale z drugiej strony mamy coraz więcej narzędzi do ich detekcji. Tam, gdzie ludzka percepcja już nie daje rady, to wtedy komputer AI wychwyci, że ten obraz jest za doskonały albo czegoś brakuje. I wtedy powie nam: hola, hola, nie wchodź tam, bo tam jest deepfake – mówi specjalista ds. bezpieczeństwa. – My w dalszym ciągu musimy się szkolić odnośnie do zagrożeń w internecie. I my możemy wykorzystać te narzędzia, ale one mają skończoną moc obliczeniową i tam nic się nie dzieje, a przestępca może być coraz bardziej dokładny w tworzeniu czy toz lepszym oświetleniem materiału itd.
Jak podkreśla, taka świadomość będzie skuteczniejsza niż zakazy czy kontrola treści, bo o to w świecie mediów społecznościowych jest bardzo trudno.
– Musielibyśmy wprowadzić pełną kontrolę internetu na to, co kto ogląda, wtedy moglibyśmy to kontrolować. Ale to jest Korea Północna w internecie, a nie wiem, czy państwo pamiętacie, ale była walka w sprawie ACTA, że nie będzie cenzury w internecie, więc na pewno to też nie jest właściwa droga – mówi Tomasz Turba.
Jego zdaniem jest jednak pewien sposób na to, by skutecznie walczyć z deepfake’ami. Z raportu „Dezinformacja oczami Polaków. 2024” wynika, że 86 proc. ankietowanych zgadza się z opinią, że wszystkie informacje wygenerowane przez AI powinny być wyraźnie oznaczane.
– Wystarczyłoby każdy portal społecznościowy oprogramować tak, żeby te wszystkie materiały, które użytkownik widzi podczas scrollowania, od razu przebiegały przez silnik do wykrywania, czy to jest deepfake. Jeżeli w ciągu pół sekundy ten silnik stwierdzi, że to jest materiał fejkowy, to powinien on zostać odpowiednio oznaczony. Czyli to, co rzeczywiście TikTok proponuje jako rozwiązanie do swoich materiałów, mogłoby się sprawdzić. Pytanie tylko, czy wszystkie portale społecznościowe poszłyby w tę stronę, bo to są ogromne koszty – dodaje ekspert serwisu Sekurak.