Dezinformacja w sieci: Deepfaki budzą strach wśród Europejczyków
Dezinformacja, mowa nienawiści i treści generowane przez sztuczną inteligencję coraz bardziej niepokoją Europejczyków. Jak pokazuje styczniowe badanie Eurobarometru, blisko 70 proc. obywateli UE obawia się zagrożeń związanych z komunikacją w sieci, a w Polsce odsetek ten jest jeszcze wyższy. Szczególne emocje budzą deepfaki, które są wykorzystywane do manipulacji politycznych, ale i tworzenia treści pornograficznych. Europosłowie są zgodni co do potrzeby regulacji, ale różnią się w ocenie, jak daleko powinna ona sięgać.
– Potężny rozwój AI powoduje, że w sieci, na Facebooku czy TikToku, pojawia się bardzo wiele wygenerowanych filmików, które trudno odróżnić od tych prawdziwych. Powinny być dostępne narzędzia mówiące o tym, że dany filmik jest wygenerowany przez AI. To powinno być jasno określone w sieci – mówi agencji Newseria Arkadiusz Mularczyk, poseł do Parlamentu Europejskiego z Prawa i Sprawiedliwości. – Jeżeli odbiorca w sieci ma wiedzę, że dany filmik został wygenerowany przez AI, a nie prawdziwe osoby, to ta informacja w mojej ocenie wyczerpuje ochronę przed szkodliwymi treściami w internecie. Obywatele muszą mieć prawo do informacji.
Obowiązek oznaczania treści generowanych przez sztuczną inteligencję wynika z unijnego aktu o sztucznej inteligencji. Część polityków podkreśla jednak, że nie jest to wystarczająca ochrona przed nadużyciami związanymi z AI i deepfake’ami. Według szacunków ujętych w raporcie Parlamentu Europejskiego z lipca 2025 roku w całym ubiegłym roku mogło być udostępnionych nawet 8 mln deepfake’ów, czyli aż o 7,5 mln więcej niż jeszcze w 2023 roku. Komisja Europejska stwierdza, że materiały pornograficzne stanowią około 98 proc. wszystkich tego typu treści.
– Sztuczna inteligencja, która miała przynosić nam tylko korzyści, przynosi też bardzo dużo złego. Naszym zadaniem jako Europejczyków, ale również polskich polityków jest przygotowanie takiego prawa, żeby deepfaki, nieprawidłowości, kłamstwa, manipulacje były szybko usuwane – uważa Joanna Scheuring-Wielgus, posłanka do Parlamentu Europejskiego z Nowej Lewicy. – Przypomnę ostatnio bardzo gorącą sprawę z grudnia ubiegłego roku, kiedy ktoś wykorzystał sztuczną inteligencję, używając postaci młodych Polek, żeby zachęcać do tego, by Polska wyszła z Unii Europejskiej. Reakcja polskiego rządu była natychmiastowa, podobnie jak reakcja Unii Europejskiej. Te nieprawdziwe informacje zostały usunięte, ale niestety wyrządziły też dużo złego.
Mowa o profilu na TikToku o nazwie Prawilne_Polki, na którym wygenerowane przez sztuczną inteligencję wizerunki młodych Polek przedstawiały korzyści z opuszczenia przez Polskę Unii Europejskiej. Jak podaje Instytut Monitorowania Mediów, filmy osiągały setki tysięcy wyświetleń.
– Deepfaki i dezinformacja to dzisiaj broń, która jest wymierzona prosto w Europę, w naszą demokrację i jej zasady, ale także jako narzędzie podważania wyborów. Europa musi mieć na to zdecydowaną, jasną i kompletną odpowiedź. Ale są też takie granice, których nam nie wolno przekraczać. To jest bezpieczeństwo naszych dzieci w sieci. To jest najważniejsze. Większość tych deepfake’ów to są materiały pornograficzne, więc nie możemy dopuścić do tego, żeby dzieci zamiast bezpiecznego internetu były narażone na coś tak ohydnego. Dlatego przygotowujemy przepisy, które będą chroniły dzieci, kobiety i w ogóle obywateli, nie tylko zasady demokracji i wolne wybory – mówi Mirosława Nykiel, posłanka do Parlamentu Europejskiego z Koalicji Obywatelskiej.
Z raportu „Nastolatki” NASK – PIB wynika, że 34 proc. uczniów drugiej klasy szkoły średniej słyszało o pojęciu deepfake. Odsetek ten wśród uczniów klasy pierwszej był nieco niższy i wyniósł 30 proc. Wśród tych osób kolejno 63 i 74 proc. miało z nimi styczność. Mniej zaznajomieni z tym terminem są uczniowie klas siódmej i oósmej szkoły podstawowej – odpowiednio 16 i 26 proc., a spośród nich odpowiednio 60 i 64 proc. badanych zetknęło się z deepfake’ami. Zdaniem tej grupy nastolatków deepfaki najczęściej powstają dla żartu – tak odpowiedziało 43 proc. badanych przez NASK. Około 29 proc. natomiast uważało, że technologia ta jest wykorzystywana do tworzenia treści pornograficznych. Ponadto 7 proc. badanych przyznało, że stało się ofiarą deepfake’ów.
Jak podkreśla Urząd Ochrony Danych Osobowych, potrzebne są nowe przepisy, które będą chronić użytkowników przed nadużyciami związanymi z tym zjawiskiem. Prezes tej instytucji ocenia, że zarówno unijne przepisy, takie jak AI Act czy akt o usługach cyfrowych (DSA), jak i polskie regulacje (Kodeks cywilny, Kodeks karny czy prawo autorskie) zapewniają tylko wybiórczą i niewystarczającą ochronę, a szansą na poprawę sytuacji jest m.in. ponowne podjęcie prac nad przepisami mającymi wdrożyć DSA – po niedawnym wecie prezydenta RP.
– Akt o usługach cyfrowych, który został zatwierdzony w Parlamencie Europejskim, to jest bardzo dobry projekt. Natomiast zła wiadomość jest taka, że Polska jako jedyny kraj go nie wdrożyła. Zostało to przegłosowane w Sejmie i Senacie, ale prezydent Karol Nawrocki ustawy nie podpisał. To jest akurat zła informacja dla Polek i Polaków, ponieważ to jest brak obrony przed dezinformacją, oszustami i manipulacją
