Od lipca 2024 roku do grudnia 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Chodzi m.in. o deepfejki, sieci botów czy ataki zatruwające dane, które były wykorzystywane do szkolenia modeli AI – wynika z raportu „Adding Fuel to the Fire: AI Information Threats and Crisis Events” brytyjskiego Instytutu Alana Turinga. Takie narzędzia mają potencjał do zakłócania procesów wyborczych, choć do tej pory głównie dezorientowały wyborców. Paradoksalnie w przeciwdziałaniu takim zjawiskom także sprawdzają się narzędzia AI.
O wykorzystaniu sztucznej inteligencji zarówno do operacji wpływu, dezinformacji i zakłócania procesów wyborczych, jak i do walki z tymi zjawiskami przedstawiciele rządu, organizacji pozarządowych i środowiska akademickiego rozmawiali w ubiegłym tygodniu podczas okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie.
– Sztuczna inteligencja jest często wykorzystywana do manipulowania opinią publiczną za pomocą tzw. deepfejków. Są to bardzo realistyczne, ale w całości wygenerowane przez AI filmy, obrazy, a nawet nagrania audio, których celem jest przedstawienie ludzi robiących coś, czego w rzeczywistości nie zrobili, a co często jest kompromitujące lub szkodzi ich reputacji – mówi agencji Newseria Sam Stockwell, badacz Centre for Emerging Technology and Security (CETaS) w Instytucie Alana Turinga, jeden z uczestników debaty.
Raport opublikowany przez CETaS rzuca nowe światło na to, w jaki sposób rosnąca popularność chatbotów opartych na AI w infrastrukturze cyfrowej, jak również łatwość dostępu do generatorów treści opartych na sztucznej inteligencji stwarzają poważne zagrożenia w następstwie wydarzeń kryzysowych. Badacze podkreślili, że między lipcem 2024 roku a grudniem 2025 roku doszło do co najmniej 15 poważnych kryzysów na świecie, w których wystąpiły zagrożenia informacyjne związane ze sztuczną inteligencją. Do działań dezinformacyjnych wykorzystywano m.in. deepfejki, które miały na celu rozpowszechnianie fałszywych narracji i szkodliwych teorii spiskowych, a także promowanie przemocy.
– Przykładowo widzieliśmy wiele przypadków, w których deepfejki były wymierzone w polityków w czasie kampanii wyborczej i próbowali pokazać ich w sytuacjach, które się naprawdę nie wydarzyły. Oczywiście ma to na celu przekonanie ludzi, że są to osoby niegodne zaufania i nie powinno się na nie głosować – podkreśla Sam Stockwell.
Brytyjscy naukowcy w swoim raporcie podkreślają, że narzędzia AI mogą również stanowić systemowe zagrożenie dla działania systemu demokratycznego. Poprzednie badania CETaS dotyczące wyborów w Wielkiej Brytanii, Unii Europejskiej i Francji w czerwcu i lipcu 2024 roku wykazały, że wykorzystanie AI w kampaniach wyborczych miało niepokojący wpływ na zanieczyszczanie przestrzeni informacyjnej online, zacieranie granic między prawdą a fikcją oraz podżeganie do nękania kandydatów politycznych.
– Jak dotąd nie mamy dowodów, że AI wpływała na wyniki wyborów bezpośrednio. Nie obserwowaliśmy jeszcze aż tak dużych ilości treści generowanych przez AI, których celem byłoby wpływanie na postawy społeczne. Na przykład w wyborach europejskich tylko około 4–5 proc. całej dezinformacji pochodziło z narzędzi AI – tłumaczy badacz z CETaS. – Jednocześnie widać, że AI powoduje rosnącą dezorientację co do tego, czemu można ufać w internecie, ponieważ generowane treści są bardzo realistyczne.
Jak wynika z raportu, już w 2023 roku narzędzia AI były wykorzystywane do tworzenia podziałów, w tym w związku z obchodami Dnia Pamięci w Wielkiej Brytanii. W obliczu narastających napięć wokół dużego protestu propalestyńskiego zaplanowanego na ten sam okres burmistrz Londynu Sadiq Khan padł ofiarą viralowego deepfejka. Fałszywie sugerował on, że krytykuje on wydarzenie i opowiada się za propalestyńskimi marszami.
– Dezinformacja jest dużym problemem w Europie. Oddziałuje na ludzi zarówno w Polsce, jak i w Wielkiej Brytanii. Wspólnie pracujemy nad przygotowaniem przepisów, które mogłyby wypełnić tę lukę i podnieść poziom bezpieczeństwa obywateli. Potrzebujemy lepszych regulacji, ale musimy także współpracować z branżą w ich opracowaniu. Należy przemyśleć, jak najlepiej zastosować te przepisy, aby ludzie mieli dostęp do informacji, których potrzebują, bez konieczności stykania się z informacjami, które nie są im potrzebne, a wręcz są niebezpieczne albo mają na celu tworzenie podziałów w naszych społeczeństwach – podkreśla Craig Mills, radca-minister w Ambasadzie Brytyjskiej w Warszawie.
– Równolegle do wojny, która toczy się za naszą wschodnią granicą, Polska jest poddawana wielu działaniom, które wykorzystują technologię do tego, żeby wpływać na to, jak rozumiemy świat i jakie informacje są dla nas ważne. To, co przychodzi ze Wschodu, często przyjmuje formę automatycznych komentarzy, farm botów albo generowania treści z wykorzystaniem sztucznej inteligencji, które nie zawsze są prawdziwe, a czasami celowo mają dezinformować i rozwijać debatę publiczną w Polsce – mówi Jakub Szymik, założyciel Fundacji Obserwatorium Demokracji Cyfrowej.
Brytyjscy naukowcy w swoim raporcie podkreślają, że cyberprzestępcy manipulują sposobami, w jakie boty AI i platformy mediów społecznościowych przekazują użytkownikom spersonalizowane informacje w czasie
