Kiedy ufać AI i social media, a kiedy zachować dystans?

Produkcja treści wprowadzających w błąd

W mediach społecznościowych wiele treści nie przechodzi szczegółowej weryfikacji przed publikacją. Moderacja bywa skoncentrowana na treściach skrajnie szkodliwych, na przykład materiałach tylko dla dorosłych lub treściach ekstremistycznych. Natomiast zwykłe informacje, opinie i komentarze często pozostają w obiegu, ponieważ platformy są stworzone do wymiany poglądów i budowania społeczności wokół tematów.

Produkcja treści wprowadzających w błąd może przyjmować formę zautomatyzowaną. Można uruchomić wiele kont, które publikują podobne przekazy i powielają te same informacje, tworząc wrażenie, że jest to powszechnie uznawany fakt. Dla odbiorcy wygląda to tak, jakby „wszędzie mówiono to samo”, choć w rzeczywistości przekaz może pochodzić z jednego źródła, tylko jest powielany.

W praktyce takie działania mogą być elementem walki o wpływy, o poparcie lub o utrzymanie władzy. Na wyższym poziomie bywa to też rodzaj wojny informacyjnej, w której różne grupy lub państwa próbują oddziaływać na opinię publiczną. Przy nadmiarze informacji i szybkim obiegu wiadomości coraz trudniej jest odróżnić prawdę od przekazu, który tylko udaje rzetelną informację.

Ważnym czynnikiem jest również to, że sztuczna inteligencja przyspiesza produkcję treści. Ułatwia tworzenie wielu wersji tego samego przekazu, pisanie komentarzy, przygotowywanie opisów i streszczeń. To może zwiększać skalę problemu, ponieważ w krótkim czasie można wytworzyć bardzo dużo materiałów, które wyglądają poprawnie, a mimo to prowadzą odbiorców do błędnych wniosków.

Warto też pamiętać, że część moderacji działa dopiero wtedy, gdy ktoś zgłosi problem. Jeśli wiele osób nie zgłasza treści, albo jeśli treść jest napisana „sprytnie” i nie łamie wprost regulaminu, może krążyć bardzo długo. Dlatego nie należy zakładać, że skoro coś jest na platformie, to na pewno zostało sprawdzone.