TrollWall AI pomáhá čistit sociální sítě od nenávisti

Digital AI system detecting and filtering harmful online messages and images

Sociální sítě nám slibovaly svobodu slova. To, co nám však poskytly, je spíše prostor, kde uměle zvyšují dosah těm nejhlasitějším hejterům a odkud proto slušní diskutéři raději odcházejí.

Za tři roky přečetla umělá inteligence TrollWall šedesát osm milionů komentářů a dvacet milionů z nich skryla, protože schvalovaly násilí, vyzývaly k zabíjení nebo dehumanizovaly celé skupiny lidí.

Jak je možné, že společnost Meta, jejíž zisky za poslední rok byly dvakrát vyšší než slovenský státní rozpočet, navzdory opakovaným prohlášením o bezpečnosti a odpovědnosti nedokáže dělat to, co zvládá malý startup ze Slovenska?

O politice se už dávno nerozhoduje pouze v parlamentu. Rozhoduje se také na sociálních sítích, které skrytým způsobem a na vlně nenávisti formují předvolební kampaně do národních voleb i voleb v zemích Evropské unie. Tím zásadním způsobem ovlivňují i naše demokracie.

Ve podcastu se dozvíte:

  • jak slovenský startup dokáže to, co Meta s miliardovými rozpočty odmítá dělat;
  • proč Zuckerbergovo zrušení ověřování faktů zvýšilo počet nenávistných komentářů pod slovenskými profily čtyřikrát až pětkrát;
  • kde přesně leží hranice mezi nepohodlným názorem a nenávistným projevem, když o ní rozhoduje soukromá firma a její umělá inteligence;
  • proč je terčem nejvíce sexualizovaných útoků žena v politice bez ohledu na zemi a proč byla Zuzana Čaputová historicky největším terčem na Slovensku;
  • jak vypadají koordinované vlny komentářů před volbami a v čem se rumunský scénář podobá tomu slovenskému;
  • že svoboda slova není svobodou dosahu, kterou sociální sítě uměle dávají nejtoxičtějším hlasům;
  • co může obyčejný uživatel Facebooku udělat už dnes.

Jak vznikla TrollWall AI

Všechno to začalo v roce 2022, během jednoho z nejbouřlivějších okamžiků nedávné historie – invaze na Ukrajinu. Jak se na internetu rozhořely celosvětové debaty, sociální sítě zaplavila vlna nenávistných projevů a toxického chování. Sekce komentářů se proměnily v bojiště a lidští moderátoři nestačili držet krok s touto vlnou nenávisti.

Když to viděli naši spoluzakladatelé, kteří tvořili tým odborníků na správu komunit, IT, datovou vědu a umělou inteligenci, rozhodli se tento rostoucí problém řešit přímo. To, co začalo jako společná obava, se rychle stalo posláním: vyvinout řešení založené na umělé inteligenci, které automaticky detekuje, filtruje a skrývá nenávist a toxické chování online v reálném čase.


Infosecurity.sk je neziskový projekt. Pracuje ve veřejném zájmu a může to dělat jen díky vám! Pokud vám jejich práce dává smysl, podpořte je, prosím, pravidelným příspěvkem.

Zdroj a přepis rozhovoru z podcasti: INFOSEC.sk


Napsat komentář