O Futuro do Futuro

Têm lhe surgido fotos de bombeiros ou médicos a pedir 'likes' nas redes sociais? Provavelmente são geradas por IA para ganhar dinheiro

Nas últimas semanas podem ter passado pelo seu feed nas redes sociais imagens, vídeos e textos “a puxar ao like” que foram inteiramente produzidos por inteligência artificial. Este tipo de conteúdo chama-se ‘AI Slop'. Saiba mais no podcast “O Futuro do Futuro”

O Futuro do Futuro

Nos últimos dias, o testemunho de um bombeiro ladeado pelas chamas, entretanto removido, viralizou numa página de Facebook. Tiago, supostamente soldado da paz há nove anos, descrevia “um fogo fora de controlo" que tinha enfrentado no dia anterior. No fim da mensagem que diz, comovido, pede ao espectador que comente “Força, Tiago. Que Deus te guarde” e pede ainda que a partilhe “com quem precisa lembrar que o amor ainda existe”. Teve quase 45 mil likes e mais de 22 mil comentários. O problema? Todos os conteúdos desta e de outras páginas do género são palavras e imagens inteiramente geradas por Inteligência Artificial e têm como única finalidade alimentar as receitas das redes sociais e do utilizador (ou utilizadores) que as publicaram.

Nas últimas semanas, além deste vídeo, podem ter passado pelo seu feed nas redes sociais imagens, vídeos e textos “a puxar ao like” que foram inteiramente produzidos por inteligência artificial. Os incêndios florestais em Portugal, com imagens comoventes de corporações de bombeiros e de resgates de cidadãos, foram um prato cheio para quem ganha a vida a criar estas ‘falsificações’, que têm um nome técnico ainda sem tradução em português: AI Slop.

Os “criadores” pedem reações ou comentários em apoio a bombeiros, soldados ou mesmo profissionais de saúde enquanto obtêm receitas por parte de plataformas como Facebook, Instagram ou TikTok à medida que as publicações viralizam.

João Santos Pereira, professor da Universidade Católica Portuguesa e especialista em Inteligência Artificial, explica no podcast “O Futuro do Futuro” o que é, afinal, esta ‘AI Slop’, “Conteúdos produzidos em grande quantidade, com uma carga emocional muito forte. A ideia é assegurar que os algoritmos das redes sociais, e da internet em geral, dos motores de busca e tudo o mais, peguem naqueles conteúdos - vídeos, imagens, textos, músicas - e os coloquem no topo, porque as pessoas vão carregar”. Explica o sucesso desta produção de IA “porque as pessoas querem sentir aquela emoção mais forte”, e estes são conteúdos feitos com base em dados anteriores, presentes nas próprias redes sociais, que mostram o tipo de imagem ou texto a que as pessoas reagem de forma mais intensa.

O facto de serem conteúdos enganosos fará com que, em breve, sejam rejeitados pelos utilizadores? O docente tem dúvidas, porque considera que a racionalidade se desliga quando usamos redes sociais: “Quando estamos a fazer scroll numa rede social, desligamos a mente racional e ficamos apenas à procura daquela ‘comida emotiva’ que nos dá prazer imediato”, explica.

No episódio em que conversa com Pedro Miguel Coelho, do Expresso, dá algumas dicas para detetar este tipo de conteúdo, e explica que a solidão, com a desagregação das comunidades, é uma das explicações para as pessoas estarem cada vez mais agarradas a estes conteúdos que despertam as emoções e instintos mais primários.

A conversa completa pode ser ouvida no episódio desta terça-feira (5) de “O Futuro do Futuro”, disponível nos sites do Expresso, da SIC e da SIC Notícias e nas aplicações de podcasts.

Artigo atualizado às 11h00: o vídeo referido no título foi eliminado do Facebook após a publicação do episódio do podcast, pelo que o link foi corrigido.

Últimas