Nas primeiras semanas deste mês, viralizou nas redes sociais a personagem “Marisa Maiô”, apresentadora improvisada criada por inteligência artificial. Concebida pelo artista e ator carioca Raony Phillips — mesmo responsável pela websérie Girls in the House —, a figura surge em traje de maiô preto, saltos altos, sotaque jocoso e bordões como “só o maiô me sobrou”.
O formato remete aos programas de auditório dos anos 1980/90, com semblante debochado e humor escrachado que satiriza as produções populares da TV brasileira.
Essa emergente estrela gerou mais de 2 milhões de visualizações no X e 3,5 milhões no Instagram, o que chamou atenção de marcas como o Magazine Luiza. O varejista escalou Marisa para uma campanha de Dia dos Namorados — que incluiu, inclusive, menção ao próprio maiô do programa.
A repercussão mostrou o potencial das IAs generativas como ferramenta de entretenimento, mas também acendeu alertas sobre efeitos colaterais: deepfakes têm fluidez narrativa e podem ser confundidos com figuras humanas reais.
O sucesso de Marisa Maiô — criada via plataformas como Veo 2 e Veo 3 do Google — revela que a combinação de estética digital limpa e humor ácido é eficaz para capturar a atenção do público.
Mas os especialistas também apontam riscos concretos: personagens virtuais podem se tornar instrumentos de desinformação, fraude ou manipulação — por convocar doações falsas, indicar produtos inexistentes e influenciar crenças sem as salvaguardas tradicionais de autenticidade.
Marisa é uma criação autorizada, explicitamente satírica e sem fins comerciais — ainda que, paradoxalmente, tenha feito “merchandising” por meio da campanha do Magalu. No entanto, sua emergência demanda reflexão: até que ponto as plataformas e o público conseguem distinguir entre humor, propaganda, ficção e manipulação?
A não transparência de autoria ou objetivo pode criar precedentes perigosos e abrir caminho para manipulações menos inocentes.
A criação de Marisa Maiô é ao mesmo tempo fascinante e preocupante. Por um lado, representa salto tecnológico no uso de IA para gerar narrativas visuais reconhecíveis em poucos segundos. Por outro, testa os limites da confiança digital.
Com o sucesso da “influenciadora que não existe” lança-se perguntas urgentes para plataformas, público e legisladores: até onde vai a verossimilhança aceitável em ambientes audiovisuais criados por algoritmos?