Pular para o conteúdo

Um novo momento do debate sobre plataformas

As grandes plataformas digitais deixaram de ser vistas apenas como empresas inovadoras, responsáveis por conectar pessoas, organizar informações e facilitar a comunicação. Nos últimos anos, elas passaram a ocupar outro lugar no debate público: o banco dos réus. Nos Estados Unidos e na União Europeia, Google, Meta, Apple, TikTok e outras empresas enfrentam processos, investigações e sanções que apontam para um problema estrutural. O modelo de negócios das Big Techs depende da coleta massiva de dados, da concentração de mercado, da captura da atenção e da mediação algorítmica da vida pública.

O que está em julgamento não é apenas uma prática comercial isolada, mas uma forma de dominação e poder. Em abril de 2025, o Departamento de Justiça dos Estados Unidos venceu uma ação antitruste contra o Google no mercado de publicidade digital. A decisão apontou que a empresa violou a legislação ao monopolizar mercados de tecnologia para anúncios na web aberta, com danos a editores, à concorrência e aos consumidores de informação online. Em setembro do mesmo ano, a Justiça norte-americana também impôs medidas contra o Google no caso de busca online, incluindo restrições a contratos exclusivos e obrigações relacionadas ao compartilhamento de dados de busca com concorrentes qualificados.

Na União Europeia, o cerco regulatório também avançou. Em abril de 2025, a Comissão Europeia aplicou multas de 500 milhões de euros à Apple e 200 milhões de euros à Meta por violações ao Digital Markets Act. No caso da Apple, a questão envolvia restrições impostas a desenvolvedores na App Store. No caso da Meta, o problema estava relacionado ao modelo de consentimento para publicidade personalizada. Em outubro de 2025, a Comissão Europeia também apontou, de forma preliminar, que TikTok e Meta descumpriram obrigações de transparência previstas no Digital Services Act, especialmente no acesso de pesquisadores a dados públicos. Em fevereiro de 2026, a mesma Comissão apontou que o TikTok teria violado a legislação europeia por recursos de desenho viciante, como rolagem infinita, reprodução automática, notificações e sistemas de recomendação altamente personalizados.

Esses casos ajudam a nomear um problema que há tempos já era percebido por usuários, organizações sociais, pesquisadores e profissionais da comunicação: as plataformas não são espaços neutros. Elas organizam visibilidade, modulam atenção, classificam públicos, estimulam comportamentos e definem, por critérios privados, o que circula com força e o que desaparece. A promessa original da internet aberta foi substituída por um ambiente controlado por poucas empresas, que dominam infraestruturas, dados, sistemas de anúncio, métricas, meios de distribuição e regras de acesso ao público.

Plataformas, comportamento e democracia

A circulação de informação política depende, em grande medida, de sistemas algorítmicos voltados à maximização de engajamento. O problema é que engajamento não significa qualidade do debate público. Conteúdos que geram medo, indignação, reação imediata e polarização tendem a ser favorecidos por modelos que lucram com tempo de tela e publicidade segmentada. Com isso, campanhas de desinformação se espalham com velocidade, grupos extremistas aprendem a explorar brechas algorítmicas e discursos de ódio encontram públicos vulneráveis.

Esse modelo também tem efeitos sobre a saúde mental e o comportamento social. Em novembro de 2025, documentos judiciais citados pela Reuters apontaram que a Meta teria encerrado uma pesquisa interna sobre efeitos do Facebook após resultados indicarem associação entre a desativação da plataforma e redução de sentimentos de depressão, ansiedade, solidão e comparação social. A Meta contestou as acusações e afirmou que o estudo tinha falhas metodológicas. Ainda assim, o caso reforça a gravidade da discussão sobre desenho de produto, proteção de usuários e transparência pública.

A questão, portanto, não é apenas se uma plataforma remove ou mantém determinado conteúdo. O problema está na arquitetura econômica das plataformas. Big Techs lucram com previsibilidade comportamental. Quanto mais dados coletam, melhor conseguem segmentar públicos. Quanto mais tempo os usuários permanecem conectados, mais anúncios podem ser vendidos. Quanto mais dependentes ficam organizações, empresas, veículos de comunicação, candidaturas e movimentos sociais, maior se torna o poder privado dessas plataformas sobre a vida pública.

A inteligência artificial amplia o problema

A inteligência artificial aprofunda esse quadro. Ferramentas como ChatGPT, Gemini, Claude, Copilot e assistentes integrados às redes sociais já não funcionam apenas como instrumentos de busca ou produção de texto. Elas passam a mediar decisões, organizar informações, sugerir respostas, produzir imagens, resumir documentos, selecionar fontes e orientar formas de interpretação da realidade. OpenAI, Microsoft, Google, Meta, Amazon e outras empresas disputam não apenas o mercado de inteligência artificial, mas também a infraestrutura pela qual pessoas, organizações, governos e empresas passam a acessar conhecimento, produzir conteúdo e tomar decisões.

A OpenAI ocupa um lugar central nesse cenário. O ChatGPT popularizou o uso cotidiano de inteligência artificial generativa e acelerou uma corrida global por modelos integrados ao trabalho, à educação, à comunicação e à gestão de dados. Mas a questão pública não se resume à qualidade técnica dessas ferramentas. O problema é saber quem controla os modelos, quais dados os alimentam, quais interesses orientam sua expansão e quais mecanismos existem para fiscalizar seus impactos sociais.

Na União Europeia, o AI Act passou a estabelecer obrigações para modelos de inteligência artificial de uso geral, incluindo regras de transparência, documentação técnica, atenção a direitos autorais e medidas adicionais para modelos considerados de risco sistêmico. Essas obrigações incluem avaliação e mitigação de riscos, comunicação de incidentes graves e medidas de segurança cibernética. A inteligência artificial, portanto, não pode ser tratada como tecnologia neutra ou inevitavelmente benéfica. Ela depende de dados, critérios de treinamento, regras privadas de moderação, modelos de negócio e infraestruturas concentradas.

Para organizações democráticas, esse ponto é decisivo. A inteligência artificial pode ampliar capacidades de análise, planejamento e comunicação. Pode ajudar a organizar bases, produzir diagnósticos, segmentar públicos, sistematizar escutas e qualificar campanhas. Mas, sem estratégia própria, também pode aprofundar dependências. Uma organização que usa IA sem governança de dados, sem critério político e sem infraestrutura própria apenas troca uma forma de dependência por outra.

A resposta precisa ser política e estratégica

A resposta a esse cenário não pode ser apenas individual. Não basta pedir que cada pessoa use menos redes sociais, configure melhor sua privacidade ou desconfie de conteúdos falsos. Essas atitudes são importantes, mas insuficientes diante de estruturas bilionárias desenhadas para influenciar comportamento em escala. A resposta precisa ser política, regulatória e estratégica.

Do ponto de vista político, é necessário defender regras públicas para plataformas digitais e sistemas de inteligência artificial. Transparência algorítmica, proteção de dados, auditoria independente, responsabilização por danos e combate a práticas abusivas de mercado não são pautas laterais. São condições para uma democracia capaz de enfrentar poderes privados transnacionais.

Do ponto de vista comunicacional, organizações progressistas, mandatos, sindicatos, movimentos sociais e entidades da sociedade civil precisam reduzir sua dependência das plataformas. Isso não significa abandonar redes sociais. Significa entender que rede social é canal de circulação, não patrimônio estratégico. Uma organização que depende apenas de Instagram, Facebook, Google, TikTok, X ou ferramentas fechadas de IA está sujeita a mudanças de algoritmo, bloqueios, perda de alcance, aumento de custo de mídia, instabilidade de regras e captura de dados por terceiros.

Soberania digital como método de comunicação

É aqui que entra a estratégia de dados defendida pela EVAG. Ter soberania digital significa saber com quem se fala, por quais canais, com qual histórico de relação e com qual nível de engajamento. Significa organizar dados de forma ética, consentida e estratégica. Significa transformar formulários, sites, abaixo-assinados, campanhas, eventos e ações de mobilização em pontos de construção de base própria.

Essa base pode ser segmentada por território, interesse, perfil, vínculo institucional, pauta ou nível de participação. Com isso, a comunicação deixa de depender apenas da entrega instável das plataformas e passa a operar também por canais diretos, como e-mail, WhatsApp, páginas próprias, newsletters, landing pages e sistemas integrados de relacionamento. Esse modelo não substitui a disputa nas redes, mas qualifica essa disputa.

As redes continuam importantes para alcance, presença pública e circulação de mensagens. Mas elas não podem ser o único centro da estratégia. Quando uma campanha ou organização constrói apenas audiência alugada, entrega seus dados, sua memória e sua capacidade de mobilização a empresas que operam por interesses próprios. A disputa democrática na internet exige comunicação com inteligência de dados, infraestrutura própria, integração entre canais e capacidade de análise. Exige também uma visão crítica sobre tecnologia, sem tecnofobia e sem submissão às plataformas.

O futuro da internet também será disputado fora das plataformas

Os julgamentos contra as Big Techs mostram que o debate mudou de patamar. A concentração de poder digital já não é uma hipótese acadêmica ou uma denúncia militante isolada. Ela está no centro de decisões judiciais, investigações regulatórias e disputas políticas nos Estados Unidos e na Europa. Para organizações que atuam no campo democrático, a lição é direta. Não basta produzir bons conteúdos. É preciso construir capacidade própria de comunicação. Não basta impulsionar posts. É preciso formar base. Não basta seguir tendências de plataforma. É preciso desenvolver estratégia.

As Big Techs estão no banco dos réus porque seu poder passou a ameaçar a concorrência, a autonomia dos usuários, a saúde pública informacional e a própria democracia. A pergunta que fica para o campo progressista é se continuaremos organizando nossa comunicação dentro de estruturas que não controlamos ou se construiremos soberania digital para disputar o futuro da internet.

Na EVAG, partimos da segunda resposta. A internet pode servir à participação social, à transparência, à mobilização cidadã e à defesa de direitos. A inteligência artificial também pode ser usada de forma responsável para qualificar diagnósticos, organizar informações, cruzar dados e fortalecer estratégias de comunicação. Mas isso exige método, governança, base própria e projeto político.

A democracia não será protegida por algoritmos desenhados para o lucro, nem por modelos de inteligência artificial controlados por poucas corporações globais. Ela dependerá de organizações capazes de usar tecnologia com autonomia, responsabilidade e finalidade pública.

Eleve o nível de sua campanha

Em ano eleitoral, não basta postar: é preciso capturar, segmentar e mobilizar.

A EVAG analisa gratuitamente seu site e suas redes e mostra onde você está perdendo engajamento, base e voto.

Receba um diagnóstico técnico, direto e personalizado.

Organização vence improviso. Cadastre-se!

Seu(sua) adversário(a) já está organizando os dados.

E você?

Preencha para receber um Diagnóstico Gratuito de comunicação


Veja nossa política de privacidade.