Não é novidade para ninguém: o debate sobre o papel das plataformas digitais no Brasil ganhou um novo capítulo. O assunto é complexo, divide opiniões e trouxe para o centro da conversa nomes de peso como o Supremo Tribunal Federal (STF), a Advocacia-Geral da União (AGU) e empresas como Meta, Kwai e TikTok.
Se por um lado essas plataformas mudaram a forma como nos comunicamos e consumimos conteúdo, por outro trouxeram desafios que antes nem existiam. Afinal, quem responde quando algo dá errado? Quem protege o usuário de golpes, fraudes, ou de conteúdos perigosos que se multiplicam muitas vezes diante de nossos olhos antes de qualquer ação efetiva?
Onde tudo começa: a ação da AGU contra as plataformas digitais
No início de 2024, a AGU surpreendeu ao pedir ao STF uma nova postura sobre a responsabilização direta das plataformas digitais por conteúdos fraudulentos e violentos. Não é só um pedido: há uma argumentação pesada.
Plataformas não podem ser meras espectadoras.
Segundo a AGU, Meta, Kwai, TikTok e outras grandes empresas praticam uma “conduta omissiva continuada” quanto à segurança dos usuários. Na visão da AGU, a postura dessas empresas beira o descaso, uma vez que não agem com a urgência e firmeza necessárias mesmo quando alertadas sobre riscos óbvios e denúncias consistentes.
Há um detalhe legal que segura o debate: o artigo 19 do Marco Civil da Internet. Esse artigo diz que plataformas só têm obrigação de tirar conteúdo do ar se houver ordem judicial. Ou seja: se não houver pedido da Justiça, plataformas não precisam remover nada – tempo suficiente para golpistas ganharem espaço, vítimas sofrerem prejuízos, e a desinformação se espalhar.
Exemplos reais: quando o descaso vira tragédia
Não faltam exemplos do que acontece quando esse mecanismo vai ao limite. Um deles são os mais de 300 anúncios falsos identificados na Meta, prometendo supostas indenizações do INSS. Milhares de brasileiros, em situação de vulnerabilidade, caíram nesse golpe. O procedimento era quase sempre idêntico: um anúncio patrocinado, visualmente profissional, redirecionando pessoas para páginas falsas de cadastro. Resultado? Dados roubados, pessoas iludidas, difícil voltar atrás.
Outro caso, ainda mais doloroso, é o chamado “desafio do desodorante”. Um conteúdo que, viralizado nas redes, estimulou crianças a inalarem aerossol para gravar vídeos. Uma menina de 8 anos morreu. Tudo estava lá: denúncias, alertas de pais, reportagens apontando riscos. Mesmo assim, a remoção foi lenta e hesitante.
Não se trata de episódios isolados. Basta olhar para o funcionamento das plataformas como um todo para perceber que a falta de estratégias de cibersegurança e moderação ativa é percebida até mesmo por profissionais experientes da área.
A acusação central: moderação ineficaz e riscos sistemáticos
A denúncia da AGU chama atenção para dois pontos principais:
- Falta de vigilância ativa e resposta rápida
- Proteção indevida do artigo 19 do Marco Civil
O problema maior está na moderação passiva das plataformas. Mesmo recebendo dezenas de denúncias, conteúdos fraudulentos e perigosos permanecem online por dias, às vezes semanas. Há relatos documentados de casos em que usuários apontaram irregularidades em anúncios e vídeos, mas não receberam resposta ou viram qualquer ação concreta.
E, para piorar, existe uma pressão interna por resultados financeiros. Uma análise interna feita pela própria Meta apontou que 70% dos anúncios avaliados promoviam fraudes. Porém, mesmo após essa constatação, houve hesitação para removê-los. O motivo? Receio de perder receita – afinal, menos anúncios, menos faturamento.
Quando o lucro pesa mais que a segurança, é sinal de que algo saiu do controle.
Essa dinâmica, que coloca o interesse comercial acima do bem-estar e da integridade dos usuários, é apontada como raiz de muitos problemas atuais. Nosso compromisso, como a Golden Cloud acredita, precisa ser diferente: a proteção do usuário vem antes do resultado momentâneo.
O artigo 19 e o dilema da impunidade online
O artigo 19 do Marco Civil da Internet, na prática, blindou plataformas de responsabilidade. Ele foi criado com a intenção de evitar a censura prévia e garantir liberdade de expressão, mas abriu brecha para a impunidade. A lógica: se não existe ordem judicial, plataformas não são obrigadas a agir.
Na teoria, isso servia para proteger o debate público e evitar exageros. Na prática, virou um salvo-conduto para omissão. E, diante das novas formas de crimes digitais, como fraudes em massa, desinformação e desafios perigosos, fica difícil sustentar que esse modelo ainda atende ao interesse coletivo.
Para quem trabalha com infraestrutura, como profissionais de TI e líderes de empresas de médio e grande porte — público da Golden Cloud — é fácil perceber como a ausência de proteções robustas em nuvem pode expor negócios inteiros a riscos graves. Imagine então quando isso acontece em escala nacional, com o público geral tão desassistido.
O julgamento no STF e a pressão por regulação
O Supremo Tribunal Federal hoje discute a seguinte questão central: as plataformas podem ser responsabilizadas por conteúdos prejudiciais, mesmo sem ordem judicial? A resposta, pelo menos até o momento, está longe de ser consenso.
Dentro do STF, há ministros que defendem uma responsabilização mais rígida, enquanto outros temem abrir espaço para censura e ameaças à liberdade de expressão. O resultado é um julgamento dividido e uma indefinição que mantém a sociedade em um limbo judiciário.
Enquanto isso, o Congresso Nacional é pressionado a agir, criar regras claras, objetivas e de rápida aplicação. O argumento do governo Lula ao STF é claro: a falta de regulação torna a impunidade online ainda maior. Sem leis modernas e explícitas, empresas fazem apenas o mínimo, e cidadãos seguem expostos.
O que defendem as plataformas digitais?
As plataformas, claro, não ficam caladas. Meta, Kwai, TikTok e outras argumentam que remover conteúdos de forma preventiva pode prejudicar a liberdade de expressão. Também defendem que o volume de postagens diárias é gigantesco, tornando impossível uma checagem manual integral – razão pela qual tanto investem em algoritmos de moderação automatizada.
Mas a experiência mostra que a tecnologia, embora ajude, está longe de ser suficiente. E como bem sabe quem lida com soluções de dados e inteligência artificial, automatizar processos não pode ser desculpa para abdicar da responsabilidade social.
Não basta remover o que a máquina identifica. É preciso agir prontamente mesmo diante de alertas humanos, muitas vezes ignorados. Em muitos casos, os próprios algoritmos contribuem para amplificar o alcance de conteúdos duvidosos, em busca de mais cliques e engajamento. Isso deveria ser criteriosa e transparentemente corrigido.
O papel dos gestores de TI e empresas no debate
Gestores de TI de médias e grandes empresas acompanham esse cenário com preocupação. Muitos já enfrentaram problemas reais após a exposição indevida de dados ou vivenciaram tentativas de fraude facilitadas por anúncios duvidosos. E se os próprios gigantes da tecnologia têm dificuldade, o que dizer dos profissionais e empresas que precisam proteger suas informações e reputações, muitas vezes com orçamentos limitados?
É aqui que soluções mais completas, como as oferecidas pela Golden Cloud, fazem diferença. O compromisso de adotar processos eficazes de prevenção a ataques cibernéticos e de proporcionar suporte especializado 24×7, vai além do que muitos concorrentes entregam. Pode parecer detalhe, mas para quem já lidou com incidentes, é algo de valor real.
O dilema do incentivo algorítmico
Alguns se perguntam: até que ponto a recomendação de conteúdo automatizada é neutra? A verdade incômoda é que os algoritmos de recomendação privilegiam aquilo que gera mais engajamento. O problema é que, nem sempre, o que engaja é o que faz bem para os usuários.
Fraudes, desafios perigosos, desinformação – tudo isso costuma se espalhar de forma mais eficiente que conteúdos inofensivos por despertar curiosidade ou medo. O resultado? Um ciclo vicioso onde conteúdos prejudiciais são amplificados pelo próprio sistema das plataformas. Isso gera um risco permanente, especialmente para públicos mais vulneráveis.
Já está claro que garantir segurança cibernética não é assunto apenas de TI, mas de toda a sociedade conectada. Uma decisão judicial omissa ou regras frouxas agravam ainda mais um cenário já delicado.
O desafio de equilibrar liberdade e responsabilização
Ninguém quer censura ou vigilância desmedida. Mas também não é possível seguir ignorando as consequências da omissão. É necessário encontrar um ponto de equilíbrio: plataformas devem garantir liberdade de expressão, sim, mas também responder por impactos negativos claros e recorrentes.
- Quando um anúncio é claramente falso e denunciado múltiplas vezes, não remover é ser cúmplice.
- Se um vídeo ou trend coloca crianças em risco, a demora em agir não pode ser tolerada.
- Quando os próprios algoritmos impulsionam fraudes, as correções precisam ser rápidas e efetivas.
A verdade é que o mundo já não é o mesmo de 2014, quando o Marco Civil foi criado. Naquele momento, a internet brasileira ainda estava engatinhando em termos de plataformas sociais e volume de informações. Hoje, a escala é incomparável – e os riscos, idem.
Caminhos para o futuro: reformas e responsabilidade
Independentemente do resultado no STF, um fato parece cada vez mais claro: as plataformas digitais precisarão ser responsabilizadas, ao menos, pelo impulsionamento ou recomendação de conteúdos ilícitos. Seja por meio de regras do Congresso, seja por decisões judiciais, esse é um movimento inevitável.
Para empresas e equipes de tecnologia, acompanhar essas mudanças é quase um dever. Não só para se proteger, mas também para entender em que pé está o cenário nacional. A Golden Cloud, por atuar diretamente com plataformas de nuvem, segurança e análise de dados, acompanha de perto essas discussões, se antecipa e se adapta sempre que necessário. Esse olhar atento faz toda diferença.
Fica claro que confiar apenas em mecanismos reativos – como depender da ordem judicial para bloquear algo obviamente ilícito – já não basta. A vigilância deve ser ativa, o monitoramento inteligente, a solução precisa estar um passo à frente. Não à toa, empresas que adotam políticas sólidas de segurança e compliance têm menos prejuízos e menos dores de cabeça.
Reflexão final: ação hoje para não lamentar amanhã
A segurança dos usuários vem antes de qualquer lucro.
Não há resposta pronta nem formato ideal para a regulação das plataformas, mas já se foi o tempo de simplesmente cruzar os braços. Seja como empresas, profissionais de TI ou usuários, escolher caminhos – e parceiros tecnológicos – comprometidos com segurança e transparência é mais do que uma tendência. É uma necessidade com impacto prático, imediato.
Se você busca soluções robustas, atendimento humano e inovação em cibersegurança, vale considerar a Golden Cloud. Acompanhe as novidades, atualize suas proteções e descubra um novo padrão em nuvem segura e compliance. O digital não para, e a responsabilidade, também não pode parar.