Nos últimos anos, o avanço das plataformas de redes sociais digitais, controladas por grandes corporações de tecnologia, tornou-se uma preocupação crescente para governos em todo o mundo. Empresas como Google, Meta (proprietária do Facebook, Instagram e WhatsApp), Microsoft, TikTok e X (antigo Twitter) desempenham um papel fundamental na modelagem da discussão pública e no fluxo de informações. O impacto dessas corporações tem sido profundo, influenciando eleições, concentrando o controle da circulação de informações e, muitas vezes, desafiando leis e regulamentos locais.
Esse cenário levanta uma questão central para os países democráticos: como frear o domínio dessas corporações sobre os espaços públicos e privados, sem prejudicar os benefícios que essas plataformas oferecem? Esse artigo explora a necessidade de uma regulamentação eficaz e equilibrada que estabeleça limites para as big techs, preservando, ao mesmo tempo, a soberania dos países e a democracia.
O Crescimento das Redes Sociais e Seus Impactos
As redes sociais criaram oportunidades inéditas de acesso e partilha de informações. Nunca antes a comunicação entre indivíduos, organizações e governos foi tão rápida, acessível e ampla. No entanto, essa mesma inovação trouxe desafios significativos para a democracia, o Estado de direito e os direitos fundamentais dos cidadãos. Desinformação, discurso de ódio, interferência em eleições e abuso de dados são apenas alguns dos problemas enfrentados pelas democracias modernas.
Além disso, a forma como as redes sociais distribuem e filtram informações, muitas vezes por meio de algoritmos opacos, gera preocupações sobre a influência que essas plataformas exercem sobre o comportamento social e político. A concentração do poder informacional nas mãos de poucas empresas globais levanta questões sobre a pluralidade de opiniões e a diversidade de vozes no debate público.
A propagação de fake news e campanhas de desinformação afetam diretamente a qualidade das democracias, polarizando a sociedade e distorcendo a percepção dos cidadãos sobre fatos fundamentais. As redes sociais, que inicialmente pareciam ser uma ferramenta de democratização da informação, passaram a ser vistas também como uma ameaça à estabilidade política e social, sobretudo em períodos eleitorais.
Outro ponto crítico é o controle que essas plataformas têm sobre os dados pessoais dos usuários. O uso indevido dessas informações, tanto para fins comerciais quanto políticos, gera preocupações éticas e legais. No contexto das eleições, por exemplo, o uso de microsegmentação, que permite direcionar mensagens políticas a públicos específicos, muitas vezes sem transparência, coloca em risco a integridade dos processos democráticos.
Governança do Conteúdo: O Papel das Big Techs
A governança do conteúdo é uma das áreas mais desafiadoras na relação entre plataformas digitais e governos. Como mediadoras do debate público, as grandes plataformas têm o poder de definir o que é permitido ou não nas discussões sociais, com base em suas próprias regras de moderação. No entanto, as políticas de moderação de conteúdo dessas plataformas são frequentemente criticadas por serem arbitrárias, inconsistentes e opacas.
A moderação de conteúdo é uma prática essencial para garantir que as plataformas não se tornem um espaço de propagação de discursos de ódio, desinformação e abuso. No entanto, a forma como essa moderação é conduzida gera inúmeros debates. Muitas vezes, conteúdos legítimos são removidos enquanto publicações prejudiciais permanecem disponíveis. Além disso, a falta de transparência nos critérios usados para a remoção de conteúdos cria um ambiente de desconfiança.
Um exemplo notório de desafio na governança de conteúdo são os debates sobre liberdade de expressão. Em um ambiente global, as plataformas enfrentam o dilema de equilibrar o direito à liberdade de expressão com a necessidade de proteger indivíduos e grupos de discursos nocivos. Para muitos críticos, as decisões sobre o que deve ser censurado ou moderado não podem ser deixadas exclusivamente nas mãos das big techs, que são empresas privadas com interesses econômicos.
Ademais, há uma desigualdade na forma como a moderação de conteúdo é aplicada globalmente. Mercados menores, ou que não falam inglês, costumam ser negligenciados no processo de moderação, resultando em uma menor proteção contra conteúdos abusivos ou desinformação. Ao mesmo tempo, essas regiões também enfrentam a exclusão injustificada de conteúdos importantes para suas realidades locais, o que agrava as desigualdades informacionais entre diferentes partes do mundo.
Portanto, a questão da governança de conteúdo não pode ser abordada de forma simplista. Requer uma combinação de regulamentação estatal, transparência das plataformas e participação ativa da sociedade civil. É fundamental que os governos desenvolvam mecanismos claros para assegurar que as decisões sobre moderação de conteúdo respeitem os direitos humanos e garantam a diversidade de vozes no espaço público digital.
O Papel do Estado na Regulação das Big Techs
Dada a complexidade dos desafios apresentados pelas plataformas digitais, os Estados têm um papel central na criação de uma estrutura regulatória capaz de lidar com essas questões. No entanto, a ação estatal, especialmente em países como o Brasil, tem sido marcada pela lentidão e, em muitos casos, pela omissão.
O Projeto de Lei (PL) nº 2630/2020, conhecido como o “PL das Fake News”, é um exemplo claro dessa inércia legislativa. Embora discuta a responsabilidade das plataformas digitais na moderação de conteúdo e busque garantir maior transparência, o projeto enfrenta constantes adiamentos e a pressão do lobby das próprias big techs. A falta de avanço legislativo reflete a dificuldade de equilibrar o controle das plataformas sem comprometer a liberdade de expressão.
O debate em torno desse projeto de lei ilustra a dificuldade dos legisladores em encontrar um ponto de equilíbrio entre a proteção da liberdade de expressão e a necessidade de combater a desinformação. Para muitos críticos, a demora em aprovar uma legislação adequada é prejudicial, uma vez que permite que as plataformas continuem atuando sem regras claras, muitas vezes impondo suas próprias normas que nem sempre estão alinhadas com os princípios democráticos.
Outro aspecto importante a ser considerado é o impacto que essa regulação pode ter no mercado. A economia digital, fortemente impulsionada pelas plataformas, gera empregos e movimenta bilhões de dólares. Assim, a criação de um arcabouço regulatório precisa considerar as implicações econômicas de se impor restrições excessivas, que poderiam limitar a inovação ou aumentar os custos para as empresas menores.
Além disso, os Estados precisam lidar com o desafio da extraterritorialidade. As big techs, por serem empresas globais, muitas vezes estão sediadas em países diferentes daqueles onde operam, o que dificulta a aplicação de leis nacionais. Isso exige cooperação internacional para que as regulamentações sejam efetivas e as plataformas sejam responsabilizadas por suas práticas independentemente do local onde estão formalmente estabelecidas.
A Importância do Marco Civil da Internet
Alei Federal nº 12.965, de 2014, aprovada no Brasil em 2014, foi um dos primeiros marcos legais a regular o uso da internet, estabelecendo princípios importantes como a neutralidade da rede, a privacidade dos usuários e a liberdade de expressão no ambiente digital. Considerado um modelo de legislação digital, o Marco Civil foi uma resposta inovadora à necessidade de regulamentar o uso da internet em um momento de rápida expansão das redes sociais.
No entanto, o Marco Civil, embora tenha sido pioneiro, já demonstra sinais de desatualização frente aos desafios atuais. Questões como o poder das big techs, a desinformação e a governança de conteúdo não estavam tão presentes no debate público quando a legislação foi elaborada. Hoje, a necessidade de revisão do Marco Civil é amplamente reconhecida, especialmente para fortalecer mecanismos que protejam os cidadãos contra a desinformação e o abuso de dados.
Além disso, é fundamental que a legislação brasileira avance na regulamentação econômica das plataformas digitais. A economia digital é uma das áreas de maior crescimento nos últimos anos, e as big techs desempenham um papel central nesse cenário. Contudo, o modelo econômico dessas empresas, baseado na coleta de dados e na venda de publicidade direcionada, levanta questões sobre a concentração de poder econômico e a competição justa no mercado.
O Brasil já deu importantes passos com a aprovação da Lei Geral de Proteção de Dados (LGPD), que impõe regras rígidas sobre o tratamento de dados pessoais. No entanto, a regulação das big techs precisa ir além da questão dos dados, abordando também os impactos sociais e políticos da atuação dessas plataformas.
Desinformação e o Impacto nas Democracias
A desinformação é um dos maiores desafios enfrentados pelas democracias contemporâneas. As campanhas de desinformação, muitas vezes organizadas e financiadas por interesses privados ou até mesmo governos estrangeiros, têm o potencial de influenciar processos eleitorais, polarizar a opinião pública e enfraquecer a confiança nas instituições democráticas.
As plataformas digitais, devido ao seu alcance global e ao uso de algoritmos que promovem conteúdos com maior potencial de engajamento, desempenham um papel central na disseminação de desinformação. Isso ocorre porque, muitas vezes, os algoritmos priorizam conteúdos sensacionalistas ou falsos, que geram mais interações, em detrimento de informações verificadas e de qualidade.
Essa lógica algorítmica é preocupante, pois coloca o lucro acima da responsabilidade social. Para combater esse problema, é necessário criar incentivos para que as plataformas promovam conteúdos confiáveis e desestimulem a propagação de fake news. Isso pode ser feito por meio de parcerias com agências de checagem.
A Urgência de uma Ação Coordenada
A necessidade de uma regulação eficaz das big techs é evidente e urgente. O domínio dessas corporações sobre o espaço público e privado coloca em risco não apenas a pluralidade de opiniões, mas também a soberania nacional e a integridade dos processos democráticos. No entanto, para que essa regulação seja eficaz, é necessário que os três poderes — Executivo, Legislativo e Judiciário — atuem de forma coordenada e comprometida.
O Executivo tem o papel de liderar a formulação de políticas públicas e articular o debate em torno da regulação das big techs. O Legislativo, por sua vez, precisa superar a morosidade e aprovar leis que responsabilizem essas empresas e protejam o espaço democrático. Já o Judiciário, embora tenha sido um ator importante, deve agir de forma complementar, garantindo que as plataformas cumpram as regras estabelecidas pela legislação.
Somente com uma ação coordenada será possível enfrentar o poder desmedido das big techs e garantir que o Brasil proteja sua democracia e sua soberania diante desse novo cenário digital.