A economia da atenção e a degradação da rede mundial de computadores

Gravura tipográfica em preto e branco, com a ilustração de um computador em cuja tela um símbolo da internet está cercado de linhas ondulantes, que também se encontram acima e num dos lados da tela do computador, evocando a emissão de cheiro. Três moscas voejam ao redor do computador, dando a entender que o cheiro emitido é de algo em decomposição.
A rede mundial de computadores desenvolveu-se como um novo sistema de comunicação de alcance público e provocou uma abundância informacional sem precedentes. Estima-se que, em 2025, a quantidade de dados circulando pela rede fosse cerca de 175 zettabytes - cada zettabyte corresponde a 1 trilhão de gigabytes.

No mesmo horizonte de escala, a produção cotidiana de conteúdo é colossal. Desde 2019, são enviados mais de 500 horas de vídeo a cada minuto ao YouTube, o que corresponde a mais de 720.000 horas por dia. Em 2024, registrou-se uma circulação global diária de cerca de 361,6 bilhões de correios eletrônicos.

Essa enorme disponibilidade de dados não se traduziu automaticamente em maior facilidade de acesso a conhecimentos de qualidade. Pelo contrário, localizar conteúdos com rigor conceitual, profundidade analítica e compromisso ético tornou-se mais difícil.

Plataformas digitais e agentes econômicos que controlam grandes fatias da infraestrutura (mecanismos de busca, redes sociais, provedores de hospedagem) - por seus incentivos e arquiteturas técnicas - favoreceram a difusão rápida de conteúdos factualmente duvidosos e narrativas polarizadoras. Estudos empíricos demonstraram, por exemplo, que notícias falsas tendem a circular mais rápido que conteúdos verdadeiros em redes sociais, justamente por mobilizarem emoções como medo, indignação ou surpresa.

O ponto central desse processo diz respeito ao modelo de negócio das empresas de tecnologia. Para faturar com a rede mundial de computadores, elas construíram seus impérios com base na economia da atenção: o tempo que o usuário passa em frente da tela transformou-se em mercadoria à venda para propaganda e publicidade. A qualidade do conteúdo importa menos do que sua formatação para bom desempenho em mecanismos de busca ou plataformas digitais.

Agulha num palheiro

Nos primórdios da rede mundial de computadores, na década de 1990, encontrar a informação que se desejava era como procurar agulha num crescente palheiro digital. Ao contrário de arquivos ou bibliotecas, em que os documentos armazenados passam por um prévio processo de identificação e classificação, a rede mundial de computadores surgiu descentralizada, sem uma autoridade central de catalogação.

A ausência de métodos eficazes de pesquisa e recuperação significava que o conteúdo disponibilizado no ambiente virtual poderia permanecer praticamente inacessível. Caberia aos primeiros mecanismos de busca as tarefas de coleta, classificação e organização dos documentos. Em meados da década de 1990, diretórios como o Yahoo! e mecanismos como o AltaVista desenvolveram critérios relativamente simples de catalogação de páginas.

Surgiu o conceito de otimização para mecanismos de busca, ou search engine optimization - SEO. Ele descrevia o conjunto de práticas de formatação básica do conteúdo para facilitar sua identificação pelos mecanismos. Inicialmente, incluíam a submissão manual do endereço eletrônico - as URLs - junto aos mecanismos existentes e no uso de rótulos ou marcadores - denominados metatags -, elementos do código das páginas que descreviam seu conteúdo para fins de reconhecimento e classificação.

Os mecanismos de busca iniciais apresentavam grandes limitações, sendo necessário examinar individualmente dezenas de páginas recomendadas pelo resultado de uma consulta. Era comum recorrer a indicações pessoais ou de especialistas para se identificar páginas relevantes. A rede mostrava-se um sistema de comunicação promissor, em crescimento exponencial, mas cujos usos sociais e práticos ainda não estavam definidos.

Antes da rede, a radiodifusão

O sistema de comunicação predominante antes da rede mundial de computadores era a radiodifusão, baseada na transmissão eletrônica de sinais de rádio e televisão. Sua origem remonta ao início do século XX, após a descoberta das ondas eletromagnéticas de rádio - de frequência entre 3 hertz (Hz) e 300 giga-hertz (GHz). Desenvolveram-se aparelhos capazes de transmitir e captar pulsos, inicialmente usados como telégrafo sem fio para fins militares, postais e comerciais. 

Na década de 1920, o aprimoramento tecnológico levou ao surgimento das primeiras rádios comerciais. A expansão foi rápida e, em países como os Estados Unidos, ocorreu inicialmente de forma caótica, sem regulamentação clara, com risco de monopólios. Isso se tornaria um problema em função das próprias características da tecnologia.

As frequências eram limitadas: transmissoras que explorassem a mesma faixa interfeririam entre si. Além disso, em 1920 o rádio havia se disseminado como modo de transmissão de telégrafos tanto no interior dos países quanto internacionalmente, incluindo normas para telecomunicações. A expansão de estações comerciais de rádio, sob exclusiva iniciativa privada, seria incapaz de planejar um sistema eficiente que atendesse a interesses sociais amplos.

Por isso, a estruturação da radiodifusão formou-se por meio do debate mediado pelos Estados. Envolveu a elaboração de legislações, a criação de agências ou entidades reguladoras, licenças de frequências de rádio, empresas públicas e uma governança internacional. Nesse modelo, as empresas operavam infraestruturas físicas - estações, emissoras, redes de transmissão - sob regras legais e licenças que norteavam os fluxos informativos e os padrões de serviço.

Nesse arranjo, garantiam-se níveis mínimos de responsabilização editorial e qualidade do conteúdo. O financiamento vinha sobretudo da publicidade, mas condicionado à conquista da audiência por meio de programação profissionalizada. Nada semelhante ocorreu com o novo sistema da rede mundial de computadores, cuja expansão vertiginosa ficou majoritariamente a cargo da iniciativa privada e de arquiteturas técnicas que, no lugar de regulações explícitas, adotaram regras algorítmicas implícitas.

O ranqueamento de páginas

O novo sistema digital passaria por transformação decisiva com a ascensão do Google, fundado em 1998. A empresa inovou ao introduzir o ranqueamento por links - chamado de PageRank -, classificando páginas não apenas por palavras-chave, mas pela quantidade e qualidade de links recebidos, interpretados como indicadores de relevância. Os resultados das pesquisas melhoraram substancialmente, e o uso dos mecanismos de busca tornou-se prática cotidiana.

Os programas de rastreamento do mecanismo de busca do Google percorrem continuamente a rede, mapeando páginas e atualizações. Em seguida, programas de indexação extraem rótulos essenciais - títulos, palavras-chave, descrições - e produzem versões comprimidas do conteúdo, organizadas em índices. Quando uma consulta é realizada, ativa-se o ranqueamento. Ele ordena páginas segundo critérios combinados de conteúdo e popularidade.

O valor do conteúdo considera fatores como a presença e frequência dos rótulos essenciais. A popularidade corresponde à quantidade de links de outras páginas relevantes que apontam para uma página específica. O resultado da pesquisa, portanto, não avalia a qualidade do conteúdo, mas sua conformidade a critérios técnicos e sua inserção em redes de links.

Com a emergência posterior das mídias sociais, esse poder ampliou-se: plataformas passaram a decidir não apenas o que é encontrado, mas também o que é sugerido. Estudos demonstraram que sistemas de recomendação tendem a reforçar preferências já existentes, formando bolhas informacionais e câmaras de eco.

O aprimoramento dos mecanismos de busca e as plataformas de mídias sociais permitiram às empresas ditarem as regras de formatação e de distribuição do conteúdo. Com isso, elas concentraram poder sobre a recepção do que se publicava no ambiente digital. Definiam o que teria e o que não teria visibilidade.

Uso social da tecnologia

Havia, entretanto, um grande obstáculo: como gerar lucro com o novo sistema de comunicação? A rede ainda preservava muito de suas características experimentais e acadêmicas, herdadas de sua origem. Nos 1960 e 1970, o Estado norte-americano financiou um projeto de infraestrutura militar e acadêmica com o objetivo de criar uma rede de comunicação interligada entre computadores, resistente a falhas sistêmicas.

Sua arquitetura priorizava a conexão entre as máquinas por meio de linhas telefônicas, não a curadoria do conteúdo. Qualquer computador podia comunicar-se com outro sem mediador central. Essa abertura para a livre troca de informação gerava um ambiente de muitos ensaios e testes, inovando-se pela resolução de desafios técnicos e da expansão da conectividade.

Até o início dos anos 1990, o uso era restrito. O principal valor da rede consistia na distribuição livre e não hierárquica da informação. Faltava, no entanto, uma estrutura que pudesse viabilizar em larga escala, de forma coesa, a interligação e troca de informações entre milhares de computadores, tarefa cuja complexidade oferecia significativo impedimento.

O protótipo dessa estrutura foi desenvolvido pelo cientista britânico Tim Berners-Lee. Nela, a rede se organizaria em servidores - um conjunto de programas computacionais e máquinas de alta capacidade de armazenamento -, que funcionariam como bibliotecas descentralizadas de conteúdo, interligadas entre si. Por meio de links, computadores individuais acessariam os servidores em interfaces gráficas - os navegadores -, acessando os servidores para disponibilizar ou ter acesso ao conteúdo existente.

Assim como as estações, emissoras e redes de transmissão constituíam a estrutura física do sistema de radiodifusão, os servidores emergiram como infraestrutura física crucial para a conexão de computadores individuais em rede. Foi a partir deles que empresas começaram a operar, provocando o acelerado crescimento do novo sistema de comunicação digital. Mosaic, o primeiro navegador, foi lançado em 1993. No ano seguinte, sua versão aprimorada, o Netscape, atingiu enorme popularidade. O destino da rede havia caído sob o domínio da exploração comercial por empresas privadas.

Inexistia, porém, uma perspectiva clara de como obter financiamento a partir da rede mundial de computadores, uma tecnologia dedicada ao compartilhamento descentralizado - em última instância, individualizado - por uma múltipla diversidade de atores. Em certa medida, a tecnologia da rede replicava uma relação de tipo interpessoal entre emissores e receptores do processo de comunicação.

O novo sistema favorecia a dispersão da produção e do consumo do conteúdo. Diferia da radiodifusão, que institucionalizava papéis entre os emissores e a audiência. Por isso, enquanto a publicidade consolidou-se rapidamente no rádio e na TV, ela exigiu a reconfiguração da rede mundial de computadores.

O envenenamento pelo lucro

As empresas de tecnologia registraram um enorme crescimento na década de 1990. O modelo de negócios digital apoiava-se na economia da abundância, uma nova teoria pela qual avaliava-se o valor de um serviço na rede a partir do número de usuários. Quando mais abundante fosse uma plataforma ou mídia social, maior valor potencialmente geraria.

A economia da abundância correspondia a uma correção, no plano ideológico, do uso social da tecnologia. No lugar do compartilhamento difuso, da troca libertária de informações entre agentes individuais, ela fomentava a reconfiguração da rede a fim de gerar nódulos que concentrassem a circulação e, em consequência, o consumo em massa dos conteúdos.

Investidores injetavam grandes volumes de capital, apostando no rápido crescimento da base de usuários e numa rentabilidade no futuro. Formou-se uma bolha financeira, estourando em março de 2000. A avaliação na bolsa de valores despencou, evaporou-se o capital de risco, levando milhares de companhias à falência.

Após o colapso, as sobreviventes viram-se obrigadas a identificar fontes sólidas de renda. Os responsáveis pelo Google identificaram uma oportunidade de enorme valor. Ao navegar pela rede, os usuário deixavam rastros digitais, até então descartados como resíduos. Os rastros guardavam um histórico de dados pessoais, como, entre outros, os termos de pesquisa, as páginas visitadas, o tempo de permanência, o dispositivo utilizado e a localização.

Esses dados serviriam para mapear o usuário, subsidiando a alteração das formas de compartilhamento de conteúdo. Técnicas da psicologia comportamental foram incorporadas às interfaces: recompensas variáveis, notificações, rolagem infinita, recomendações personalizadas. O objetivo tornou-se capturar atenção de modo contínuo, explorando mecanismos de dependência semelhantes aos dos jogos de azar.

A busca pelo lucro distorcia o caráter interpessoal e espontâneo da tecnologia. As empresas passaram a vender o acesso a audiências digitais para publicidade, com promessas de manipular comportamentos a partir da extração de dados pessoais. Inaugurava-se a erosão da autonomia cognitiva dos indivíduos no sistema de comunicação digital.

O controle da visibilidade

A tecnologia da rede restringe-se sobretudo à etapa de transmissão. Sem uma supervisão que institucionalizasse os papéis de emissores de conteúdo e consumidores, ficou à cargo das empresas moldar a ambos por meio do controle sobre o modo de recepção das mensagens. Para isso, passaram a organizar a superabundância informacional por meio de hierarquias artificiais de visibilidade.

Em praticamente todas as áreas do conhecimento, existem milhares de fontes distintas para consulta na rede mundial de computadores, favorecendo a dispersão dos usuários. As empresas estabeleceram métodos para organizar a recepção e concentrar audiências para a publicidade. Elas instituíram formas de acesso e de visibilidade do conteúdo, com o objetivo de capturar a atenção das pessoas para mantê-las pelo máximo tempo possível expostas à publicidade.

Quem produz conteúdo precisa atender aos critérios impostos. O foco da criação migrou em grande medida da qualidade para a capacidade de capturar a atenção do usuário. Favorecia-se um tipo específico de conteúdo, que reforçasse o efeito viciante das plataformas, aplicativos e mídias sociais, e que se submetesse às métricas de engajamento.

Em segundo lugar, o formato ganhou crucial proeminência. A visibilidade não se baseia na qualidade, mas nos rótulos de indexação, ligados a aspectos técnicos e ao formato: palavras-chave, títulos, backlinks, tempo de permanência...

A remuneração aos produtores de conteúdo, vinculada a índices de visualização e métricas de engajamento, disseminou a conformidade aos padrões das empresas de tecnologia. O sucesso passou a depender menos do valor intelectual e mais da aderência ao modelo econômico da atenção, contribuindo para a degradação irreversível da rede e para o fortalecimento da polarização e da intolerância.

As fazendas de irrelevância

De prática meramente organizacional, a otimização para mecanismos de busca converteu-se no Santo Graal da rede mundial de computadores, disciplina complexa indispensável para a visibilidade. No fim dos anos 2000, surgiram agências de comunicação responsáveis por fazendas de conteúdo, como a pioneira Demand Media - hoje Leaf Group, dos Estados Unidos.  

O foco era a produção em massa de conteúdo de baixo custo para gerar receita publicitária. Algoritmos identificavam palavras e expressões com índices relevantes de consulta nos mecanismos de busca, formando um banco de dados. As agências contratavam redatores e editores autônomos, em grande número e à baixo custo, para escreverem artigos segundo um modelo de otimização de conteúdo.

Os artigos otimizados ocupavam posições elevadas no ranqueamento dos resultados de busca. Unindo quantidades extraordinárias de artigos aos critérios de visibilidade instituídos pelas empresas de tecnologia, as agências atraíam para suas páginas ou portais uma quantidade igualmente extraordinária de visitantes, obtendo renda com anúncios.

As fazendas de conteúdo evoluíram para plataformas digitais de contínua reciclagem de informações, reescrevendo e recombinando os textos para atender às atualizações dos critérios de busca e de  recomendação. Eis outro contraste marcante com o sistema de radiodifusão. Sob a organização da iniciativa privada, o sistema de comunicação digital aboliu filtros e a profissionalização editorial. O incentivo se concentrou na produção em escala de conteúdo irrelevante, muitas vezes de qualidade questionável, para capturar a atenção de usuários e faturar com publicidade. 

Multiplicaram-se as grandes e pequenas agências de conteúdo, infestando a rede de fazendas com páginas genéricas, semelhantes entre si, em que o texto homogeneizado substituiu a diversidade interpretativa e a densidade analítica. O modelo de negócio fomentado pelas empresas de tecnologia contaminou inclusive veículos tradicionais de jornalismo, pressionados a competir por cliques.

Audiência e dependência

No sistema de comunicação digital, o controle exercido pelas empresas de tecnologia visa a maximizar o consumo de conteúdo. Para tanto, o controle das formas de transmissão e da visibilidade também manipulam o indivíduo e suas possibilidades de escolha.

Os rastros digitais dos usuários serviram para a elaboração de seu perfil de comportamento. Ferramentas automatizadas começaram a produzir cenários preditivos de consumo individual. A partir daí, algoritmos recomendavam conteúdos nos mecanismos de busca, mídias sociais ou aplicativos que possuam maior probabilidade de retenção do interesse do usuário, a fim de que ele permaneça mais tempo no sistema, exposto a mais publicidade.

Em vez de um ambiente de livre troca de informações, a rede lança o usuário numa prisão cognitiva, que o vicia a consumir o mesmo ponto de vista. Hierarquias artificiais de visibilidade organizam audiências para venda de publicidade, facilitando polarização, intolerância e manipulação política. A leitura lenta e reflexiva torna-se economicamente ineficiente.

Nas mãos da iniciativa privada, o sistema de comunicação digital entrou em decomposição. O cheiro rançoso espalha-se pelo mundo, onde a civilidade cede espaço ao autoritarismo e ao crime. Neste início de 2026, chegou até mesmo no reino da Dinamarca, cujos habitantes descobriram, assustados, que há algo de muito podre no ar.




Por Lino Breger
Agitador Cultural