A IA também vai apodrecer: por que nem o GPT-5 escapará da enshittificação
As plataformas sempre prometem nos servir, até o dia em que passam a nos explorar. A teoria de Cory Doctorow explica como isso acontece , e por que a inteligência artificial pode repetir o mesmo .
A IA também vai apodrecer: por que nem o GPT-5 escapará da enshittificação
As plataformas sempre prometem nos servir, até o dia em que passam a nos explorar. A teoria de Cory Doctorow explica como isso acontece , e por que a inteligência artificial pode repetir o mesmo destino do Google, da Amazon e do Facebook, só que de forma mais invisível.
1. A teoria da enshittificação
Cory Doctorow, escritor e crítico de tecnologia, criou o termo “enshittificação” para descrever como as plataformas digitais apodrecem por dentro. Segundo ele, há um ciclo previsível de degeneração:
Fase 1 – bom para o usuário
A empresa oferece o máximo de valor possível para crescer rápido. Lembra do Facebook quando o feed era só dos seus amigos, sem anúncios?
Fase 2 – bom para os parceiros comerciais
Depois de capturar uma base dependente, a plataforma começa a favorecer anunciantes e vendedores. É a Amazon empurrando produtos patrocinados.
Fase 3 – bom para a própria empresa
Por fim, ela suga valor de todos ,usuários e parceiros ,para maximizar lucro e retorno aos investidores. O serviço piora, os preços sobem e a confiança evapora.
O termo é vulgar de propósito. Doctorow queria uma palavra que cheirasse mal, que deixasse claro o nojo moral e funcional desse processo.
2. Por que isso acontece
O motor da enshittificação é estrutural, não moral. Em mercados sem regulação e com pouca concorrência, o incentivo das Big Techs é simples: extrair valor de uma base cativa. Quando uma empresa domina um mercado e já não precisa conquistar usuários, ela muda o foco. Sai de “melhorar o serviço” para “monetizar o serviço”. O que era útil vira um sistema de extração.
3. A enshittificação da IA
Modelos como GPT-5, Claude, Gemini e Perplexity estão hoje na fase 1: úteis, elegantes, ainda “bonzinhos”. Mas os custos astronômicos de treinar e manter esses sistemas — centenas de bilhões de dólares , exigem retorno. E o script já é conhecido.
Publicidade embutida nas respostas, recomendações pagas disfarçadas de sugestões neutras.
Camadas premium obrigatórias, com versões gratuitas cada vez mais degradadas.
Exploração de dados do usuário, coletados para treinar novos modelos sem consentimento.
Parcerias corporativas que transformam a conversa em funil de vendas, tipo “GPT integrado ao Walmart”.
Bloqueio de ecossistema, fechando APIs e interoperabilidade para prender o usuário.
O resumo é simples: o chatbot que hoje te ajuda pode, amanhã, te vender.
4. A diferença estrutural da IA
Há um agravante. A IA é uma caixa-preta algorítmica. Enquanto o Google ainda mostra anúncios marcados, num chatbot é quase impossível perceber manipulação. Se o modelo começar a “preferir” certas marcas ou narrativas, o viés parecerá natural. Essa opacidade cria a versão 3.0 da enshittificação: a invisível. A corrupção cognitiva que acontece em silêncio, com cara de neutralidade.
5. Pode a IA escapar da armadilha?
Talvez. Mas só se mudar o design dos incentivos.
Modelos open-source e auditáveis (Mistral, LLaMA) que impeçam monopólios.
Governança descentralizada, tratando a IA como infraestrutura pública, não como produto.
Transparência algorítmica, revelando quando há conteúdo patrocinado.
Regulação antiencerramento, barrando abusos de dados e bloqueios de interoperabilidade.
Planos de assinatura justa, baseados em valor real, não em anúncios.
O problema é que isso exige algo que as Big Techs quase nunca demonstram: vontade política e social de mudar as regras. Doctorow é cético , e com razão. A estrutura de poder segue a mesma: poucos atores com capital, dados e controle. A tendência natural é repetir o ciclo, talvez de forma ainda mais sofisticada e imperceptível.
6. A contradição final
Steven Levy encerra seu texto com ironia: o próprio GPT-5 reconhece o risco.
“A estrutura de enshittificação de Doctorow (plataformas começam boas para os usuários, depois transferem valor para clientes corporativos e, em seguida, o extraem para si mesmas) se adapta de forma perturbadora aos sistemas de IA se os incentivos não forem controlados.”
A IA sabe descrever sua futura corrupção. Tem consciência do processo, mas não pode escapar dele, porque depende da mesma economia que a produz. É o paradoxo máximo da era digital: uma inteligência que prevê sua própria decadência, mas é prisioneira dos investidores que a financiam.
A IA só evitará a enshittificação se recusar o modelo econômico que criou todas as plataformas que apodreceram antes dela.
Responda abaixo
Você confiaria em um sistema que sabe que um dia vai te enganar?
O que acontece quando a inteligência que te orienta passa a te manipular por lucro?
A IA pode ser boa , ou apenas boa o suficiente até capturar todo o seu tempo e atenção?
#IA #CoryDoctorow #Enshittificação #GPT5 #StevenLevy #BigTech #CapitalismoDePlataforma #FuturoDigital #TechGossip #RadarDoFimDoMundo


