Tecnologia que “traz os mortos de volta”? Projeto para ressuscitar avós falecidas gera controvérsia.
IA trazendo avós de volta do além? A polêmica que fez a internet parar
IA trazendo avós de volta do além? A polêmica que fez a internet parar
Se você achava que inteligência artificial servia só para resumir e-mails ou gerar imagens estranhas, segura essa: uma startup chamada 2Wai resolveu mexer no território mais sensível possível. A empresa lançou um projeto que basicamente promete permitir que você converse com versões digitais de pessoas que já morreram, incluindo avós, pais e outros entes queridos. Sim, conversar. Responder perguntas. Trocar ideias. Ouvir conselhos.
E foi aí que a internet surtou.
A 2Wai é uma startup de Los Angeles, cofundada pelo ator Calum Worthy, conhecido por séries do Disney Channel, junto com o produtor Russell Geyser. O produto principal deles se chama HoloAvatar, e a proposta é simples de explicar, mas difícil de engolir: criar um avatar de IA hiper-realista de alguém que já morreu, capaz de conversar com você como se fosse essa pessoa.
Para alguns, é emocionante. Para outros, é perturbador. Para muita gente, é um daqueles momentos em que a tecnologia claramente foi longe demais.
Como funciona essa “ressurreição digital”
Do ponto de vista técnico, tudo parece quase banal. O usuário grava alguns minutos de vídeo ou fornece fotos, áudios e informações pessoais de alguém. A IA aprende a aparência, a voz, o jeito de falar e até certos padrões de comportamento. A partir disso, cria um avatar que responde perguntas, mantém diálogos contínuos e simula como aquela pessoa falaria.
Na prática, o app transforma memórias em algo interativo. Não é só um vídeo antigo ou uma gravação. É uma “presença” que responde.
O vídeo promocional que viralizou não ajudou a acalmar os ânimos. Ele mostra uma mulher grávida conversando com a versão digital da mãe falecida sobre maternidade, futuro e família. Depois, o tempo passa, e o neto cresce conversando com essa “avó digital” que nunca conheceu em vida. A mensagem é clara: as pessoas morrem, mas a conversa continua.
A ideia da empresa é criar algo como um “arquivo vivo da humanidade”, onde histórias, vozes e interações não desaparecem com a morte física. Bonito no discurso. Assustador para muita gente.
Por que isso bateu tão forte culturalmente
A reação não foi exagero. A tecnologia da 2Wai encosta direto em um tabu universal: a morte.
Culturalmente, lembrar dos mortos sempre fez parte da vida humana, mas dentro de limites claros. Fotos, objetos, histórias contadas em família, visitas ao cemitério. Tudo isso é simbólico. Nada responde de volta.
O que a 2Wai propõe muda completamente essa lógica. Não é mais lembrar. É interagir. É conversar como se a pessoa ainda estivesse ali. Para muita gente, isso soa como cruzar uma linha invisível que sempre separou vivos e mortos.
Também existe a sensação de que o luto virou produto. Muita gente enxergou o projeto como uma forma de vender conforto emocional embalado em tecnologia. Não como homenagem, mas como monetização da dor. A ideia de “assinatura emocional” deixou um gosto amargo.
Outro ponto sensível é a memória. Quando alguém morre, a memória dessa pessoa é construída pelas lembranças reais que ficaram. Um avatar que continua “falando” pode começar a criar novas respostas, novas falas e até novas opiniões. Com o tempo, isso pode reescrever quem aquela pessoa foi na cabeça de quem ficou.
O impacto psicológico que ninguém consegue ignorar
Aqui o assunto fica ainda mais delicado.
Psicologicamente, o luto é um processo difícil, mas necessário. Ele envolve aceitar que alguém se foi, sentir a dor e, aos poucos, reorganizar a vida. Um avatar que mantém a sensação de presença constante pode atrapalhar esse caminho.
Especialistas chamam isso de risco de loop de luto. A pessoa encontra alívio temporário ao conversar com a IA, mas nunca chega ao ponto de aceitar a ausência. A dor fica suspensa, não resolvida.
Mesmo quem sabe racionalmente que aquilo é só uma IA pode reagir emocionalmente como se fosse real. Nosso cérebro responde a vozes, rostos e conversas de forma automática. Isso pode criar vínculos emocionais genuínos com algo que não é humano, não tem consciência e não viveu nada daquilo que está “dizendo”.
Existe ainda o risco de substituição social. Para pessoas solitárias ou emocionalmente fragilizadas, um avatar sempre disponível pode parecer mais fácil do que buscar apoio em pessoas reais. Isso enfraquece laços humanos justamente quando eles são mais necessários.
As perguntas éticas que ninguém sabe responder
O caso da 2Wai escancara uma série de dilemas sem resposta clara.
Quem controla esse avatar depois que a pessoa morre? Basta um parente autorizar? Toda a família precisa concordar? E se o avatar disser algo que a pessoa nunca diria em vida? Quem é responsável?
Também existe o risco de exploração da imagem e da memória de pessoas que nunca consentiram com isso. E se isso virar padrão para figuras públicas, históricos ou até pessoas comuns sem defesa legal?
A tecnologia corre mais rápido do que qualquer consenso moral.
Por que isso chocou tanto
Esse caso não chocou só porque é estranho. Ele chocou porque mexe com algo profundamente íntimo: nossa relação com perda, memória e identidade. Conversar com mortos sempre foi coisa de ficção, religião ou metáfora. Quando vira app, o desconforto deixa de ser abstrato.
A sensação geral é de que a tecnologia entrou em um espaço emocional que talvez não estivesse pronto para ser “otimizado”.
Conforto eterno ou armadilha emocional?
Para alguns, a ideia parece linda: nunca mais perder alguém de verdade. Para outros, parece uma anestesia perigosa contra a dor, que impede o crescimento emocional.
O debate em torno da 2Wai mostra que estamos entrando em uma nova fase da tecnologia, onde não se discute apenas o que é possível fazer, mas o que deveríamos fazer.
Talvez o maior sinal disso tudo seja simples: se uma IA consegue conversar como sua avó falecida, o problema já não é mais técnico. É humano.


