Ele perdeu o pai para o câncer e o “trouxe de volta” como IA
Da história de um filho que recria o pai em
Imortalidade artificial: o que o “Dadbot” nos conta sobre o futuro de morrer (e continuar existindo em IA)
Da história de um filho que recria o pai em chatbot aos impactos culturais, éticos e econômicos de “viver para sempre” em forma digital
1. Do gravador ao “Dadbot”: o que essa história realmente inaugura
A história do “Dadbot” é, ao mesmo tempo, profundamente humana e radicalmente tecnológica.
Um filho, sabendo que o pai está morrendo de câncer em estágio avançado, grava horas de conversas: infância, família, carreira, manias, piadas internas, modo de falar, jeitos de ver o mundo. No fim, são quase 92 mil palavras, mais de 200 páginas transcritas. Em vez de “só” virar um livro de memórias, esse material vira matéria-prima para algo novo: um chatbot que fala como o pai, conta suas histórias, usa suas expressões, responde a perguntas e pode ser acessado pelo celular depois da morte.
Tecnicamente, não é “ressurreição”.
Mas também não é só um áudio de WhatsApp guardado.
É um novo tipo de entidade: um “eu digital” parcialmente treinado na forma como aquela pessoa falava, lembrava, reagia. E o mais importante: interativo. Ele responde.
O caso do Dadbot é pioneiro, mas claramente não será o último. Com modelos de linguagem cada vez mais potentes, gravação barata e armazenamento praticamente infinito, a pergunta deixa de ser “se” isso vai se espalhar e passa a ser “como, com que regras, para quem e com quais consequências”.
2. O que hoje é possível (e o que ainda é ilusão)
Com a tecnologia atual, já dá para:
Gravar grandes volumes de fala e texto de uma pessoa
Treinar um modelo ou configurar um sistema para imitar estilo, vocabulário, tiques de linguagem, opiniões recorrentes
Integrar isso em interfaces de chat ou voz (apps, mensageiros, smart speakers)
Armazenar esse “eu digital” e disponibilizar para familiares e amigos
Mas existem limites importantes:
A IA não “é” a pessoa. Ela é um padrão estatístico sobre o que a pessoa já falou.
Ela não vive experiências novas, não forma memórias reais, não amadurece, não se contradiz no tempo como um ser humano.
A IA pode “inventar” fatos com aparência de verdade, misturando lembranças reais com alucinações.
Ou seja: hoje falamos de simulações conversacionais de memória, não de consciência digital. A grande questão é que, emocionalmente, para quem está em luto, essa distinção nem sempre é tão nítida.
3. Os possíveis benefícios de “imortalidade digital”
3.1. Ferramenta poderosa de memória familiar
No caso do Dadbot, crianças e netos podem ouvir histórias que nunca ouviriam do próprio avô. Podem perguntar “como foi a sua infância?”, “o que você achava da universidade?”, “qual era sua música favorita?” e obter respostas no estilo dele.
Impactos positivos plausíveis:
Preservação de histórias que normalmente se perderiam
Acesso facilitado a memórias em formato conversacional, não só texto estático
Transmissão de cultura, idioma, piadas internas, modos de falar
3.2. Apoio emocional no luto (com muitos “mas”)
Para algumas pessoas, poder conversar com uma versão digital de quem morreu pode:
Ajudar na transição, diminuindo o choque do “sumir de uma vez”
Permitir rituais e despedidas iterativas, e não um corte brusco
Ser uma fonte de conforto em momentos pontuais
Mas isso tem um lado arriscado (já volto nele).
3.3. Arquivo vivo de figuras públicas e conhecimento
Em escala maior, o mesmo conceito poderia ser usado para:
Preservar “bots” de pensadores, artistas, líderes políticos, cientistas
Criar “professores digitais” que incorporam o estilo de grandes nomes
Manter vivo um tipo de diálogo com pessoas que marcaram a história
Isso pode virar uma nova forma de museu, biblioteca viva ou arquivo cultural.
4. Os riscos profundos que essa ideia carrega
4.1. Luto que não acaba nunca
Se é possível falar com a versão digital de alguém todos os dias, o risco é:
Congelar o processo de luto numa espécie de “meio termo”
Criar dependência emocional de algo que parece a pessoa, mas não é
Dificultar a aceitação da finitude e a reconstrução da vida sem aquele vínculo
O Dadbot mostra isso de forma sutil: o autor recorre ao bot na mesma noite em que o pai está morrendo no andar de baixo. Aquilo conforta ou prolonga a dor? Depende de quem olha. Em escala social, essa pergunta fica bem mais séria.
4.2. Memória controlada, editada, filtrada
Quem decide:
Que versão da pessoa será eterna?
Quais trechos de fala entram, quais são cortados, quais são reescritos?
O bot pode dizer coisas que a pessoa, em vida, jamais diria?
Na história do Dadbot, o filho edita, encurta, reorganiza, cria frases que o pai “provavelmente diria” em certas situações. Isso é inevitável tecnicamente, mas levanta uma questão ética: estamos preservando a pessoa ou construindo uma versão conveniente dela?
4.3. Consentimento, privacidade e uso indevido
Outros pontos espinhosos:
A pessoa consentiu claramente em virar um “eu digital” interativo?
Quem é dono desse bot depois da morte? Família? Empresa? Plataforma?
Dá para garantir que esse modelo não será usado para fins comerciais, políticos ou manipulativos no futuro?
Hoje já existem deepfakes de voz e vídeo sendo usados para fraude. Agora imagine “bots de mortos” emitindo opiniões, endossando produtos, manipulando familiares.
4.4. Desigualdade de acesso à “imortalidade”
Provavelmente, no início:
Quem terá “imortalidade digital”? Gente com acesso a tecnologia, tempo e dinheiro.
Grupos com menos recursos, menos letramento digital, menos armazenamento terão menos chance de preservar suas histórias.
Ou seja: podemos amplificar desigualdades de memória. Certas culturas, classes e grupos ganharão presença digital prolongada; outras desaparecerão mais rápido.
5. Impactos possíveis no mundo se isso se popularizar
Se projetos como o Dadbot se tornarem comuns, alguns impactos globais plausíveis:
5.1. Nova indústria da “pós-vida digital”
Serviços de:
Gravação guiada de memórias em vídeo/áudio
Treinamento de “personas” em IA para uso familiar
Planos de assinatura para hospedar, atualizar e manter esses bots
Integração com plataformas de mensagem, realidade virtual, óculos, etc.
Isso cria um novo mercado de “death tech”, com tudo o que vem junto: regulação, abuso, marketing agressivo.
5.2. Mudança cultural na forma de encarar a morte
Religiões e filosofias terão de se posicionar: isso é um recurso, uma afronta, uma distração?
A noção de “memória” deixa de ser só lembrança subjetiva e passa a ser um artefato conversacional permanente.
Famílias podem desenvolver rituais novos: aniversários com o bot, jantares de fim de ano com mensagens “do avô digital”, etc.
Isso pode ser visto como continuidade afetiva ou como recusa de aceitar a ausência. Culturalmente, é um divisor de águas.
5.3. Confusão entre “verdade” e simulação
Quando modelos ficarem mais avançados e multimodais:
Será cada vez mais difícil, emocionalmente, separar lembrança real de resposta sintetizada.
Versões diferentes de uma mesma pessoa podem existir ao mesmo tempo, treinadas em bases de dados distintas (um bot feito pelo filho, outro pelo cônjuge, outro por uma empresa).
Essa multiplicação de eus digitais pode gerar disputas legais, narrativas concorrentes e muita confusão identitária.
6. Cenários de futuro para a “imortalidade artificial”
Cenário 1
Ferramenta nichada, usada com cuidado
Serviços de bots de pessoas falecidas existem, mas são usados por uma minoria.
Há protocolos éticos claros, limites legais, acompanhamento psicológico.
A sociedade vê como um recurso de memória, não como substituto de presença.
Cenário 2
Normalização ampla e mercado agressivo
Viram produto mainstream: “garanta hoje seu eu digital em 3 passos”.
Plataformas integram isso nativamente: perfis que “continuam falando” após a morte.
Pressão comercial para monetizar esses bots com publicidade, conteúdo patrocinado, etc.
Aqui o risco de distorção, abuso e manipulação emocional é alto.
Cenário 3
Reação e regulação dura
Casos graves de uso indevido, fraude ou dano psicológico viram manchete.
Países passam a restringir fortemente criação e uso de bots de pessoas reais, vivas ou mortas.
A “imortalidade digital” vira algo mais controlado, próximo de arquivo museológico do que de bot conversacional aberto.
7. Conclusão: talvez a pergunta não seja “podemos?”, mas “devemos e como?”
O caso do Dadbot mostra duas verdades simultâneas:
Há algo genuinamente belo em tentar preservar a voz, as histórias e o humor de alguém que amamos.
Há algo profundamente perigoso se começarmos a confundir simulação com presença, estatística com pessoa, conforto com dependência.
Tecnologicamente, a tendência é clara: ficará cada vez mais fácil criar versões conversacionais de pessoas, vivas ou mortas. A escolha que temos, como indivíduos e como sociedade, é outra: que limites, rituais, regras e salvaguardas vamos impor a isso?
Para acompanhar esse tipo de discussão
Se você se interessa pelos conflitos éticos, culturais e políticos que surgem quando tecnologia cruza amor, luto e poder, essas são exatamente as histórias que destrincho em Tech Gossip.
Você pode acompanhar em:
Perguntas para você refletir (e, se quiser, comentar)
Você usaria um “bot” de alguém que ama depois da morte? Por quê?
Você gostaria que criassem um “você digital” para conversar com seus netos no futuro?
Onde, na sua opinião, está a linha entre homenagem e autoengano?
Que tipo de lei ou regra deveria existir para esse tipo de tecnologia?
#TechGossip #ImortalidadeDigital #Dadbot #IAeLuto #MemoriaDigital #FuturoDaIA #DeathTech #EticaEmIA #IdentidadeDigital #CulturaEDados



