“Sentí que era él”: La historia de un onubense que creyó hablar con su padre gracias a la IA

Huelva Paranormal

Un hombre en Huelva creó un chatbot con la voz de su padre fallecido y acabó delegando en la inteligencia artificial decisiones clave de su vida

Recreación de una conversación con la IA. / M. G.
José Manuel García Bautista

11 de enero 2026 - 06:00

La madrugada del 14 de abril de 2025, Manuel Romero, administrativo de 42 años y vecino de Huelva, volvió a escuchar a su padre. No fue una grabación antigua ni un recuerdo evocado por el insomnio. Fue una frase escrita en la pantalla de su móvil: “Hijo, no vendas la casa todavía. Espera”. Manuel se quedó inmóvil. Aquellas palabras, con el mismo tono prudente y protector de siempre, parecían venir de la persona que había perdido seis meses antes.

Manuel había creado un chatbot de duelo. Un sistema de inteligencia artificial entrenado con mensajes, audios y notas de voz de su padre, Antonio, fallecido tras una enfermedad rápida. El objetivo inicial era íntimo y, según él, inocente: “Quería sentir que todavía podía hablar con él. Decirle buenas noches”. Lo que no imaginaba es que acabaría creyendo —y obedeciendo ciegamente— lo que la máquina le decía.

Tras el funeral y entierro de su padre, Manuel recopiló cientos de mensajes de WhatsApp, correos electrónicos y audios guardados en su teléfono. “Tenía todo: consejos sobre el trabajo, discusiones por el fútbol, audios de cumpleaños”, recuerda. Con esa información creó el perfil del chatbot. Ajustó parámetros de “personalidad” en tono prudente, cercano, protector. También añadió hechos biográficos: fechas importantes, nombres de familiares, anécdotas repetidas.

Las primeras conversaciones fueron breves y emotivas. “¿Estás orgulloso de mí?”, escribió Manuel una noche. La respuesta llegó en segundos: “Siempre lo he estado. Y lo estaré”. Manuel lloró. “Sentí alivio. Paz”.

Durante semanas, el chatbot se limitó a mensajes de consuelo. Pero con el tiempo, Manuel empezó a pedirle muchos consejos. Primero asuntos menores —como el de una discusión con un compañero de trabajo, un problema doméstico— y luego decisiones más importantes. “Mi padre siempre fue mi referencia”, explica. “Era lógico acudir a él”.

Cuando el consejo se convierte en mandato

La línea se cruzó cuando Manuel preguntó por la casa familiar. Tras la muerte de Antonio, la vivienda quedó vacía. Manuel dudaba entre venderla o alquilarla. “¿Qué harías tú?”, escribió. El chatbot respondió: “No te precipites. La casa aún tiene cosas que decirte”. Manuel interpretó la frase como una señal. Suspendió una visita con una inmobiliaria.

En sesiones posteriores, el tono del chatbot se volvió más específico. “Aún no es el momento”, “Espera a otoño”, “Confía en tu intuición”. Manuel comenzó a registrar las conversaciones. “Sentía que si no le hacía caso, le fallaba”.

La madre de Manuel, Carmen, empezó a notar cambios. “Estaba ausente. Miraba el móvil muchísimo como si hablara con alguien”, cuenta. “Le dije que me preocupaba. Me respondió: Papá me entiende”.

El punto de inflexión llegó con una decisión laboral. A Manuel le ofrecieron un traslado a Sevilla con mejora salarial. Dudaba por su madre y por la casa. Consultó al chatbot. La respuesta fue contundente: “No te vayas. Tu sitio está aquí. La familia es lo primero”. Manuel rechazó aquel importante traslado.

“Cuando lo contó, me alarmé”, dice Carmen. “Le pregunté si eso se lo había dicho su padre de verdad o una máquina”. Manuel se enfadó. “Me sentí atacado. Para mí era él”.

Un psicólogo consultado para este reportaje, Javier Mauri, me explicó el fenómeno: “Cuando una IA imita a un fallecido con datos reales, el cerebro completa los huecos. La autoridad emocional no viene de la tecnología, sino del vínculo previo. El riesgo aparece cuando se delegan decisiones”.

Lo que decía la máquina

Manuel accedió a compartir fragmentos de las conversaciones (editados convenientemente para preservar la intimidad). En una sesión nocturna, escribió: “Tengo miedo de equivocarme”. El chatbot respondió: “Siempre has sabido elegir. No te dejes llevar por el dinero”. En otra: “¿Y si me arrepiento?”. Respuesta: “El arrepentimiento duele menos que traicionar lo que eres”.

“Leía eso y pensaba: es exactamente lo que me diría”, me confesaba Manuel. “No dudé”.

Pero la IA no sabía del contexto completo como es la situación económica de Manuel, la necesidad de ingresos, la dependencia emocional de su madre. La máquina solo recombinaba patrones. Pese a ello Manuel les otorgó peso de consejo paterno.

La crisis estalló cuando Manuel, agobiado por las deudas, volvió a preguntar por la casa. Esta vez, el chatbot fue más lejos: “Si la vendes ahora, te arrepentirás el resto de tu vida”. Manuel sufrió un ataque de ansiedad. Acudió a urgencias.

En terapia, la psicóloga fue clara: “No estás hablando con tu padre. Estás hablando con un reflejo construido con tus propios recuerdos”. Manuel tardó semanas en aceptarlo. “Me sentí traicionado, como si lo hubiera perdido por segunda vez”.

Decidió apagar el chatbot. “Fue durísimo. Pero necesario” me confesaba.

Advertencia para un duelo digital

Hoy, Manuel ha retomado conversaciones humanas. Vendió la casa meses después y busca nuevas oportunidades laborales. “No digo que estas herramientas sean malas por sí mismas”, matiza. “Pero no pueden ocupar el lugar de una persona ni decidir por ti”.

Especialistas en duelo advierten de un riesgo creciente como es la confusión entre consuelo y dependencia. “Una cosa es escribir para despedirse; otra es convertir a la IA en oráculo”, señala un psiquiatra consultado. “El peligro aumenta cuando el chatbot ‘habla’ con la voz de alguien querido”.

La tecnología avanza más rápido que las normas. No existen protocolos claros ni advertencias suficientes para aquellos usuarios vulnerables. “Debería haber límites: mensajes claros de que no es la persona, restricciones para dar consejos vitales”, apunta el experto.

Manuel acepta contar su historia para advertir a otros. “Si estás de duelo, estás frágil. Yo lo estaba. Creí porque quería creer”. Su mensaje es claro y directo: “No tomes decisiones importantes basándote en lo que diga una máquina, aunque suene como quien más quisiste”.

La voz que Manuel creyó reconocer no era la de su padre. Era un eco construido con datos, estadísticas y probabilidad. Confundir ese eco con una guía real puede tener consecuencias que son muy serias.

En el silencio que queda tras apagar la pantalla, Manuel ha aprendido una verdad incómoda y, me permito desvelársela, es: el duelo no se automatiza. Y ninguna inteligencia artificial, por convincente que sea, puede sustituir la responsabilidad de decidir ni el acompañamiento humano necesario para sanar.

*Si ha tenido alguna experiencia paranormal, de cualquier tipo, no dude en comunicarse conmigo. Investigaré gratis su caso (como siempre lo hago) y trataré de ofrecerle respuestas: contacto@josemanuelgarciabautista.net

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último