Mientras crecen servicios que recrean voces y personalidades, expertos piden límites y regulación; conoce los riesgos operativos y financieros.
De qué hablan los especialistas
Reportajes recientes exploran servicios de inteligencia artificial que permiten crear "robots de duelo" —modelos conversacionales entrenados con mensajes, audios y fotos de una persona— para simular interacciones. Expertos en ciberseguridad señalan que estas herramientas no "resucitan" a nadie: lo que hacen es construir modelos probabilísticos del lenguaje y del comportamiento a partir de los datos que se les entregan.
Riesgos directos a la identidad y finanzas
- Exposición de datos personales: al subir conversaciones y archivos íntimos se entrega información que puede ser reutilizada por terceros.
- Fraude y suplantación: modelos generados podrían usarse para suplantar voz o mensajes y, potencialmente, facilitar estafas dirigidas (ingeniería social).
- Privacidad de terceros: recrear a alguien sin su consentimiento plantea riesgos legales y éticos.
Propuestas regulatorias y respuestas del sector
En otro frente, gremios y centros de innovación han planteado propuestas para regular la IA y fomentar la inversión responsable. Las recomendaciones incluyen incentivos para la innovación que respeten normas éticas, mayor coordinación entre agencias fiscalizadoras y estándares de protección de datos.
Consejos prácticos (generales)
- Revisa las políticas de privacidad y términos de uso antes de subir datos sensibles a cualquier plataforma de IA.
- Evita incluir información financiera, contraseñas o documentos legales en los archivos que compartes con servicios de recreación digital.
- Mantén control sobre tus cuentas digitales: contraseñas robustas y autenticación de dos factores reducen el riesgo de accesos no autorizados.
- Si usas servicios de IA, valora el nivel de anonimización y solicita borrar tus datos si la plataforma lo permite.
¿Qué significa para tu bolsillo?
La exposición de datos personales puede derivar en intentos de fraude que afecten tus finanzas (intentos de phishing, suplantación por voz o correo). Tomar medidas básicas de higiene digital y evitar compartir información sensible con servicios de recreación digital ayuda a reducir ese riesgo.
Puntos clave
- Los "robots de duelo" recrean patrones de lenguaje y comportamiento a partir de datos; no son resurrecciones.
- Entregar identidad digital a plataformas de IA puede facilitar fraudes y vulnerar la privacidad.
- Expertos y gremios piden marcos regulatorios que fomenten innovación con límites éticos.
- Usuarios deben revisar políticas, no subir datos financieros y proteger accesos con buenas prácticas de seguridad.
- La prevención digital es una herramienta para proteger tu patrimonio.
Fuentes
- Hola — Deepak Daswani, experto en ciberseguridad, sobre los robots de duelo: "No resucitan a nadie; lo que hace es construir un modelo probabilístico del lenguaje y comportamiento" — https://www.hola.com/al-dia/20260309887715/griefbots-ia-robots-duelo-riesgos-experto-ciberseguridad/ — 2026-03-09T07:00:00Z
- DF.cl — Las propuestas de Sofofa Hub para regular la inteligencia artificial y fomentar la innovación — https://www.df.cl/df-lab/innovacion-y-startups/las-propuestas-de-sofofa-hub-para-regular-la-inteligencia-artificial-y — 2026-03-09T07:00:00Z
Puntos clave
- Existen servicios que usan IA para recrear la voz y comportamiento de personas fallecidas.
- Expertos en ciberseguridad advierten que estas herramientas construyen modelos probabilísticos, no resucitan identidades.
- Compartir datos personales con estas plataformas puede exponer información sensible y facilitar fraudes.
- Organizaciones en la región proponen marcos regulatorios para incentivar innovación responsable en IA.
- Para usuarios: prudencia con datos, revisar políticas de privacidad y evitar compartir información financiera.








