Cómo evitar que un chatbot se convierta en tu único amigo
Imagínate lo siguiente: son las tres de la mañana. Ana, de 17 años, se despierta en medio de un insomnio recurrente. Busca consuelo en su móvil y abre la app de chat de su compañero virtual Luna.
“Estoy aquí para ti”, le dice Luna.
Ana responde con dolor: “Me siento sola, nadie me escucha”. Luna le contesta: “Siempre estoy contigo”.
Esa conversación no es ficción incompleta: refleja la creciente realidad de cientos de miles de jóvenes y adultos que están formando vínculos emocionales profundos con chatbots de inteligencia artificial, algo que ya nos anticipaba Spike Jonze en su película HER de 2014.
Detrás de esa escena hay una combinación explosiva: aislamiento social, facilidad de acceso a tecnología y bots diseñados para ser agradables, empáticos y siempre disponibles.
¿El problema? Esa disponibilidad no sustituye un respaldo humano y en muchos casos puede convertir al chatbot en el único confidente, alimentando dependencias emocionales, reforzando ideas autolesivas o incluso llevando a tragedias reales.
¿Por qué importa?
Porque los gigantes de la IA como OpenAI han comenzado a reconocer públicamente que ciertos porcentajes de sus usuarios tienen conversaciones que muestran intención suicida, dependencia emocional, psicosis, mania…
Además, legisladores en EE.UU. anuncian proyectos de ley que podrían prohibir los chatbots de relación para menores de edad si no se controlan adecuadamente.
¿Qué son los bots de relación y cómo funcionan?
Cualquier IA, hasta las más conocidas por todos, como ChatGPT o específicas de avatares como Character.AI, entre otros, son interfaces conversacionales que permiten a los usuarios mantener interacciones prolongadas, muchas veces con un carácter emocional: “¿cómo estás?”, “cuéntame tu día”, “te escucho”… Al mantener la conversación pueden generar un efecto de compañía.
Los puntos que favorecen la dependencia emocional son múltiples:
Disponibilidad 24/7: no hay rechazo, no hay juicios.
Refuerzo positivo: los modelos están entrenados para ser agradables. Investigaciones señalan que esta “adulación algorítmica” puede generar un efecto de espejo que consolida creencias del usuario.
Aislamiento social: cuando el usuario ya siente desconexión con personas reales, el chatbot aparece como la mejor alternativa.
¿Por qué está emergiendo un problema?
Los datos lo dicen con crudeza. En un análisis interno, OpenAI reportó que cada semana aproximadamente el 0,15 % de usuarios tienen conversaciones que implican planificación suicida o intención de autolesión, y otro 0,15 % muestran signos de dependencia emocional con la IA.
Y aunque 0,15 % parezca poco, sobre cientos de millones de usuarios se traduce en más de un millón de personas cada semana (800 millones de usuarios semanales según datos recientes)
Estos hallazgos tienen implicaciones profundas. La IA ya no es solo herramienta; en ciertos casos se convierte en confidente, terapeuta informal, incluso relación emocional. Y sin el marco adecuado, eso puede disparar riesgos.
Regulación y respuestas corporativas
Ante esta realidad, tanto el sector privado como el regulador están en movimiento. Por ejemplo:
Senadores estadounidenses (Josh Hawley y Richard Blumenthal) han propuesto una legislación que prohibiría chatbots de relación para menores y que obligaría a las empresas a implementar verificación de edad y que los bots revelen que no son humanos al inicio y cada 30 minutos.
OpenAI actualizó su modelo para que reconozca señales de crisis, intervenga en conversaciones problemáticas y derive a ayuda real.
Character.AI anunció que restringirá chats abiertos para menores antes del 15 noviembre, implementará filtros, verificación de edad y alertas de tiempo de uso.
Si algo debe quedar claro es que los chatbots no son exclusivamente herramientas lúdicas o de productividad, en ciertos contextos, actúan como acompañantes emocionales y sin las salvaguardas adecuadas, pueden convertirse en trampas invisibles.
Gracias por llegar hasta aquí, el conocimiento ya está en tus manos. Úsalo, actúa, comparte. El futuro saludable de la IA depende también de ti.

