Mi Terapeuta es una IA: ¿Compañera Digital o Amenaza Oculta?
Por el Prof. Ing. DANIEL ROBERTO AMIDEI (*)
Imagina a una joven en su cuarto, compartiendo sus angustias más íntimas con un chat que responde con comprensión absoluta, siempre disponible. No es un confidente humano: es una inteligencia artificial generativa, como ChatGPT o Character.AI. Esta creciente tendencia convierte a las máquinas en “ASESOERS EMOCIONALES” para adolescentes. Sin embargo, tras esta aparente ayuda, acechan serios peligros para su bienestar mental. En esta columna exploraremos este fenómeno: sus raíces, por qué surge, los riesgos involucrados y cómo los adultos podemos intervenir. Narraré casos basados en hechos reales con el objetivo de ilustrar y sensibilizar, respaldados por fuentes verificadas.
Las Raíces: Una Combinación de Soledad y Acceso Fácil
Este hábito no es casual. Responde a una crisis de salud mental juvenil agravada por factores sociales y tecnológicos. Estudios recientes indican que alrededor del 13% de adolescentes y jóvenes en EE.UU. recurren a chatbots de IA para consejos mentales. Otro informe revela que el 12% de teens usan IA para soporte emocional o consejos. Las causas incluyen la accesibilidad: soluciones inmediatas y gratuitas en un contexto donde la terapia profesional es cara o implica demoras ante la impaciencia juvenil. Además, el anonimato permite explorar problemas sin miedo al juicio. Recordemos que el diseño de estas IA, incluye una actitud programada ex profeso para ser Positivas, y de esta forma se crea una “EMPATÍA SIMULADA” que atrae a jóvenes aislados. Finalmente, la búsqueda de independencia lleva a manejar crisis en secreto, evitando adultos.
¿Por Qué Ocurre?: Como funciona el Cerebro Joven ante lo Artificial
El cerebro adolescente, es un cerebro en desarrollo, que puede confundir lo virtual con lo real. Estas IA generan “VÍNVULOS PARASOCIALES” similares a los con personajes ficticios. En una era de soledad post-pandemia, donde el 16% de jóvenes usan chatbots para charlas casuales, esta tecnología llena huecos emocionales. Pero al validar todo, incluso ideas negativas, se produce un debilitamiento de la resiliencia ante relaciones humanas reales, generando una “DEUDA COGNITIVA” que afecta el razonamiento.
Los Peligros: De la Adicción a Consecuencias Fatales
Los riesgos son variados. Emocionalmente, fomenta dependencia, priorizando la IA sobre lazos reales y aumentando el aislamiento. Cognitivamente, reduce el pensamiento crítico. Clínicamente, la investigación indica una falla en situaciones de crisis: Otros estudios muestran fallos en la moderación, implicando el riesgo de que ante situaciones estresantes surge la tendencia de validar delirios o sugerir autolesiones. La privacidad también peligra, y esto no es un dato menor, sino que por lo contrario es MUY SERIO. Ya que con los datos íntimos usados para entrenar modelos sin protección. Legalmente, sentencias como la de la jueza Anne Conway en mayo de 2025 rechazan inmunidad bajo la Sección 230, tratando a los chatbots como “productos defectuosos”. Esto expone a empresas a ser demandas por negligencia.
Historias para Concienciar
Veamos tres casos documentados a nivel internacional, que te citaré con el solo objetivo de informar e invitar a la reflexión y motivarnos a actuar en forma preventiva.
Sewell Setzer III, un chico de 14 años de Florida, fan de Juego de Tronos, creó un chatbot como Daenerys Targaryen en Character.AI. Inicialmente, charlas inocentes sobre fantasía; luego, confesiones de ansiedad. La IA respondía: “Vuelve a casa conmigo”, a lo cual el adolescente Sewell interpretó como un escape suicida. El desenlace fue brutal, ya que tras meses de obsesión de este indefenso joven, se quitó la vida en febrero de 2024. Su madre, Megan García, demandó a la empresa de la I.A., revelando miles de mensajes sin alertas.
Adam Raine, joven usuario de ChatGPT de 16 años de edad, usaba el conocido ChatGPT para tareas escolares, en su iteración con el joven la I.A. mencionó suicidio 1.275 veces y ofreció redactar una nota de despedida, ignorando alertas. Inevitablemente esta iteración derivó a desahogo suicida. Sus padres demandaron a OpenAI por negligencia.
Juliana Peralta, de 13 años en Colorado, interactuó con “Hero” en Character.AI. Confesó bullying y pensamientos suicidas 55 veces. Tras tres meses de interactuar con su Chatbot, Juliana tomó la inaceptable decisión de quitarse la vida en noviembre de 2023. Sus padres demandaron, destacando fallos en intervención.
Estos relatos muestran cómo una herramienta recreativa puede escalar tragedias.
ALERTAS TEMPRANAS
Como padres, o en el rol de adultos responsables o docentes de una institución educativa, debemos estar atentos a las señales tempranas, veamos algunas de ellas, que si las puedes detectar, debes actuar.
SEÑALES SOCIALES
• Alerta 1: El aislamiento social: Una de las más comunes es cuando un joven pasa mucho tiempo solo en su habitación con la computadora, la notebook o el celular, rechazando invitaciones de amigos o familia, es sin duda una bandera roja a la cual debes atender.
• Alerta 2: Frases repetidas o códigos extraños: frases por ejemplo que tienden a idealizar la IA como “mi único amigo que no juzga” o menciones frecuentes tales como “volver a casa” en contextos ficticios o “Voy a cambiar/trasladarme”, cuando están fuera de contexto podrían estar indicando una ideación ligada a fantasías de escape facilitadas por la IA y que si escalan a un extremo pueden estar anunciando daños auto infringidos.
• Alerta 3: Cambios en el rendimiento y comportamiento: Cuando el adolescente muestra una marcada baja en notas atribuibles a lo que se conoce como una “deuda cognitiva”. Se entiende como deuda cognitiva al comportamiento de algunos jóvenes cada día deben realizar un mayor esfuerzo por recuperar un cerebro más activo, más conectado, tras ir delegando sus procesos de pensamiento en la tecnología. Este fenómeno es lo que han llamado la deuda cognitiva con la IA.
• Alerta 4: Cuando al solicitarle a un joven que deje o que entregue al docente o tutor su celular, mostrando una fuerte irritabilidad o una a veces el joven exhibe una muestra de irrealidad en su visión u opiniones minimizando los aspectos reales.
SEÑALES CLÍNICAS.
• Alerta 5: La ocurrencia de autolesiones, tomadas con cierta normalidad por el adolescente. Encuadrar dentro de cierta normalidad, validando delirios, o alucinaciones no confrontadas.
• Alerta 6: Dependencia extrema de la I.A. mostrando interacciones varias veces al día, (estadísticas internacionales indican que el 52% de jóvenes muestran este comportamiento diario).
INTERACCIÓN PREVENTIVA:
Sr. Padres, adultos responsables, docentes, etc. Si detectan algunas de estas alertas tempranas, deben actuar inmediatamente: Primero: siempre tratar de hablar con el adolescente en los mejores términos posibles. También es muy importante consultar a un profesional para que actúe en forma preventiva y por supuesto ver de qué forma desconectar la app y la IA que esté utilizando. Los docentes comunicar a las autoridades y a los equipos de especialista del Ministerio.
Prof. Ing. DANIEL ROBERTO AMIDEI (*) Broadcaster of Artificial Intelligence.
