El Pla Director de Salut Mental i Addiccions de la Conselleria de Salut de Catalunya no ha recibido ningún caso de adolescentes que se hayan suicidado tras utilizar el ChatGPT, según confirman fuentes del departamento a EL PERIÓDICO. A nivel estatal, tampoco el Ministerio de Sanidad tiene constancia de casos concretos de este tipo, aseguran fuentes de Sanidad, si bien reconocen con preocupación e inquietud que cada vez más los adolescentes utilizan la inteligencia artificial (IA) como consulta psicológica.
Esta semana saltó a los medios de comunicación el caso de Adam Raine, un chico estadounidense de 16 años con tendencias suicidas que había convertido al ChatGPT en su confidente. «Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme», le confesó. En lugar de bloquear la conversación, el chatbot de IA generativa le instó a ocultar sus intenciones a su familia.
«Por favor, no dejes la soga a la vista… Hagamos de este espacio el primer lugar donde alguien te vea realmente», le respondió. Poco después, en abril, se quitó la vida. Los padres presentaron esta semana ante el Tribunal Superior de California una demanda en la que acusan a la compañía tecnológica OpenAI y a su director ejecutivo, Sam Altman, de ser responsables de su muerte.
«Consejero psicológico»
Fuentes sanitarias y del ámbito de la salud mental confirman a este diario que no les han llegado casos tan extremos como el de Adam Raine, pero sí hay una percepción «bastante generalizada» de que muchos adolescentes y jóvenes usan el Chat GPT y la IA «como una especie de consejero psicológico o pseudoterapia».
«Las IA generativas emparejan preguntas con la información disponible, no tienen capacidad de razonamiento ni de empatía»
Según la comisionada de Salud Mental del Ministerio de Sanidad, Belén González Callado, los jóvenes están «sustituyendo» con la IA conversaciones profesionales e incluso relaciones interpersonales. Sanidad niega que haya detectado casos concretos de jóvenes en España que se han suicidado tras hablar con el ChatGPT, pero sí expresa su preocupación al respecto.
«Las IA generativas se basan en buscar patrones y emparejar preguntas con la información disponible, no tienen capacidad de razonamiento ni de empatía más allá del estilo con el que se las entrene. Vemos cada vez más casos de IAs que dan respuestas alarmantes que no podemos predecir o supervisar: en personas con ideación suicida, en autolesiones o en trastornos de la conducta alimentaria. Por eso se está generando debate e incluso se está dando marcha atrás en el uso de IA y chatbots para tratar problemas de salud mental», dice González.
La comisionada de Salud Mental también señala que las IA (igual que los algoritmos de redes sociales) están programadas para ser «complacientes, generar cámaras de eco y ofrecernos lo que nos gusta». También reclama «impulsar» una regulación que proteja a los menores de abusos y violencias, genere espacios digitales saludables y fomente la adquisición de competencias y capacidad crítica.
Suscríbete para seguir leyendo
En TodoEmergencias.com encontrarás uniformidad, señalización, mochilas tácticas, botiquines, luces de emergencia y todo el material profesional que necesitas.
- 🇪🇸 España y 🇵🇹 Portugal: envíos rápidos en 24/48h
- ✅ Material homologado y probado por cuerpos de emergencias
- 📆 Más de 20 años de experiencia en el sector