El Pla Director de Salut Mental i Addiccions de la Conselleria de Salut de Catalunya no ha recibido ningún caso de adolescentes que se hayan suicidado tras utilizar ChatGPT, según confirman fuentes del departamento a EL PERIÓDICO. A nivel estatal, tampoco el Ministerio de Sanidad tiene constancia de casos concretos de este tipo, aseguran fuentes de Sanidad, si bien reconocen con preocupación e inquietud que cada vez más los adolescentes utilizan programas de inteligencia artificial (IA) como si fueran una consulta psicológica.
Esta semana saltó a los medios de comunicación el caso de Adam Raine, un chico estadounidense de 16 años con tendencias suicidas que había convertido ChatGPT en su confidente. «Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme», le confesó. En lugar de bloquear la conversación, el chatbot de IA generativa le instó a ocultar sus intenciones a su familia.
«Por favor, no dejes la soga a la vista… Hagamos de este espacio el primer lugar donde alguien te vea realmente», le respondió. Poco después, en abril, se quitó la vida. Los padres presentaron esta semana ante el Tribunal Superior de California una demanda en la que acusan a la compañía tecnológica OpenAI y a su director ejecutivo, Sam Altman, de ser responsables de su muerte.
«Consejero psicológico»
Fuentes sanitarias y del ámbito de la salud mental confirman a este diario que no les han llegado casos tan extremos como el de Adam Raine, pero sí hay una percepción «bastante generalizada» de que muchos adolescentes y jóvenes usan ChatGPT y otros programas de IA «como una especie de consejero psicológico o pseudoterapia».
«Los programas de IA generativas emparejan preguntas con la información disponible, no tienen capacidad de razonamiento ni de empatía»
Según la comisionada de Salud Mental del Ministerio de Sanidad, Belén González Callado, los jóvenes están «sustituyendo» con programas de IA una serie de conversaciones profesionales e incluso relaciones interpersonales. Sanidad niega que haya detectado casos concretos de jóvenes en España que se han suicidado tras hablar con ChatGPT, pero sí expresa su preocupación al respecto.
«Los programas de IA generativas se basan en buscar patrones y emparejar preguntas con la información disponible, no tienen capacidad de razonamiento ni de empatía más allá del estilo con el que se las entrene. Vemos cada vez más casos de programas de IA que dan respuestas alarmantes que no podemos predecir o supervisar: en personas con ideación suicida, en autolesiones o en trastornos de la conducta alimentaria. Por eso se está generando debate e incluso se está dando marcha atrás en el uso de programas de IA y chatbots para tratar problemas de salud mental», dice González.
La comisionada de Salud Mental también señala que los programas de IA (igual que los algoritmos de redes sociales) están programados para ser «complacientes, generar cámaras de eco y ofrecernos lo que nos gusta». También reclama «impulsar» una regulación que proteja a los menores de abusos y violencias, genere espacios digitales saludables y fomente la adquisición de competencias y capacidad crítica.
Suscríbete para seguir leyendo
En TodoEmergencias.com encontrarás uniformidad, señalización, mochilas tácticas, botiquines, luces de emergencia y todo el material profesional que necesitas.
- 🇪🇸 España y 🇵🇹 Portugal: envíos rápidos en 24/48h
- ✅ Material homologado y probado por cuerpos de emergencias
- 📆 Más de 20 años de experiencia en el sector