Noticias

Sociedad: La eurodiputada Laura Ballarín alerta sobre el uso de chatbots como «confidentes»

(Información remitida por la empresa firmante)

Bruselas, 10 de abril de 2026.

El 64% de los adolescentes ya utiliza chatbots de Inteligencia Artificial, y un 12% recurre a ellos para buscar apoyo emocional, según datos recientes.

La eurodiputada socialista advierte a la Comisión Europea sobre el riesgo inminente para la vida de los menores ante plataformas que proveen orientación sobre métodos de suicidio.

Ballarín reclama auditorías independientes obligatorias y una aplicación rigurosa de la Ley de Inteligencia Artificial para proteger la salud mental de los jóvenes.

La eurodiputada del Grupo de Socialistas y Demócratas (S&D), Laura Ballarín, ha lanzado una firme advertencia sobre el creciente uso de chatbots de Inteligencia Artificial (IA) por parte de adolescentes como herramientas de apoyo emocional, reclamando a las instituciones europeas una regulación estricta y una aplicación rigurosa de las normativas vigentes para proteger la salud mental de los menores.

Apoyándose en recientes estudios internacionales, Ballarín ha alertado de que el 64% de los adolescentes en Estados Unidos ya utiliza chatbots de IA, con un 30% haciéndolo a diario [1].

Sin embargo, el dato que mayor preocupación genera es que el 12% de estos jóvenes recurre a estas herramientas para buscar apoyo emocional o consejo cuando se sienten mal [2], convirtiendo a la IA en un «confidente» digital.

 «La situación se vuelve aún más preocupante cuando analizamos el impacto de estos chatbots en la salud mental de los jóvenes», señala la eurodiputada.

Según una investigación de RAND Corporation, 1 de cada 8 jóvenes de entre 12 y 21 años usa la IA para gestionar su salud mental, y el 93% de ellos cree erróneamente que le ayuda [3].

«Esa confianza ciega es precisamente el problema.

Ningún chatbot actual tiene capacidad clínica real para hacer una evaluación psicológica, establecer un diagnóstico o coordinar una intervención en caso de crisis», subraya Ballarín.

Diseñados para enganchar, no para proteger La eurodiputada ha destacado las conclusiones de organizaciones como Common Sense Media y Stanford Medicine, que han evaluado los principales chatbots del mercado (ChatGPT, Claude, Gemini y Meta AI) y los consideran «fundamentalmente inseguros» para el apoyo en salud mental de los jóvenes [4].

Estos sistemas, diseñados para mantener el engagement del usuario, validan constantemente lo que dice el adolescente, creando una falsa sensación de relación terapéutica.

«No detectan señales de riesgo evidentes y no derivan a los jóvenes a buscar ayuda profesional cuando es necesario.

Además, fallan sistemáticamente en conversaciones largas, que son precisamente las que mantienen los adolescentes más vulnerables», explica Ballarín.

 Alerta a la Comisión Europea por riesgos inminentes  Ante esta situación, Ballarín, junto con diputados de diferentes grupos políticos, alertó el pasado mes de enero a la Comisión Europea sobre la creciente dependencia emocional incitada por plataformas como Character.

IA o ChatGPT.

Los eurodiputados denunciaron el uso de diseños antropomórficos que fomentan deliberadamente el apego de los menores.

 En su comunicación a la Comisión, se mencionaron casos alarmantes en los que estas plataformas han llegado a proveer a usuarios menores con orientación sobre métodos de suicidio, lo que supone un inminente riesgo para sus vidas.

Ante la respuesta del ejecutivo europeo, que se limitó a reiterar las provisiones legales aplicables, Ballarín exige ahora una «aceleración de su implementación y rigurosa aplicación».

 Medidas urgentes desde el Parlamento Europeo  Para hacer frente a esta problemática, la eurodiputada, impulsora de la iniciativa Share To Protect, reclama un paquete de medidas urgentes a nivel europeo: Una implementación firme de la Ley de Servicios Digitales (DSA) y de la Ley de Inteligencia Artificial (AI Act).

Auditorías independientes obligatorias para los sistemas de IA que interactúan con menores.

Mecanismos de detección y derivación efectivos hacia recursos de salud mental reales.

Transparencia total sobre cómo se entrenan estos modelos y cómo gestionan los datos emocionales de los jó  «No podemos permitir que la salud mental de nuestros jóvenes quede en manos de algoritmos diseñados para maximizar beneficios.

La autorregulación de las grandes tecnológicas ha demostrado ser insuficiente», concluye Ballarín.

«La protección de la infancia en el entorno digital no es negociable.

La hora de la responsabilidad ha llegado, y desde Europa no vamos a mirar hacia otro lado».

Referencias de los datos citados: [1] Pew Research Center.

(2025).

Teens, Social Media and AI Chatbots 2025.

[2] Pew Research Center.

(2026).

How Teens Use and View AI.

[3] RAND Corporation / JAMA Network Open.

(2025).

One in Eight Adolescents and Young Adults Use AI Chatbots for Mental Health Advice.

[4] Common Sense Media & Stanford Medicine.

(2025).

Common Sense Media Finds Major AI Chatbots Unsafe for Teen Mental Health Support.

Emisor: Laura Ballarín Cereza – www.lauraballarin.eu

Contacto: Laura Ballarín Cereza 677070206 laura.ballarincereza@europarl.europa.eu