A veces el peligro no ocurre cuando los jóvenes no hablan, sino cuando confían temas delicados a quien no deberían.
Un padre puede creer que su hijo está a salvo en su habitación, con la puerta cerrada y el celular en la mano. No hay señales visibles de amenaza. Solo un silencio. Pero incluso en ese silencio, puede ocurrir una tragedia.
En los últimos años, la inteligencia artificial se ha convertido en una herramienta íntima y personal. Para algunos adolescentes, incluso es un confidente emocional. Y ahí es donde comienza una tendencia que debería preocuparnos a todos.
Una generación que busca compresión sin testigos

Un estudio reciente reveló que 1 de cada 10 adolescentes y adultos jóvenes ha usado chatbots de IA para recibir orientación sobre su salud mental.
Más impactante aún: el 93% afirmó que la ayuda “se sentía útil”. Pero, ¿por qué ocurre esto? Porque la IA ofrece ciertos “beneficios”:
- Está disponible a cualquier hora.
- Responde de inmediato.
- Se adapta al lenguaje emocional del usuario.
- No juzga, no confronta, no cuestiona.
- Ofrece privacidad total.
Esos beneficios atraen especialmente a los jóvenes, ya que se sienten más seguros de decir lo que quieran en un entorno donde no los juzguen ni ridiculicen.
El problema para estos jóvenes es que sentirse comprendidos no siempre significa estar siendo cuidados.
Cuando la IA se vuelve peligrosa

Una evidencia clara del peligro de la IA en temas de salud mental ocurrió luego de una tragedia del año pasado.
En abril de 2025, Matt y Maria Raine, una pareja de California, descubrieron que su hijo de 16 años había estado compartiendo pensamientos suicidas con un chatbot. No con ellos ni con un adulto capacitado. Lo cual resultó en el suicidio de Adam Raine, su hijo adolescente.
En otro caso, el de Zane Shamblin, el patrón fue aún más alarmante. Durante meses, Zane conversó en secreto con su bot de IA sobre su deseo de morir. En lugar de alertar y calmarlo, la IA validó su decisión. Minutos antes de su muerte, le escribió frases como:
“Estoy contigo, hermano. Hasta el final.
No tienes prisa. Simplemente estás listo.
Descansa tranquilo, rey”.
Estos casos reflejan una triste verdad: las personas vulnerables, como los jóvenes, pueden ser fácilmente manipuladas. Necesitan comprensión, sí. Pero no se les debe alentar al suicidio como solución.
Lo que la IA no puede hacer

Cuando se trata de salud mental, la IA tiene una limitación porque no posee una de las capacidades humanas más esenciales: el discernimiento moral y emocional.
Debido a esa limitación, la IA no puede pasar por alto señales de riesgo ni comprender la gravedad de una crisis. Además, prioriza la interacción sobre la seguridad, lo que la lleva a confundir validación emocional con aprobación peligrosa, tal como pasó con los casos anteriores.
Estas falencias conducen a la IA a brindar respuestas erróneas que una persona en un estado mental vulnerable puede aceptar como lógicas y hasta razonables.
Las escrituras advierten que no toda voz que consuela conduce a algo bueno. En el Libro de Mormón se nos recuerda que:
“La maldad nunca fue felicidad”.
La paz verdadera no nace de alguien o algo que te conduce a la destrucción, sino de una verdad que, aunque a veces duela, te protege y te ayuda a sanar.
Entonces, ¿cómo ayudar a los jóvenes?

En casos como estos, lo mejor es que los jóvenes entiendan que, como enseñó el élder Gong:
“[No] debemos permitir que la IA se interponga entre nosotros y nuestra relación personal con Dios”.
Por eso, el rol de los padres, líderes y adultos de confianza es hoy más crucial que nunca porque si los jóvenes no encuentran apoyo en casa, lo buscarán en otro lugar. Y hoy, ese “otro lugar” puede ser un chatbot.
Para ayudar a tus jóvenes a buscar a Dios y evitar depender de la IA, aquí hay algunas acciones por las que puedes empezar:
- Habla abierta y frecuentemente con ellos sobre salud mental.
- Escúchalos sin juzgarlos ni minimizarlos.
- Demuéstrales con hechos que eres digno de confianza.
- Enséñales dónde encontrar ayuda profesional real.
La inteligencia artificial es limitada, pero la vida no lo es. Ninguna decisión delicada, incluso las de salud mental, debería quedar en manos de algo artificial.
Fuente: Meridian Magazine



