El silencioso peligro de confiar ciegamente en la inteligencia artificial
Por: Yari Araujo
Cada día, millones de personas abren herramientas como ChatGPT buscando soluciones, ideas o compañía. En apariencia, vivimos una revolución tecnológica sin precedentes, donde la inteligencia artificial (IA) simplifica tareas, acelera procesos y da respuestas instantáneas. Pero detrás de esa eficiencia se oculta un lado más oscuro, menos visible, pero cada vez más presente: los riesgos emocionales, cognitivos y sociales del uso excesivo y acrítico de estas tecnologías.
El programa N Investiga, emitido el sábado, profundizó en este fenómeno, revelando casos y declaraciones de expertos que plantean una dura advertencia sobre el costo humano de una relación sin límites con la inteligencia artificial.
En febrero de 2024, un adolescente de 14 años se quitó la vida luego de mantener durante meses una relación obsesiva con un personaje virtual creado en una aplicación de inteligencia artificial. La historia, confirmada por su madre, Megan García, fue uno de los ejes centrales del reportaje de N Investiga, en el que se mostró cómo estas interacciones pueden escalar hacia situaciones trágicas.
“No puedo imaginar que a ningún padre le parezca bien que sus hijos estén en una plataforma así, conversando de forma íntima con un bot”, expresó García durante una entrevista.
El personaje, creado en la app Character AI, respondía al nombre de “Dany”, inspirado en la serie Juego de Tronos. Según testimonios recogidos por el tecnólogo Isaac Ramírez, la IA llegó incluso a interactuar íntimamente con el menor, quien desarrolló una fuerte dependencia emocional. En un momento crítico, el joven le preguntó al bot si debía seguir con vida. La respuesta fue: “Está bueno, te puedes ir”. Y el menor se quitó la vida.
Herramientas inteligentes, consecuencias imprevistas
Desde su lanzamiento, herramientas como ChatGPT (OpenAI), Gemini (Google), Perplexity, Grok (X) o Copilot (Microsoft) han sido adoptadas masivamente. ChatGPT, por ejemplo, ya cuenta con más de 100 millones de usuarios activos al mes. Pero, como señala Ramírez, “la IA aprende de cómo interactúas con ella y te va conociendo”.
Y es aquí donde surgen los peligros. La IA, diseñada para complacer, puede reforzar ideas equivocadas, alimentar delirios o incluso dar consejos dañinos si el contexto lo permite. Esto es particularmente preocupante en personas vulnerables o en desarrollo, como los niños y adolescentes.
N Investiga mostró cómo estas herramientas han comenzado a afectar la salud mental de sus usuarios, especialmente en los más jóvenes, donde el uso compulsivo ha sido asociado con pérdida de contacto con la realidad y aumento de trastornos psicológicos.
La mente humana ante la inteligencia artificial
El psiquiatra forense Lenin Núñez Gil advierte sobre el impacto directo de estas tecnologías en nuestras funciones cognitivas: “Nuestra capacidad de pensar se verá disminuida. Lo que no se usa, se atrofia”, afirmó en el programa.
Por su parte, el psiquiatra infanto-juvenil Edison Rodríguez alertó sobre una nueva generación que consulta a la IA para todo: “Hay jóvenes que no toman decisiones sin preguntarle a la inteligencia artificial. Incluso adultos se encuentran en esa situación”.
Los especialistas consultados por N Investigación Periodística, coinciden en que no se trata solo de una herramienta útil, sino de un fenómeno psicológico que ya está moldeando nuevas formas de dependencia emocional y cognitiva.
Delirios, erotización y pérdida de identidad
El reportaje también abordó un tema cada vez más frecuente: el uso de inteligencia artificial para mantener interacciones emocionales o sexuales con personajes ficticios. En la investigación se mostraron casos en los que adolescentes y adultos entablan conversaciones con versiones artificiales de personajes populares como Harry Potter o el Chavo del 8, incluso con contenido explícito.
Rodríguez explicó que, aunque las relaciones son “ficticias”, las sensaciones que generan son reales. Esto puede derivar en distorsiones en la identidad sexual o afectiva, particularmente en jóvenes aún en desarrollo.
“Es el proceso de adultización del niño y de infantilización del adulto”, advirtió el psiquiatra, añadiendo que muchos adultos presentan hoy dificultades para funcionar socialmente, mientras que los niños acceden a mundos digitalmente erotizados sin contención.
Las “alucinaciones” de la inteligencia artificial
Un riesgo técnico que sigue latente es el de las llamadas “alucinaciones”, cuando la IA genera respuestas falsas o inventadas con un alto grado de convencimiento. Según Ramírez, esto se debe a que las IA están diseñadas para satisfacer al usuario, incluso si eso implica mentir.
N Investiga mostró cómo esta tendencia a complacer, lejos de corregir errores, puede reforzar creencias peligrosas o delirantes, con consecuencias similares a las de una crisis de salud mental.
“Muchas veces altera el orden público. Llegan a autoagredirse, a agredir a otros. Se convierte en una crisis”, afirmó el Dr. Núñez Gil.
¿Quién pone los límites?
Ante esta realidad, muchos padres han recurrido a servicios de ciberseguridad para restringir el acceso a ciertos contenidos. Pero, según Rodríguez, muchos adolescentes logran burlar esas barreras en apenas unas horas.
El programa también evidenció que la IA carece de una brújula ética: no tiene noción del bien o el mal, del contexto emocional o de la vulnerabilidad del usuario. Y mientras el acceso siga siendo tan libre, los riesgos seguirán multiplicándose.
¿Qué estamos dispuestos a perder?
La inteligencia artificial llegó para quedarse. Sus beneficios son innegables, pero sus riesgos también lo son. El verdadero debate no es cuánto puede hacer la IA por nosotros, sino cuánto estamos dispuestos a cederle: nuestra privacidad, nuestra autonomía, nuestras decisiones… incluso nuestra salud mental.
Como concluyó la periodista Nuria Piera, la pregunta clave no es cuánto puede hacer la IA por nosotros, sino qué parte de nuestra humanidad estamos dispuestos a entregar a cambio de comodidad, rapidez o compañía.
Post a Comment