Mientras el mundo debate sobre los peligros de la inteligencia artificial generativa, en Argentina el fenómeno adquiere características particulares. Jimena Robles Abalos, psicóloga, practicante de psicoanálisis y coordinadora de espacios de supervisión grupal del Servicio de Adolescencia del Hospital Escuela de la Facultad de Psicología de la Universidad Nacional de Tucumán, ofrece una perspectiva que combina cautela con realismo sobre un fenómeno imposible de detener.
«La inquietud llega siempre que hay algo que no funciona«, explica Robles Abalos al describir cómo llegó este tema a su práctica profesional. Y señala dos frentes problemáticos: por un lado, el impacto en el desarrollo intelectual cuando la IA resuelve trabajos que antes ejercitaban el pensamiento; por otro, las consultas de salud mental donde las recomendaciones automáticas no siempre resultan comprensibles o apropiadas para quien las recibe.
El caso argentino: una tradición que resiste
Argentina presenta un panorama singular en este contexto. Con 286 psicólogos cada 100.000 habitantes, es uno de los países con mayor densidad de profesionales de salud mental del mundo. «La mayoría de los argentinos van a un psicólogo o han ido alguna vez, preferentemente a un psicoanalista«, destaca la especialista, subrayando que este hábito cultural actúa como factor protector.
Sin embargo, esto no significa que el país esté ajeno a los fenómenos globales. «Estamos viendo problemáticas y fenómenos más bien importados de otros países que, por supuesto, llegan al nuestro«, reconoce. La diferencia es que la IA «todavía no tiene tantísima incidencia» en reemplazar la consulta presencial, aunque sí genera interrogantes sobre qué sucederá cuando termine de instalarse su uso masivo.
Psicosis inducida por IA: Al no distinguir entre realidad y fantasía y debido a su forma de responder con aparente coherencia y empatía, ChatGPT valida los pensamientos del usuario, aunque sean patológicos, lo que les lleva al deliriohttps://t.co/dQWNEXyC20 pic.twitter.com/slYm3dTwz2
— Julio Rodríguez, PhD | Genética Clínica (@bitacorabeagle) June 20, 2025
Adolescentes: la población más vulnerable
Si bien todos están expuestos a estos cambios, Robles Abalos es clara al identificar al grupo más susceptible: «La población más vulnerable es siempre la población adolescente«. Estructuralmente, explica, los adolescentes están más atentos a las variaciones sociohistóricas y a los hitos de cada época. «Uno de los hitos más importantes de esta época es la inteligencia artificial, por lo tanto, los adolescentes se encontrarían en una posición más vulnerable«.
En su experiencia clínica, los pacientes sí utilizan ChatGPT y otras IA como medio de consulta, pero generalmente lo hacen en paralelo a un tratamiento terapéutico. «Muchas veces las devoluciones que da una IA sirven como puntapié para trabajar algunas cuestiones en el espacio terapéutico«, señala. La diferencia crucial con las búsquedas en Google radica en que «la IA simula humanidad, simula una enunciación que pareciera ser humana. Y eso es lo más particular y preocupante«.
Entre la demonización y la regulación
Robles Abalos advierte sobre la necesidad de evitar «la extrema cautela a la hora de demonizar la inteligencia artificial«, entendiendo que se trata de fenómenos de época que avanzarán «mal que nos pese«. Sin embargo, insiste en ubicar sus limitaciones, especialmente en salud mental.
«La limitación principal que tiene la inteligencia artificial es que no da lugar a algunas variaciones en la enunciación que es con lo que trabajamos los psicólogos«, explica. «No da lugar al equívoco en lo dicho, no da lugar a la resonancia. La salud mental tratada con inteligencia artificial solo trae respuestas, indicaciones, soluciones. No trae nuevas preguntas«.
Esta diferencia es fundamental para el trabajo psicoanalítico, que apuesta por «sostener algo de la pregunta, sostener algo del vacío sin que se llene de un sentido» prefabricado. Las respuestas automáticas de la IA, por más sofisticadas que parezcan, carecen de esta dimensión interrogante esencial para el proceso terapéutico.
El desafío de la responsabilidad subjetiva
¿Qué hacer cuando la IA se utiliza como reemplazo del tratamiento psicológico? Robles Abalos es realista: «No creo que se pueda evitar que la gente apele a la inteligencia artificial como una manera de tratar las cuestiones concernientes a su salud mental. Me parece que eso es inevitable, va a ocurrir«.
Menciona dos caminos posibles: campañas de concientización, como las que realiza el Colegio de Psicólogos de Tucumán diferenciando prácticas avaladas de otras no reguladas, o que las propias IA dejen de responder a consultas de salud mental, aunque duda que esto suceda.
Respecto a los casos de psicosis inducida o conductas autodestructivas vinculadas al uso de IA, la psicóloga plantea una reflexión más profunda: «La condición asertiva de la IA es característica de la IA, pero no es exclusiva de la IA«. Recuerda que la historia está plagada de discursos asertivos que generaron adhesiones acríticas, y que el desafío está en «tomar alguna distancia» de las palabras que nos llegan, sea cual sea su origen.
«Hay una tendencia de las nuevas generaciones a la literalidad de lo dicho«, observa con preocupación. Y concluye con una pregunta que devuelve la responsabilidad al sujeto: «¿De qué manera estás implicado vos como un sujeto responsable en eso que estás haciendo? Porque no se le puede echar la culpa al otro siempre«.
En un mundo donde las máquinas simulan cada vez mejor la conversación humana, Robles Abalos propone mantener viva la capacidad de preguntarnos, dudar y tomar distancia crítica. Especialmente cuando se trata de la salud mental de los más jóvenes.
ADEMÁS EN NEA HOY:
Avanza la Inteligencia Artificial y los trabajadores están preocupados: ¿Cómo se debe prepararlos?