Cada vez es más común que las personas recurran a herramientas como ChatGPT en busca de orientación emocional, consejos o incluso apoyo psicológico, utilizándolo como un reemplazo a la terapia. La inteligencia artificial ha llegado a nuestra vida cotidiana para transformarla y ofrecernos soluciones en distinto ámbitos. Sin embargo, su uso plantea ciertos riesgos, especialmente cuando se trata de salud mental.
La crisis actual de salud mental, la falta de profesionales en el sistema público y el coste de la terapia privada son algunos de los factores que llevan cada vez a más personas a utilizar la IA como recurso. Es cierto que una persona que se encuentra incomprendida y al borde de la desesperación, el poder desahogarse con alguien a cualquier hora o en cualquier lugar, aunque sea una máquina, resulta un gran aliciente. Sin embargo, hay que distinguir lo que vienen siendo problemas cotidianos de trastornos graves. Para esto último, la IA utilizada como terapia profesional puede resultar contraproducente y estos son los motivos:
Aporta consejos generalizados, con posibles errores y falta de un diagnóstico clínico
Aunque ChatGPT puede ofrecer respuestas empáticas, sus consejos suelen ser generales y poco adaptados a la persona que consulta. Los algoritmos que usa aprenden de información ya existente, por lo que si esos datos tienen prejuicios o ideas equivocadas sobre temas como la cultura, el género o la sociedad, la IA puede alegar esos mismos prejuicios y repetirlos en sus respuestas.
Tampoco conoce tu historia, tu entorno, tu personalidad, tu cultura y tus creencias. Datos muy importantes para poder llegar a un diagnóstico clínico. Por el contrario, un profesional de la salud jamás te dará una respuesta general, sino adaptada a tus necesidades y con una terapia personalizada.
Falta un vínculo real y no detecta señales de alarma
La conexión en la que el terapeuta genera confianza al paciente es algo que ChatGPT no puede conseguir. El profesional se pone en el lugar del otro y entiende lo que siente, escucha con atención su lenguaje no verbal y le acompaña en su proceso hasta conseguir aspectos inconscientes que desencadenan su trauma. La IA no deja de ser una máquina incapaz de interpretar las emociones, los silencios, los temblores o las lágrimas. Se basa únicamente en un dialogo que sigue un patrón.
Además, si alguien está pasando por un momento demasiado difícil y tiene pensamientos destructivos o incluso intenciones de hacerse daño, un profesional de la salud mental sabe reconocer esas señales con antelación y puede actuar en consecuencia. ChatGPT, en cambio, se trata de un robot sin conciencia ni capacidad real para interpretar la gravedad de lo que siente.
Puede generar dependencia y evitar la terapia profesional
Si alguien depende de la IA para sentirse mejor rápidamente, puede terminar evitando enfrentar sus problemas reales, sus emociones o situaciones difíciles. El riesgo de usar la herramienta como un escape, puede conseguir que las personas dejen de autorregularse, mengüen su capacidad de resolución de problemas por sí mismas y pierdan su independencia a la hora de tomar sus propias decisiones. Además, esta dependencia cómoda y de forma fácil puede llevar a retrasar o evitar la terapia con un profesional.
Aunque muchos ven en ChatGPT una alternativa accesible, especialmente en comparación con el costo de la terapia, no podemos olvidar que ChatGPT ha sido entrenado con millones de datos para comprender y responder al lenguaje humano. Los psicólogos, en cambio, se preparan durante años para tratar el sufrimiento emocional, cognitivo y conductual. Por lo tanto, no podemos sustituir una alternativa por otra cuando la salud mental está en juego.