La inteligencia artificial ha llegado a la consulta de salud mental y está modificando cómo los pacientes se informan, interpretan síntomas y se relacionan con el profesional. El debate es ya clínico para delimitar riesgos y proteger a las personas vulnerables. Del mismo modo que un fármaco eficaz puede ser letal en dosis inadecuadas, una herramienta de IA puede serlo y causar daño sin un uso y supervisión adecuados en personas vulnerables.
Estas declaraciones se han realizado en la rueda de prensa de presentación del XXXIV Curso Nacional de Actualización en Psiquiatría por el Dr. Pedro Moreno, psiquiatra, miembro de la Sociedad Española de Psiquiatría Clínica; especialista en tecnología e innovación científica digital en Psiquiatría; y editor y director de Psiquiatría.com.
En la rueda de prensa también han estado presentes: el Dr. Edorta Elizagarate, psiquiatra, jefe de Servicio de Psiquiatría de la Red de Salud Mental de Álava; presidente de la Sociedad Española de Psiquiatría Clínica; y director del Curso Nacional de Actualización en Psiquiatría; y la Dra. Abigail Huertas, psiquiatra infantil y de la adolescencia y psicoterapeuta, miembro de la Junta Directiva de la Asociación Española de Psiquiatría del Niño y del Adolescente (AEPNyA).
IMPACTO CLÍNICO DE LA IA EN LA CONSULTA
En primer lugar, el Dr. Moreno ha advertido de que “cada vez más pacientes llegan a consulta habiendo consultado previamente a una inteligencia artificial”, presentando “autodiagnósticos muy estructurados, interpretaciones alarmistas o tranquilidad infundada”.
De esta forma, el especialista identifica “hiperinformación sin jerarquía clínica, falsa sensación de comprensión emocional y desplazamiento parcial del vínculo terapéutico”. “Esto no rompe la relación clínica, pero la transforma. El psiquiatra ya no solo diagnostica y trata: también contextualiza, corrige y reordena la información digital que traen loa pacientes, incorporando una suerte de alfabetización tecnológica”.
En este contexto, ha advertido sobre “violaciones de la privacidad, falta de empatía genuina y riesgo de errores diagnósticos”, y ha reclamado “un marco ético-legal que anticipe y mitigue los riesgos”. “El problema no es que la IA responda; el problema radica en cómo interpreta el paciente esa respuesta. En ansiedad grave, depresión mayor, ideación suicida pueden aparecer confirmación de distorsiones cognitivas, sobreidentificación con un diagnóstico sin evaluación clínica real, falsa seguridad y aislamiento reforzado”, ha destacado.
En esta línea, el especialista en tecnología e innovación científica digital en Psiquiatría ha afirmado que la IA “no evalúa el riesgo vital real. No percibe lenguaje no verbal ni ambivalencia suicida, no activa redes de apoyo ni accede al matiz de la voz temblorosa o de la mirada esquiva”. “Existen modelos copiloto con biomarcadores, que es prometedor bajo supervisión profesional, pero sin ella los riesgos se multiplican, porque en salud mental los matices pueden salvar vidas”, ha enfatizado.
LA IA NO TIENE INTENCIÓN NI CONCIENCIA
Sobre casos autolesión o suicidio vinculados a IA, el Dr. Moreno ha sostenido que “nos obligan a una reflexión honesta: aunque la IA no tiene intención ni conciencia, puede convertirse en un amplificador de vulnerabilidad cuando confluyen validación de ideas autolesivas por un sistema diseñado para ser complaciente, ausencia de supervisión y dependencia emocional”. “La tecnología no es neutra en personas vulnerables”, ha afirmado.
Durante su intevención, el director de Psiquiatria.com ha citado Mindstrong (aplicación de entrenamiento mental y psicología del rendimiento diseñada para atletas), que sustituyó la atención psiquiátrica presencial por programas automatizados de coaching para optimizar costes y cerró abruptamente dejando a miles de pacientes sin continuidad asistencial.
Por ello, el especialista ha hecho hincapié en que, “como señaló Roy Perlis, profesor de psiquiatría en Harvard, se evidencia los peligros de priorizar la eficiencia económica sobre la calidad clínica” y ha defendido “protocolos de seguridad robustos, derivación activa a recursos reales y límites explícitos en contextos de riesgo”.
“La IA se percibe como cercana porque simula conversación humana, usa lenguaje empático, ofrece disponibilidad 24/7 y ausencia de juicio. Puede activar mecanismos de apego, pero es un apego radicalmente asimétrico. La IA no siente ni se responsabiliza; y puede imitar la empatía, pero no ejercerla. La relación clínica entre un psiquiatría y un paciente es bidireccional, mientras que la interacción con una IA no lo es”, ha alertado el especialista.
AUTODIAGNÓSTICO PSIQUIÁTRICO
Por todo ello, el Dr. Moreno ha evidenciado que “un uso no supervisado puede generar daño real en autodiagnóstico psiquiátrico, un ajuste o abandono de medicación, ideación suicida, trastornos de la conducta alimentaria y psicosis”.
En este contexto, el especialista ha puesto el foco en “adolescentes que usan la IA sin supervisión adulta, en personas vulnerables a tener ansiedad por si lo que nos dice la IA es verdad, en la adicción a la validación de chatbots como ChatGPT o en el debilitamiento de la identidad por fusión con la IA”. “La IA no puede sustituir una valoración clínica presencial ni la exploración psicopatológica completa. Puede ser complemento, nunca sustituto”, ha defendido.
Además, el Dr. Moreno ha recordado que la IA puede ser “herramienta educativa, apoyo psicoeducativo entre consulta y un recurso para autocuidado emocional en síntomas leve, pero no sustituye la evaluación clínica rigurosa, el vínculo terapéutico, la responsabilidad profesional ni la toma de decisiones compartida”. En conclusión, ha abogado por “una Medicina 5P: predictiva, preventiva, personalizada, participativa y centrada en la persona en la que IA debe funcionar como un microscopio, no como un juez”.
LÍMITES DEL “CEREBRO AUMENTADO”
Por su parte, el Dr. Edorta Elizagarate ha reflexionado sobre los límites éticos, clínicos y sociales del “cerebro aumentado con la IA”, señalando que el desafío “no es solo tecnológico, sino profundamente humano”. Partiendo de Ortega y Gasset, el psiquiatra ha destacado que “la técnica no es algo accesorio, sino constitutivo del ser humano y que ya no solo transforma el entorno, sino al propio ser humano”.
En este contexto, la presidenta de la Sociedad Española de Psiquiatría Clínica ha distinguido entre “transhumanismo y posthumanismo”, este último, según ha detallado, “orientado a “maximizar el mejoramiento y a aspirar a la singularidad tecnológica”. Sobre la IA el Dr. Elizagarate ha reconocido “hitos” como AlphaGo, pero ha precisado que “no existe evidencia de inteligencia general comparable a la humana ni conciencia artificial”. “La cuestión no es solo si la IA será más inteligente, sino si será consciente”, ha defendido.
En su exposición, el especialista ha destacado “avances en interfaces cerebro-máquina”. De esta forma, ha puesto como ejemplo que en 2023 Stanford permitió que un paciente con ELA se comunicará mediante electrodos y que en 2024 Neuralink anunciara nuevos implantes, con aplicaciones en parálisis, Parkinson, TOC o trastornos del habla. Sin embargo, ha recordado que “el cerebro no tiene un puerto USB”.
“En Medicina”, ha recordado el director del Curso Nacional de Actualización en Psiquiatría que “el salto de la IA se produjo entre 2012 y 2015 con el aprendizaje profundo”. “Hoy introduce una tercera voz en la relación médico-paciente. Sin embargo, introducimos IA para reducir la incertidumbre, pero genera nuevas incertidumbres, y ningún algoritmo supera la compasión humana”, ha hecho hincapié.
En esta línea, ha advertido: “el mayor riesgo es social por el acceso desigual al mejoramiento y la concentración de poder” y ha puesto de relieve que “el ancho de banda puede convertirse en un nuevo determinante de salud”. “La tecnología puede mejorar funciones, pero no puede determinar qué significa vivir mejor ni lograr vivir más o ser más inteligente”, ha aseverado.
OPORTUNIDAD RELEVANTE PARA LA PSIQUIATRÍA
Por último, la Dra. Abigail Huertas ha afirmado que “la inteligencia artificial supone una oportunidad relevante para la Psiquiatría, tanto para los profesionales como para los pacientes en casos seleccionados”. “En la práctica clínica puede contribuir a mejorar la precisión diagnóstica, detectar de forma más precoz situaciones de riesgo y avanzar hacia intervenciones más personalizadas y basadas en datos”, ha defendido.
“En el ámbito de la Psiquiatría infantojuvenil, además, puede ayudar a identificar señales tempranas de vulnerabilidad y a optimizar el seguimiento evolutivo en etapas clave del desarrollo pero no puede sustituir a la intervención clínica”, ha precisado.
En esta línea, durante su exposición ha afirmado que “su papel debe entenderse siempre como complementario al del profesional”. “La IA no sustituye el juicio clínico ni la relación terapéutica, que continúan siendo el eje central de la atención en salud mental, pero puede aportar un valor añadido importante en términos de prevención, eficiencia y calidad asistencial”, ha concluido la psiquiatra de la Junta Directiva de Asociación Española de Psiquiatría del Niño y del Adolescente (AEPNyA).