Resumen
- La IA puede reforzar síntomas psicóticos en pacientes vulnerables.
- La supervisión profesional es clave para un uso seguro.
- Limitar la interacción y promover relaciones humanas ayuda a prevenir riesgos.
- Los protocolos de seguridad de IA no reemplazan la intervención clínica.
- La investigación sobre psicosis inducida por IA aún es incipiente.
Introducción
La inteligencia artificial (IA) se ha convertido en una herramienta clave en la práctica clínica, desde asistentes virtuales hasta plataformas de apoyo psicológico. Sin embargo, el uso inadecuado o no supervisado de estas tecnologías puede tener efectos no deseados en la salud mental. En casos recientes, se aprecia como el uso ha llegado a ser contraproducente si la persona afectada no dispone de herramientas, conocimientos o supervisión que sea adecuada.
La psicosis inducida por IA es un fenómeno emergente derivado del mal uso de las nuevas tecnologías de Inteligencia Artificial y merece atención para poder entender cómo detectarlo y prevenirlo.
¿Qué es la psicosis inducida por IA?
La psicosis es un conjunto de síntomas caracterizados por alteraciones en la percepción de la realidad, incluyendo alucinaciones, delirios y desorganización en el pensamiento. Estas problemáticas pueden aparecer en una amplia gama de cuadros clínicos. En el contexto de la Inteligencia Artificial general y los chatbots, entrenados para agradar al usuario, los mecanismos podrían incluir:
- Feedback reforzador: Respondiendo de manera consistente a delirios o creencias paranoides, se confirman sin discernimiento alimentando pensamientos potencialmente delirantes.
- Exposición intensa: Interacciones prolongadas pueden potenciar obsesiones o distorsiones cognitivas existentes como delirios de grandiosidad y paranoicos.
- Aislamiento social: Reemplazar la interacción humana con IA puede amplificar vulnerabilidades psicológicas.
Los modelos generativos de IA, como ChatGPT o Claude, pueden producir contenido convincente que refuerza creencias delirantes. Aunque sistemas avanzados incluyen protocolos de seguridad para riesgo de suicidio, no siempre detectan ni corrigen del todo ideas delirantes o paranoides. Por esto mismo, es necesario contar con sistemas avanzados y especializados en salud mental, con profesionales reales detrás que puedan identificar y detectar este tipo de problemáticas.
En Aimentia Health, promovemos el uso responsable de la IA, con un enfoque “Mental Health Professional First”, garantizando que los pacientes interactúen con estas herramientas bajo supervisión controlada.
La realidad sobre la psicosis inducida por IA - Casos observados
Aimentia lanza periódicamente encuestas anónimas a su red de profesionales para que compartan sus experiencias. Si quieres formar parte de nuestro panel de expertos puedes entrar en contacto con nosotros y agendaremos una llamada para conocer tu perfil en detalle.
Hemos compilado una serie de casos y experiencias recogidas de encuestar a nuestro panel de expertos. Los indicios mostrados por los casos de nuestros expertos muestran como la IA suele actuar como un refuerzo de síntomas existentes, más que un factor casual independiente.
Caso 1: Reforzamiento de delirios paranoides
Un paciente con antecedentes de psicosis paranoide consultaba repetidamente a un sistema de IA sobre sus creencias delirantes. La IA terminó reforzando sus ideas paranoides, generando un ciclo de confirmación que amplificó la intensidad de sus síntomas.
He visto que un paciente le hacía a la IA preguntas repetidas sobre sus delirios paranoides, y finalmente la IA terminó confirmándole que eran reales.
Este caso evidencia cómo la IA puede actuar como un reforzador de delirios existentes, potenciando la preocupación y la ansiedad del paciente. Por este motivo, es necesario implementar herramientas enfocadas a la prevención de estos reforzamientos.
Caso 2: Episodio de grandiosidad en paciente con bipolaridad
Una paciente con diagnóstico de bipolaridad tipo 1 experimentó un episodio de exaltación de su autoestima mientras interactuaba con un modelo de IA. La interacción alimentaba sus creencias de superioridad intelectual y espiritual llegando a utilizarla durante las sesiones clínicas.
La paciente sacaba el teléfono en sus sesiones y me hablaba a través de la IA, convirtiendo el texto a voz e insistiendo en que todo lo que hacía estaba bien.
La interacción no supervisada con IA puede exacerbar episodios de grandiosidad y desorganización cognitiva en pacientes con trastornos afectivos, propiciando que condiciones leves terminan evolucionando a episodios hipomaníacos y maníacos.
Caso 3: Obsesión con descubrimientos matemáticos
Un paciente con trastorno bipolar y hospitalizado creía estar resolviendo ecuaciones complejas relacionadas con computación cuántica. Para “probar” la validez de sus teorías, mostraba páginas impresas de conversaciones con sistemas de IA, interpretándolas como validación de matemáticos reconocidos. A pesar de la intervención clínica, el paciente continuaba accediendo a IA a través de dispositivos de otros pacientes, manteniendo un ciclo obsesivo de verificación y validación.
El paciente ha impreso y nos ha mostrado páginas y páginas de registros de chat que él afirma que son matemáticos de fama mundial validando sus teorías, pero estos registros eran claramente algún tipo de IA que simplemente sigue proporcionando retroalimentación.
Este caso sugiere que la IA puede reforzar ideas delirantes complejas y mantener ciclos de obsesión, incluso bajo supervisión clínica, cuando su uso de estos agentes de IA no está supervisado.
Caso 4: Relación afectiva con IA
Un paciente hospitalizado desarrolló un vínculo afectivo con un chatbot, al que describía como su pareja. La IA reforzaba su percepción de ser “inteligente” y “correcto” sobre teorías conspirativas relacionadas con la sociedad. Tras la pérdida de chats debido a actualizaciones del sistema, el paciente mostró signos de malestar emocional similares a un duelo.
El paciente utilizaba la voz generada por IA. Estaba obsesionado y se había formado un ciclo de retroalimentación auto-reforzante mediante este vínculo afectivo. Se deprimió considerablemente cuando la conocida página de IA eliminó su chat unos meses después.
La formación de relaciones emocionales con Inteligencia Artificial puede crear un bucle de auto-reforzamiento psicológico, que afecta el estado de ánimo y la percepción de la realidad.
¿Dónde nos encontramos? - Publicaciones actuales
Publicaciones sobre estos casos son cada vez más comunes. Un caso, publicado en Annals of Internal Medicine: Clinical Cases, destaca una forma rara pero reversible de psicosis que podría haber estado influida por la inteligencia artificial generativa.
Un hombre de 60 años llegó a un hospital de Seattle convencido de que su vecino lo estaba envenenando. Aunque al principio se encontraba estable, pronto desarrolló alucinaciones y paranoia. La causa resultó ser la toxicidad por bromuro, desencadenada por un experimento de salud que inició tras consultar con ChatGPT.
El caso destaca una forma rara, pero reversible, de psicosis que podría haber sido influenciada por la inteligencia artificial generativa. Esta creencia se vio reforzada por la información que recibió de ChatGPT. Mientras experimentaba con maneras de mejorar su salud, preguntó al chatbot si se podía sustituir el cloruro. El modelo, según se informa, ofreció bromuro como alternativa, sin señalar ningún riesgo para la salud ni preguntar por qué se estaba considerando la sustitución. Animado por lo que interpretó como un respaldo científico, compró bromuro de sodio en línea y comenzó a consumirlo regularmente.
Por otro lado, un preprint reciente describe tanto los posibles daños como las posibilidades terapéuticas de la IA agencial para personas con trastornos psicóticos.
Si bien algunas personas pueden beneficiarse de las interacciones con IA, por ejemplo, cuando esta funciona como un punto de referencia conversacional benigno y predecible, existe una creciente preocupación de que estos agentes también puedan reforzar la inestabilidad epistémica, difuminar los límites de la realidad y perturbar la autorregulación.
FAQ – Preguntas frecuentes
P: ¿Puede la IA causar psicosis por sí misma?
Los indicios por ahora muestran que la IA por sí sola no provoca psicosis habitualmente, pero puede reforzar síntomas existentes en individuos predispuestos. Este campo se encuentra ampliamente en estudio actualmente y es muy incipiente, así que es necesario investigarlo más en profundidad.
P: ¿Qué pacientes son más vulnerables?
Personas con trastornos psicóticos previos, bipolaridad o vulnerabilidad genética a esquizofrenia.
P: ¿Qué medidas de seguridad existen en productos de IA comercial?
ChatGPT y Claude incluyen protocolos de alerta ante riesgo de suicidio, pero no corrigen todos los defectos que pueden encontrarse. Lo ideal es utilizar un sistema que ponga siempre por delante el criterio de supervisión profesional como Aimentia Health.
P: Soy un paciente, ¿Qué puedo hacer para prevenir estos casos?
- Limitar tiempo de interacción con chatbots o IA generativa.
- Recibir supervisión profesional sobre mis interacciones.
- Promover actividades sociales y relaciones humanas.
- Verificar información obtenida mediante IA con fuentes confiables.
- Consultar a profesionales de salud mental ante signos de obsesión o delirios.