Tu paciente llega con un informe detallado de ChatGPT sobre lo que ha estado experimentando. Ya ha formado sus propias conclusiones, ha investigado opciones y tiene solicitudes específicas. O peor: ha estado gestionando una preocupación de salud completamente a través de IA y solo te consulta porque la IA finalmente le sugirió que debería hacerlo. Esta es una nueva realidad en la atención sanitaria.
El paciente informado por IA
Los pacientes que consultan a la IA antes de las citas llegan con conocimiento y desinformación a la vez. Pueden tener información general precisa pero carecer del contexto profesional para interpretarla adecuadamente. Pueden haber desarrollado ansiedad por la salud a partir de la lista exhaustiva de posibilidades de la IA. O pueden haberse sentido tranquilizados por la IA cuando deberían haber buscado atención antes.
La IA como barrera para la atención
Algunos pacientes usan la IA como sustituto de la consulta médica, retrasando la atención necesaria porque "ChatGPT dijo que probablemente no era nada." Otros oscilan entre la tranquilización de la IA y la ansiedad en un patrón que se asemeja a la cibercondría: ansiedad por la salud amplificada por el acceso a la información. Ambos patrones representan una dependencia de la IA que afecta directamente los resultados de salud.
Enfoques conversacionales
Algunos profesionales encuentran útil dialogar con la investigación de IA de sus pacientes en lugar de descartarla. Reconocer su esfuerzo mientras se ofrece contexto profesional puede ser un punto de partida constructivo. Para los pacientes que muestran comportamientos asociados con ansiedad de salud impulsada por IA, algunos profesionales exploran conversaciones suaves sobre las limitaciones de la IA en contextos médicos para ayudar a recalibrar la relación de la persona con estas herramientas.
Conozca más sobre los patrones de dependencia de la IA. Nuestras herramientas de autorreflexión pueden apoyar conversaciones de sensibilización.