Votre patient arrive avec un rapport détaillé de ChatGPT sur ce qu'il ressent. Il a déjà tiré ses propres conclusions, recherché des options, et à des demandes précises. Ou pire : il gère un problème de santé entièrement via l'IA et ne vous consulte que parce que l'IA lui a finalement suggéré de le faire. C'est une nouvelle réalité dans le secteur de la santé.

Le patient informé par l'IA

Les patients qui consultent l'IA avant leur rendez-vous arrivent avec à la fois des connaissances et de la désinformation. Ils peuvent disposer d'informations générales exactes mais manquer du contexte professionnel pour les interpréter correctement. Ils peuvent avoir développé une anxiété de santé à partir de la liste exhaustive de possibilités fournie par l'IA. Ou ils peuvent avoir été rassurés par l'IA alors qu'ils auraient dû consulter plus tôt.

L'IA comme obstacle aux soins

Certains patients utilisent l'IA comme substitut à la consultation médicale, retardant les soins nécessaires parce que « ChatGPT a dit que ce n'était probablement rien ». D'autres oscillent entre la réassurance de l'IA et l'anxiété selon un schéma qui s'apparente à la cybercondrie — une anxiété de santé amplifiée par l'accès à l'information. Ces deux schémas représentent une addiction à l'IA qui affecte directement les résultats de santé.

Approches conversationnelles

Certains praticiens trouvent utile de dialoguer avec les recherches IA de leurs patients plutôt que de les rejeter. Reconnaître leur démarche tout en apportant un contexte professionnel peut constituer un point de départ constructif. Pour les patients présentant des comportements associés à l'anxiété de santé alimentée par l'IA, certains praticiens explorent des conversations bienveillantes sur les limites de l'IA dans le contexte médical afin d'aider à recalibrer la relation de la personne avec ces outils.

Apprenez-en davantage sur les schémas de addiction à l'IA. Nos outils d'autoréflexion peuvent accompagner les conversations de sensibilisation.