Suicides : l’intelligence artificielle pourra-t-elle aider à mieux en prévenir le risque ?


En cas de crise suicidaire, il est nécessaire de réagir extrêmement rapidement pour réduire le niveau de souffrance émotionnelle de la personne concernée et éviter son passage à l’acte. Le développement des applications numériques et de l’intelligence artificielle pourrait aider à mieux détecter les signaux avant-coureurs, et à mettre en place rapidement une aide appropriée, au moment opportun.
Le suicide fait partie des enjeux les plus complexes – et les plus déchirants – auxquels doivent faire face les responsables de santé publique. L’une des grandes difficultés de la prévention de tels gestes est de parvenir à détecter le mal-être au moment où il survient et risque de se transformer en passage à l’acte. En effet, les pensées suicidaires et les comportements qui y sont associés sont difficiles à repérer au moyen de questionnaires classiques, en raison de leur fugacité : elles peuvent ne pas se survenir durant les consultations médicales ou psychothérapeutiques.
Alors que les outils numériques sont désormais largement utilisés par bon nombre d’entre nous pour effectuer certains paramètres liés à leur santé (qualité du sommeil, nombre de pas effectués chaque jour, surveillance du temps d’écran…), les chercheurs commencent à envisager de les employer pour mieux appréhender la santé mentale.
L’une de ces approches, appelée « évaluation écologique momentanée (EMA) », consiste à recueillir en temps réel des données sur l’humeur, les pensées, les comportements et l’environnement d’une personne à l’aide d’un smartphone ou d’un objet connecté. Ces informations peuvent être saisies manuellement (EMA active) ou collectées automatiquement par des capteurs (EMA passive).
Les études ont montré que l’EMA peut être utilisée en toute sécurité pour surveiller le risque suicidaire, appellation couvrant un large spectre de situations, qui va des pensées suicidaires jusqu’au passage à l’acte. Des recherches menées chez l’adulte ont notamment révélé que ce type de suivi n’accroît pas ledit risque. Il permet en revanche une lecture plus fine et individualisée du vécu d’une personne, à tout moment. Mais concrètement, comment ces données peuvent-elles aider à prévenir un passage à l’acte ?
Des interventions personnalisées
L’un des usages les plus prometteurs de ces technologies est la mise en place d’interventions adaptatives : des réponses personnalisées, en temps réel, sont transmises directement sur le téléphone ou sur l’appareil de la personne concernée. Par exemple, si les données collectées signalent un état de détresse, l’appareil peut suggérer à l’utilisateur de suivre une étape de son plan de sécurité.
Élaboré au préalable avec un professionnel de santé mentale, à un moment où la personne se sent bien, le plan de sécurité est un outil qui a fait ses preuves en matière de prévention du suicide. (Il s’agit d’une liste d’instructions écrites, récapitulant les stratégies à adopter en cas de crise suicidaire et les contacts à solliciter, destinée à soutenir et à guider la personne afin qu’elle parvienne à franchir le pic d’intensité émotionnelle qui peut mener à sa mise en danger, ndlr.)
L’efficacité d’un tel plan dépend toutefois en grande partie de son accessibilité au moment critique. Grâce à ces interventions numériques, le soutien peut être mis en place immédiatement, dans l’environnement même de la personne.
De nombreuses questions demeurent néanmoins. Quels sont les changements dans les données enregistrées qui doivent déclencher une alerte ? À quel moment faut-il intervenir ? Quelle forme doit prendre cette intervention ?
C’est précisément à ce type de questions que l’intelligence artificielle (IA), et en particulier les technologies d’apprentissage automatique, peut apporter des réponses.
Des résultats encourageants malgré certaines limites
L’apprentissage automatique est déjà utilisé pour modéliser le risque suicidaire, en repérant des signaux faibles dans les émotions, dans les pensées ou dans les comportements d’un individu. Il a également servi à anticiper les taux de suicide à l’échelle de populations entières.
Ces modèles donnent de bons résultats sur les données sur lesquelles ils ont été entraînés. Mais plusieurs limites subsistent. La protection de la vie privée en est une, en particulier lorsqu’il s’agit de données issues des réseaux sociaux ou de données personnelles.
Autre point de vigilance : le manque de diversité des jeux de données utilisés pour l’entraînement des modèles nuit à leur généralisation partout sur la planète. Un modèle développé dans un pays ou un contexte peut difficilement être transposé à un autre.

Malgré cela, les recherches montrent que ces modèles prédictifs surpassent les outils traditionnels utilisés par les cliniciens. C’est pourquoi, au Royaume-Uni, les recommandations cliniques en santé mentale invitent désormais ces derniers à s’éloigner des seuls scores de risque pour plutôt mettre en œuvre une approche plus souple, centrée sur la personne ; autrement dit, fondée sur le dialogue et la co-construction de solutions avec l’individu concerné.
Prédiction, précision et confiance
Au cours de mes recherches, j’ai analysé les travaux de recherche sur le suicide qui avaient évalué l’efficacité de l’usage combiné de l’IA et de l’EMA. La plupart de ces études portaient sur des personnes suivies en hôpital ou en clinique de santé mentale. Dans ces contextes, l’EMA permettait de prévoir l’apparition de pensées suicidaires après la sortie de l’institution.
Si nombre des publications scientifiques que j’ai analysées vantaient la précision de leurs modèles, seules quelques-unes indiquaient les taux d’erreurs obtenus – en particulier les faux positifs (signalement à tort d’un risque) ou les faux négatifs (non-détection d’un risque réel). Pour y remédier, nous avons mis au point un guide de bonnes pratiques. Son suivi devrait permettre d’améliorer la clarté et la rigueur des futures études.
Il est un autre domaine prometteur en matière d’utilisation de l’IA : son emploi comme outil d’aide à la décision pour les professionnels de santé mentale. En analysant de vastes ensembles de données issues de services de soins, les modèles d’IA pourraient orienter les praticiens afin d’anticiper l’évolution d’un patient et de déterminer les traitements qui lui sont les plus adaptés.
La condition sine qua non, cependant, est que les professionnels fassent confiance à ces technologies. Pour cela, ces systèmes ne doivent pas seulement fournir une réponse : il faut également que le raisonnement ayant conduit à celle-ci soit fourni aux soignants (on parle d’« IA explicable »). En accédant à une meilleure compréhension de la façon dont fonctionnent ces outils, les praticiens seront à même de mieux les intégrer dans leur pratique, à l’instar des questionnaires cliniques.
Le suicide est un fléau mondial, mais les avancées en matière d’IA et de suivi en temps réel ouvrent de nouvelles perspectives. Ces outils ne constituent pas une solution miracle, mais ils pourraient apporter une aide plus rapide et plus pertinente que les outils actuels, qui plus est dans des situations où cela n’était pas jusqu’ici envisageable.
Pour en savoir plus
Les pensées suicidaires sont un signale d’alarme qu’il faut prendre très au sérieux.
Si vous (ou l’un de vos proches) êtes concerné•e, appelez le 3114 (numéro national de prévention du suicide, appel gratuit et confidentiel, 24h/24, 7j/7).
En cas de risque suicidaire imminent, appelez le SAMU (15) ou le 112 (numéro européen).
Pour répondre aux questions sur la crise suicidaire, de nombreuses ressources sont disponibles en ligne, notamment :
- sur le site 3114.fr de prévention du suicide ;
- sur la page du site CléPsy, consacrée aux idées suicidaires et aux façon d’aider les enfants qui en sont victimes ;
- sur la page du site Ameli, consacrée à la prévention de la crise suicidaire.

Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com