ChatGPT est-il un bon confident quand on pense au suicide?

Quand on pense au suicide, ou même quand on est inquiet pour un proche ou que l’on vit un deuil par suicide, il peut être tentant de se tourner vers des robots conversationnels (ou chatbots) non spécialisés en intervention psychosociale ou en santé mentale, comme ChatGPT, pour parler de ses émotions, de sa souffrance, ou pour chercher des conseils.
En effet, ces robots conversationnels sont toujours disponibles pour converser, sans aucune limite de temps, à toute heure du jour ou de la nuit. Ils sont, pour la plupart, très faciles d’accès et échangent dans un langage si naturel qu’on peut avoir l’impression d’être en train de discuter avec une vraie personne. Toutefois, voici pourquoi il est souvent préférable de se tourner vers des ressources professionnelles comme suicide.ca plutôt que vers des robots non conçus pour intervenir, comme ChatGPT, quand on a des idées suicidaires, quand on est inquiet pour un proche ou quand on vit un deuil par suicide.
Les robots ne comprennent pas les émotions
Les robots conversationnels, comme ChatGPT, sont généralement programmés de manière à ressembler à l’humain et, la plupart du temps, à reproduire des caractéristiques telles que l’empathie ou la bienveillance. Quand on vit de la souffrance ou de l’inquiétude, ces qualités peuvent être réconfortantes, et on peut avoir tendance à attribuer une personnalité ou un esprit humain à ces robots. On peut aussi avoir la sensation de créer un lien de confiance avec eux, comme on le ferait avec un·e ami·e ou un·e intervenant·e professionnel·le. Pourtant, les chatbots n’ont pas de conscience ni de personnalité. Comme toute machine, ils ne comprennent pas ce qu’ils écrivent, ni qu’ils sont en train d’échanger avec quelqu’un. Ils ne sont pas capables d’apprécier réellement les forces et les qualités des personnes avec qui ils échangent. Ainsi, même si ces robots conversationnels donnent l’impression d’être empathiques ou de comprendre les émotions, ce n’est pas le cas.
De plus, les chatbots qui ne sont pas prévus pour intervenir en santé mentale ou en prévention du suicide, comme ChatGPT, peuvent écrire des choses blessantes, fausses ou dangereuses, sans ressentir de culpabilité ni en assumer les conséquences, ce qui peut les rendre problématiques pour les personnes vulnérables. En effet, rien ne garantit que l’information partagée par ces robots soit valide et appuyée sur les meilleures pratiques en prévention du suicide. Les ressources d’intervention spécialisées, comme suicide.ca, travaillent quant à elles avec des intervenant·e·s formé·e·s à accueillir la souffrance, proposent des services sécuritaires, validés et adaptés à la réalité du Québec, et disposent de cadres qui peuvent les rendre imputables en cas de problèmes.
Les robots ne sont pas toujours formés pour assurer la sécurité
Sur le service d’intervention par clavardage et texto de suicide.ca, par exemple, les intervenant·e·s sont formé·e·s en prévention du suicide et en intervention par le numérique. Ils détiennent une expertise spécifique au contexte du Québec. En plus de prendre le temps de créer un lien de confiance avec chaque utilisateur, ils estiment la dangerosité du passage à l’acte suicidaire et proposent, au besoin, des mesures appropriées pour mettre la personne qui pense au suicide en sécurité et ce, en fonction de sa situation personnelle. Les intervenant·e·s ont à cœur la sécurité de chaque personne qui les contacte.
Au contraire, les robots conversationnels qui ne sont pas conçus pour intervenir, comme ChatGPT, ne sont pas formés pour appliquer les mesures de sécurité requises en fonction du niveau de danger, ni pour aider la personne à les appliquer. Ils ne sont pas nécessairement familiers avec les ressources qui existent sur le territoire de la personne avec qui ils discutent, et peuvent même indiquer des ressources qui n’existent pas, des faux numéros de téléphone, ou orienter les gens vers des services non adaptés à leur situation.
Des chatbots déconseillés pour les mineurs
ChatGPT n’est pas un service conçu pour les mineurs de 13 ans et moins et pourrait donc être particulièrement inapproprié pour les mineurs qui ont des idées suicidaires, qui s’inquiètent pour un proche ou qui vivent un deuil par suicide.
Au contraire, sur le service d’intervention par clavardage et texto de suicide.ca, les intervenant·e·s utilisent des outils adaptés à la tranche d’âge de chaque utilisateur et sont formé·e·s pour intervenir auprès des mineurs. Ils connaissent les règles à appliquer et les manières de mobiliser ou non les titulaires de l’autorité parentale selon la situation de la personne de 13 ans et moins, de façon à ne pas lui porter préjudice.
Des enjeux entourant la protection des renseignements personnels
Quand on discute avec un·e intervenant·e de suicide.ca, on peut être amené à lui confier des informations intimes, des données très sensibles et personnelles. Tous ces renseignements sont stockés au Canada, sous la responsabilité de l’Association québécoise de prévention du suicide (AQPS), qui pilote suicide.ca avec le soutien du ministère de la Santé et des Services Sociaux du Québec. L’AQPS s’efforce de maintenir les plus hauts standards de qualité, de sécurité, de transparence et d’imputabilité en matière de protection des renseignements personnels, afin de permettre à chaque personne de discuter de son vécu dans le respect de sa vie privée.
Au contraire, les informations personnelles partagées avec ChatGPT sont stockées sur des serveurs aux États-Unis, qui ne sont pas nécessairement soumis aux mêmes exigences que celles prévues par les lois en matière de protection des renseignements personnels du Canada et du Québec. Il existe aussi des incertitudes et des inquiétudes sur la manière dont ChatGPT et d’autres robots conversationnels non spécialisés en intervention conservent et utilisent les renseignements personnels partagés par leurs utilisateurs.
Pour obtenir de l’aide sécuritaire
Si vous vivez de la détresse ou que vous avez des idées suicidaires, que vous êtes inquiet pour un proche ou que vous vivez un deuil par suicide, il vaut mieux se tourner vers des intervenant·e·s professionnel·le·s pour obtenir de l’aide. Pour ce faire, vous pouvez utiliser le service d’intervention par clavardage ou texto de suicide.ca ou appeler la Ligne québécoise de prévention du suicide au 1 866 APPELLE (1 866 277-3553). Ces services sont disponibles 24 heures sur 24, 7 jours sur 7, partout au Québec.
- Pour clavarder : cliquez ici
- Pour texter : 535353
- Pour appeler : 1 866 APPELLE (1 866 277-3553)
Il existe également d’autres ressources d’aide. Consultez la page « Obtenir des services d’aide » pour connaître les services adaptés à votre situation.
Pour en savoir plus sur le cadre d’intervention de suicide.ca
La page « Le déroulement d’une intervention » fournit davantage d’informations sur la manière dont se déroule une intervention par clavardage et texto ainsi que sur les conditions d’utilisation et de confidentialité de suicide.ca.
Pour d’autres informations ou outils
Pour de l’information ou des conseils, les sections suivantes pourraient également vous aider :