Invité : Dr Jon R. Cohen, chef de la direction, Talkspace
Animation : Charles Rhyee, directeur général, Soins de santé – Analyste de recherche en technologies de soins de santé, TD Cowen
L’IA perturbe de nombreux secteurs, et l’un de ses cas d’utilisation les plus surprenants est celui lié à la santé mentale et à la thérapie. Toutefois, une question clé se pose : est-il sécuritaire d’utiliser des modèles commerciaux d’IA à cette fin? Dans cet épisode, le Dr Jon R. Cohen, chef de la direction de Talkspace, se joint à nous pour discuter des raisons pour lesquelles les gens se tournent vers l’IA pour la thérapie, des dangers potentiels de l’IA générative dans ce domaine et de la façon dont Talkspace est bien placée pour résoudre ces problèmes.
Ce balado a été enregistré le 2 mars 2026.
Voix hors champ 1 :
Bienvenue à Insights de TD Cowen. Un balado qui réunit des spécialistes qui offrent leur éclairage et leurs réflexions sur ce qui façonne notre monde. Soyez des nôtres pour cette conversation avec les esprits les plus influents de nos secteurs mondiaux.
Charles Rhyee :
Bonjour, ici Charles Rhyee, analyste en distribution et technologies de soins de santé chez TD Cowen. Bienvenue à notre série de balados La santé au futur. On est aujourd’hui à la 46e conférence annuelle sur les soins de santé de TD Cowen à Boston. L’épisode d’aujourd’hui proposé par TD Cowen fait partie de notre série régulière de balados qui rassemblent leaders d’opinion, innovateurs et investisseurs pour explorer comment la convergence entre soins de santé, technologies, consommation et politiques change notre perception de la santé, des soins et du système de santé.
Dans cet épisode, on va discuter du rôle de l’IA et de santé mentale. Pour en parler, je suis en compagnie du Dr Jon Cohen, chef de la direction de Talkspace, un fournisseur de soins de santé comportementale à distance de premier plan qui s’engage à aider les gens à vivre en meilleure santé et plus heureux grâce à l’accès à des soins de santé mentale de grande qualité. Jon, merci d’être avec nous.
Dr Jon R. Cohen :
Merci Charles. C’est un honneur et un privilège d’être ici.
Charles Rhyee :
Merci. On va bien sûr parler d’IA, et je pense que la raison pour laquelle on aborde ce sujet aujourd’hui, c’est que les robots conversationnels alimentés par l’IA sont de plus en plus utilisés pour remplacer les thérapeutes, dans un contexte où la demande de services de santé mentale ne cesse d’augmenter. Ma première question est la suivante : selon vous, pourquoi de plus en plus de personnes se tournent-elles vers l’IA à des fins thérapeutiques?
Dr Jon R. Cohen :
Je tiens à ce qu’on fasse la distinction entre les personnes qui se tournent vers les agents de clavardage alimentés par l’IA, ou robots conversationnels, et les personnes qui cherchent à entrer en thérapie. Pour moi, ce sont deux populations très différentes qui se chevauchent. Ce que je veux dire par là, c’est qu’il y a 800 millions de personnes qui utilisent ChatGPT, Gemini ou Claude. Aujourd’hui, 40 % d’entre elles s’en servent pour accéder aux soins de santé, et une sous-population les utilise à des fins de santé mentale.
Ce que j’entends par là, c’est que les gens s’en servent pour avoir des conversations. Ils disent : « Écoute, je suis mécontent aujourd’hui. Mon enfant a fait une bêtise. J’ai des problèmes avec mon conjoint. » Quel que soit le sujet, ça commence par une conversation. Ce n’est pas comme si les gens se tournaient vers les agents de clavardage pour leur dire : « Je veux suivre une thérapie. »
Le point positif, c’est que je pense que ces services ont permis de démocratiser la santé mentale, ce qui signifie que des millions de personnes ont désormais accès à une aide en libre-service ou à un agent à qui parler. Malheureusement, on a parfois pu observer des dérives.
La réponse à votre question, à savoir pourquoi les gens se tournent vers l’IA, c’est que cette technologie est vraiment très accessible. C’est facile d’engager une conversation, puis de voir si ça débouche ou non sur une thérapie.
Charles Rhyee :
De toute évidence, lorsqu’on regarde les statistiques en ligne… Je crois qu’elles indiquent qu’environ 20 % des personnes ont franchi le pas, et c’est d’ailleurs grâce à l’IA qu’on a pu obtenir ces statistiques. Mais, comme on en a parlé il y a quelque temps, je me demande quels sont les risques si les gens, au lieu de simplement discuter, faisaient réellement appel à l’IA à la place d’un thérapeute? Quels sont les dangers de l’IA à cet égard?
Dr Jon R. Cohen :
Je ne pense pas que quiconque, y compris les dirigeants des principaux GML, ait anticipé que les gens les utiliseraient pour obtenir un soutien en matière de santé mentale. C’est assez surprenant je dois dire. Et je pense que la plupart de ces dirigeants s’accorderaient à dire, ou l’ont d’ailleurs déjà déclaré publiquement, que ces GML n’ont jamais été créés pour ça.
L’un des dangers provient du fait que les GML n’ont pas été entraînés à partir de données relatives à la santé mentale. Talkspace possède l’une des plus importantes bases de données sur la santé mentale au pays, comme vous le savez, et les GML qu’on entraîne sont spécialisés dans ce domaine. C’est ce qu’on appelle le peaufinage. Tout d’abord, vous avez affaire à un agent, contrairement aux autres, qui n’ont pas été formés pour ça. Certes, ils finiront par apprendre, et certains d’entre eux auront accès à des données cliniques qui leur permettront de se former, mais pour l’instant, ce n’est pas le cas. La première chose, c’est donc qu’ils n’ont pas été entraînés.
En ce qui concerne les dangers, ce qu’il se passe, c’est qu’on est confrontés à ce qu’on appelle la validation instantanée… Ces GML sont très empathiques et très optimistes. Ils s’assurent de votre adhésion en vous disant que vous avez raison sur pratiquement tout. J’aime bien faire référence à cette formule : « Miroir, miroir, dis-moi qui est la plus belle? » Et l’agent répondra toujours que c’est vous. C’est le problème avec beaucoup d’agents de clavardage : ils vont dans votre sens sans vous contredire. Et petit à petit, vous finissez par croire aveuglément tout ce qu’ils vous disent.
Il y a deux choses. Vous finissez par souffrir de ce qu’on appelle une « désadaptation sociale », ce qui signifie que vous n’êtes plus capable de vous intégrer dans le monde, dans la vie réelle, ni d’interagir avec les gens et vos amis comme il se doit, etc. C’est un danger.
Il existe un troisième aspect dangereux : certains agents de clavardage provoquent des préjudices importants. Vous avez peut-être entendu dire qu’il y a actuellement de nombreuses poursuites pour homicide involontaire concernant des adolescents qui se sont suicidés après y avoir été encouragés par un agent IA. Certaines personnes ont dû être hospitalisées après avoir été victimes d’hallucinations de l’IA extrêmement graves. Il y a des milliers de cas comme ça.
D’après certaines données récentes, entre 560 000 et 600 000 personnes qui s’adressent aux agents de clavardage souffrent d’une psychose aiguë qui n’est pas traitée. Les agents de clavardage auraient discuté ou conversé avec des personnes au sujet du suicide. On parle d’environ un million de personnes par semaine, pour vous donner une idée de l’ampleur et de l’importance du phénomène. Le danger est énorme. Les agents de clavardage ne réagissent pas de la bonne façon face à des situations de crise graves, contrairement aux thérapeutes.
Quelques autres dangers : Ils ne font l’objet d’aucune supervision clinique. L’un des principaux problèmes, c’est qu’ils ne sont pas conformes à la loi HIPAA. Vos renseignements sur un agent sont donc accessibles sur Internet, où n’importe qui peut les trouver et les consulter.
Charles Rhyee :
Vous avez dit un peu plus tôt que les GML disponibles sur le marché n’étaient pas entraînés à partir de données sur la santé mentale. Pourriez-vous nous parler un peu de l’ensemble de données de Talkspace et nous expliquer pourquoi votre entreprise semble être particulièrement bien placée pour résoudre ces problèmes?
Dr Jon R. Cohen :
Il y a environ un an, TalkSpace a pris la décision d’élaborer le premier modèle sécurisé. Ça implique plusieurs choses. Premièrement, il a été entraîné à partir de notre immense base de données. Il est peaufiné et entraîné. C’est donc un GML spécialisé en santé mentale qui vient s’ajouter aux autres GML.
Deuxièmement, on dispose d’algorithmes exclusifs, dont on a déjà fait état en 2018 et 2019, qui surveillent les conversations et détectent les risques de suicide, les risques de violence meurtrière, les cas potentiels de maltraitance au sein du foyer, la consommation de substances, ainsi que six autres troubles cliniques, dont les TOC, la psychose, etc. Ces algorithmes fonctionnent en arrière-plan dans toutes nos conversations. Si un risque est repéré, il est surveillé par des cliniciens et des thérapeutes formés. Au besoin, on peut même faire intervenir un thérapeute en direct pour prendre le relais.
Enfin, on a conçu ce modèle de sorte qu’il soit conforme à la loi HIPAA. On parle donc d’un modèle formé à la santé mentale, conforme à la loi HIPAA, capable d’assurer une supervision clinique, de détecter les risques et d’orienter les utilisateurs vers une véritable thérapie. C’est pourquoi, à notre avis, notre modèle est actuellement le seul modèle sûr disponible sur le marché, du moins d’après ce qu’on peut voir, car on est maintenant en phase de test bêta.
Charles Rhyee :
Ces algorithmes sont-ils disponibles sur la plateforme actuelle, où les thérapeutes interagissent avec les patients, de sorte qu’ils puissent eux aussi tirer parti de ces outils?
Dr Jon R. Cohen :
Oui, ils ont été conçus pour ça. Aujourd’hui, on les utilise pour notre modèle d’IA, notre GML alimenté par l’IA, mais tous les algorithmes exclusifs relatifs aux risques ont été développés pour la thérapie, et sont utilisés depuis 2019, du moins celui axé sur le suicide, dans le cadre de la thérapie existante. Concrètement, le thérapeute reçoit une alerte. J’entends par là que le thérapeute, au cours d’une conversation, se rendra compte que le patient présente un risque d’automutilation, et qu’il décidera alors de ce qu’il convient de faire. On ne leur dit pas quoi faire. On leur donne une alerte qui leur indique que le patient présente un risque.
Charles Rhyee :
Quelle est la bonne utilisation de l’IA dans la prestation des soins? J’imagine qu’il pourrait s’agir de soutien aux thérapeutes, ou encore de nombreuses tâches administratives, mais comment envisagez-vous, à terme, l’intégration de ce système dans votre prestation de soins?
Dr Jon R. Cohen :
Tout d’abord, comme je l’ai dit, je pense que ça va attirer beaucoup plus de personnes qui souhaitent avoir des conversations sérieuses et qui pourraient, à terme, avoir besoin d’une thérapie. À mon avis, c’est une excellente occasion de prodiguer davantage de soins à un plus grand nombre de personnes en matière de thérapie.
Je pense que viendra un moment où il sera possible de recourir à l’agent entre les séances de thérapie. Ainsi, après une séance avec un thérapeute, vous pouvez, entre-temps, utiliser le modèle de GML pour vous aider dans vos exercices, afin de poursuivre un dialogue jusqu’à votre prochaine séance. Je pense donc qu’on s’en servira entre deux séances, mais pas tout de suite. En fin de compte, c’est assez compliqué, car il faut régler les détails de la relation entre le GML et le thérapeute humain. Ce n’est pas quelque chose qu’on peut simplement activer entre les séances. Ça correspondra probablement, selon moi, à une version 2 du modèle, dans laquelle on pourra l’utiliser entre les séances.
Charles Rhyee :
Lorsque vous évoquez les risques que vous êtes en mesure de repérer, on imagine bien sûr que ceux-ci sont d’autant plus importants lorsqu’il s’agit d’adolescents, d’enfants et de jeunes adultes. Je sais que vous travaillez beaucoup avec les établissements scolaires, notamment à New York et à Baltimore, et plus récemment à Seattle en Caroline du Nord. Parlez-nous un peu du travail que vous faites avec ces établissements, des résultats que vous avez obtenus et des interventions que vous avez pu faire jusqu’à présent.
Dr Jon R. Cohen :
Le GML n’est pas accessible aux moins de 18 ans. Notre modèle, l’agent d’IA, n’est donc pas mis à la disposition des adolescents. On estime qu’ils manquent de maturité pour ça. Ils sont beaucoup plus enclins à discuter avec un agent IA, et c’est ce qui nous préoccupe. À mon avis, cette option est envisageable à plus long terme, mais pour l’instant, les moins de 18 ans ne peuvent pas s’en servir.
Le programme dont vous parlez permet à 500 000 adolescents à travers les États-Unis d’accéder gratuitement à Talkspace grâce à nos relations contractuelles avec les pouvoirs publics, les ministères de la Santé, les ministères de l’Éducation, les municipalités, les États et les comtés. Ainsi, de très nombreux adolescents au pays ont désormais accès à des services de santé mentale en tout temps.
Le programme repose sur des échanges par messages et des séances en visioconférence. Il y a quelques différences d’une ville à l’autre. Il s’adresse à tous les adolescents âgés de 13 à 17 ans résidant à New York, et toutes les personnes âgées de 13 à 24 ans à Seattle. À Baltimore, il ne s’adresse qu’aux élèves du secondaire. En Caroline du Nord, il s’agit principalement de jeunes en lien avec le système de justice pour mineurs, c’est-à-dire soit qu’ils ont eux-mêmes eu affaire à ce système, soit qu’ils ont un parent incarcéré, soit qu’ils ont eu d’autres interactions avec ce système, notamment par l’intermédiaire d’un placement en famille d’accueil, et qui présentent un risque accru de besoins en santé mentale. Les programmes sont donc très différents.
Les résultats obtenus sont assez extraordinaires. Plus de 90 % des enfants et des adolescents ont recours aux messages texte et à la messagerie instantanée comme moyen de thérapie. Environ 40 % d’entre eux, en plus des messages textes, auront recours aux visioconférences en direct. Les résultats se sont révélés très encourageants, avec une amélioration clinique de 65 % à 70 % chez les patients qui suivent le programme pendant environ six semaines à trois mois.
Pour moi, l’aspect le plus intéressant, c’est qu’on touche les adolescents là où ils passent le plus de temps : sur leur téléphone. Ce qui est important, c’est qu’on s’adresse aux enfants des quartiers défavorisés, aux communautés de couleur, aux communautés [inaudible 00:11:37] hétérogènes, qui ont vraiment du mal à accéder aux soins de santé, car on communique avec eux par téléphone. Peu importe l’endroit où ils vivent.
L’analyse des codes postaux a eu un effet extraordinairement positif sur la capacité à toucher les adolescents, peu importe où ils se trouvent. La plupart d’entre eux envoient des messages ou font des visioconférences après l’école ou durant les fins de semaine.
Charles Rhyee :
C’est merveilleux! Pour les dernières minutes qu’il nous reste, j’aimerais aborder le sujet de manière plus générale, je suppose, avant de revenir à des aspects plus spécifiques concernant l’IA. En novembre dernier, la FDA a tenu une réunion du comité consultatif sur les technologies de santé numérique pour aborder la question des dispositifs médicaux de santé mentale numériques embarquant de l’IA générative. Quels sont les principaux points à retenir de cette réunion?
Dr Jon R. Cohen :
On a fait parvenir à la FDA des commentaires écrits assez détaillés avant la réunion. À notre avis, la réunion qu’ils ont tenue et la conversation qu’ils ont eue ont été très positives. À notre connaissance, aucune recommandation n’a été formulée à la suite de cette réunion, ou du moins, rien n’a été publié à ce sujet.
Ils reconnaissent, comme tout le monde, que la question centrale en matière de régulation est de repérer les véritables dangers dont on a parlé. Comment peut-on les encadrer et en limiter les risques? On pense que les mécanismes de supervision prévus au niveau des États ou au niveau fédéral sont très proches de ce qu’on met en place pour garantir la sécurité du modèle. Mais on estime aussi qu’il faut mettre en place un certain contrôle et des restrictions, notamment sur l’accès, et surtout sur la manière de le rendre sûr ainsi que sur les publics auxquels il est destiné. C’est ce qu’on voit de plus en plus.
Charles Rhyee :
Pensez-vous que davantage de réglementations concernant l’utilisation de l’IA dans le domaine de la santé mentale vont voir le jour? Est-ce ce vers quoi il faut tendre? Je sais bien qu’à l’heure actuelle, les choses diffèrent d’un État à l’autre et qu’il n’y a pas vraiment d’uniformité.
Dr Jon R. Cohen :
La réponse est oui. Je ne peux pas dire précisément à quoi ça devrait ressembler, mais je pense qu’il faudra mettre en place des règles, comme on l’a fait pour encadrer l’usage des téléphones portables chez les enfants. Je pense qu’on va suivre la même trajectoire. On peut d’ores et déjà constater, dans certains États, quelle forme prendra la surveillance réglementaire. Ce qui m’importe avant tout, c’est qu’il y ait une forme de supervision clinique. Un clinicien humain doit intervenir à un moment donné pour protéger les patients de ce qui leur arrive.
Charles Rhyee :
Pour finir, comment voyez-vous l’évolution de la situation au cours des prochaines années, et quelle place occupe Talkspace dans ce contexte selon vous?
Dr Jon R. Cohen :
Je pense sincèrement qu’on a une position unique et qu’on va la conserver. Comme je l’ai dit, on est en train d’élaborer le premier GML sécurisé et formé spécialement pour la santé mentale. Il y en a quelques autres. À mon avis, tous les GML vont continuer à évoluer afin de mieux cerner les risques et les enjeux liés à la sécurité. Toutefois, on continue de croire que Talkspace jouit d’une position unique et favorable par rapport à ce qu’on a accompli jusqu’à présent. Notre entreprise est née de l’innovation. On a été parmi les premiers à démontrer que les échanges par messages peuvent être efficaces en thérapie. Dans cette optique, on va continuer à demeurer à l’avant-garde de l’innovation en matière d’IA, à condition de le faire de façon sûre et responsable.
Charles Rhyee :
Je vois. Eh bien, j’ai hâte que ça se produise. Merci beaucoup Jon.
Dr Jon R. Cohen :
Merci à vous.
Voix hors champ 1 :
Merci de nous avoir écoutés. Ne manquez pas le prochain épisode du balado Insights de TD Cowen.
Ce balado ne doit pas être copié, distribué, publié ou reproduit, en tout ou en partie. Les renseignements contenus dans cet enregistrement ont été obtenus de sources accessibles au public, n’ont pas fait l’objet d’une vérification indépendante de la part de Valeurs Mobilières TD, pourraient ne pas être à jour, et Valeurs Mobilières TD n’est pas tenue de fournir des mises à jour ou des changements. Toutes les références aux cours et les prévisions du marché sont en date de l’enregistrement. Les points de vue et les opinions exprimés dans ce balado ne sont pas nécessairement ceux de Valeurs Mobilières TD et peuvent différer de ceux d’autres services ou divisions de Valeurs Mobilières TD et de ses sociétés affiliées. Valeurs Mobilières TD ne fournit aucun conseil financier, économique, juridique, comptable ou fiscal ou de recommandations dans ce balado. Les renseignements contenus dans ce balado ne constituent pas des conseils de placement ni une offre d’achat ou de vente de titres ou de tout autre produit et ne doivent pas être utilisés pour évaluer une opération potentielle. Valeurs Mobilières TD et ses sociétés affiliées ne font aucune déclaration ou ne donnent aucune garantie, expresse ou implicite, quant à l’exactitude ou à l’exhaustivité des déclarations ou des renseignements contenus dans le présent balado et, par conséquent, déclinent expressément toute responsabilité (y compris en cas de perte ou de dommage direct, indirect ou consécutif).
Directeur général, Soins de santé – Analyste de recherche en technologies de soins de santé, TD Cowen
Charles Rhyee
Directeur général, Soins de santé – Analyste de recherche en technologies de soins de santé, TD Cowen
Charles Rhyee
Directeur général, Soins de santé – Analyste de recherche en technologies de soins de santé, TD Cowen
Charles Rhyee est directeur général et analyste de recherche principal en distribution et technologies de soins de santé. M. Rhyee a été reconnu dans les sondages menés par le Wall Street Journal et le Financial Times. En 2023, il s’est classé au troisième rang du sondage All-America dans le segment de la distribution et des technologies de soins de santé du magazine Institutional Investor et a été nommé Best Up & Coming Analyst en 2008 et en 2009.
Avant de se joindre à TD Cowen en février 2011, il a occupé le poste de directeur général de la distribution et des technologies de soins de santé pour Oppenheimer & Co. M. Rhyee a commencé sa carrière en recherche sur les actions à Salomon Smith Barney en 1999.
Il est titulaire d’un baccalauréat en économie de l’Université Columbia.