banner
Centre d'Information
Nous nous engageons à respecter nos normes de certification ISO.

Cet hôpital pour enfants intègre l'IA aux soins de santé

Oct 13, 2023

Alors que les hôpitaux sont habitués à traiter la plupart des choses virales, ils commencent déjà à étudier un tout nouveau type de phénomène viral : l'IA générative en milieu de travail.

Des établissements de santé de haut niveau comme le Boston Children's Hospital, connectés comme ils le sont à de grandes institutions de recherche, comptent parmi les opérations les plus importantes en contact avec les clients dans le secteur de la santé.

Et étant donné que les soins de santé représentent environ 18% du PIB américain, ces organisations voudront bien sûr profiter des dernières technologies qui promettent une révolution de la productivité.

Le Boston Children's Hospital, régulièrement classé parmi les meilleurs hôpitaux pour enfants des États-Unis, emploie un « directeur de l'innovation », John Brownstein, un épidémiologiste qui dirige une division appelée Innovation & Digital Health Accelerator. Le travail passé de Brownstein combinant technologie et santé comprend la création d'un site appelé "Flu Near You", qui a été réutilisé au début de la pandémie sous le nom de "Covid Near You" pour des raisons évidentes, selon le New York Times Magazine. Il existe toujours sous une forme plus générale en tant que "épidémies près de chez moi". C'est un site Web d'une utilité troublante pour suivre les agents pathogènes.

Et maintenant, Brownstein tourne son attention vers l'IA.

Tout d'abord, selon Brownstein : de son point de vue, il n'est pas nécessaire de licencier qui que ce soit simplement parce que l'IA envahit les soins de santé. "Ce n'est pas destiné à remplacer l'humain", a déclaré Brownstein à Mashable dans une interview en avril. "C'est une augmentation. Il y a donc toujours un humain dans la boucle."

VOIR AUSSI : Ce qu'il ne faut pas partager avec ChatGPT si vous l'utilisez pour le travail

En avril, alors que l'ingénierie rapide devenait un nouveau travail technologique digne d'intérêt, Boston Children's a informé le public du fait que le changement était en cours lorsqu'il a publié une offre d'emploi à la recherche d'un ingénieur rapide. En d'autres termes, l'hôpital embauchait un spécialiste pour former des modèles de langage d'IA qui peuvent améliorer les opérations hospitalières, et en théorie, cette personne est censée améliorer les conditions du personnel hospitalier.

Selon Brownstein, c'est parce que son département a une directive pour réduire "l'épuisement professionnel des fournisseurs". Boston Children's a ce qu'il a appelé "une équipe interne qui construit la technologie". Leur travail, a-t-il expliqué, consiste à localiser les endroits du "monde du travail" où la technologie peut jouer un rôle, mais ce n'est pas encore le cas. Ils s'assoient littéralement dans des «points douloureux» au sein de l'hôpital pour enfants de Boston et conçoivent des moyens de soulager la douleur.

Ce que cela signifie en pratique est un peu hallucinant.

Un "point douloureux" dans n'importe quel hôpital est de diriger les patients d'un point A à un point B, un exercice de communication difficile qui peut inclure des ralentisseurs comme la confusion due à la maladie ou au stress, ou les barrières linguistiques. "Déjà sortis de la porte, nous pouvons interroger ChatGPT avec des questions sur la façon de naviguer dans notre hôpital", a déclaré Brownstein. "C'est en fait choquant, ce que ceux-ci produisent sans aucune formation de notre part." ChatGPT - et pas une version future mais celle à laquelle vous avez déjà accès - peut vous dire comment vous déplacer "pas seulement dans notre hôpital, mais dans n'importe quel hôpital", selon Brownstein.

Il est donc plus que réaliste d'imaginer un kiosque de machines où les patients peuvent recevoir des réponses utiles à des questions telles que, a proposé Brownstein, "Où puis-je prier ?" Et c'est probablement aussi l'espoir de nombreux travailleurs de la santé de ne pas être arrêtés dans leur élan avec des questions comme celle-là. Tout le monde n'est pas une personne sociable.

Mais Brownstein a également des idées sur de nouvelles façons dont les prestataires peuvent utiliser les données des patients grâce à l'IA.

L'idée que l'IA sera impliquée dans le traitement des données réelles des patients a déclenché des alarmes pour Mildred Cho, professeur de pédiatrie au Centre d'éthique biomédicale de Stanford. Après avoir examiné l'offre d'emploi d'ingénieur rapide, elle a déclaré à Mashable : "Ce qui me frappe, c'est que les qualifications sont axées sur l'expertise en informatique et en codage et uniquement sur la" connaissance des méthodologies de recherche en soins de santé", tandis que les tâches incluent l'évaluation des performances des invites d'IA. "

"Pour vraiment comprendre si les résultats de grands modèles de langage sont valides pour les normes élevées nécessaires aux soins de santé, un évaluateur devrait avoir une base de connaissances beaucoup plus nuancée et sophistiquée en médecine ainsi qu'une connaissance pratique des systèmes de prestation de soins de santé et des limites. de leurs données », a déclaré Cho.

VOIR AUSSI : Les CV créés par ChatGPT sont des facteurs décisifs pour les recruteurs

Cho a décrit plus en détail un scénario cauchemardesque : que se passe-t-il si l'ingénieur d'invite aide à recycler un modèle de langage ou à modifier un processus automatisé, mais en raison d'hypothèses erronées ? Par exemple, que se passe-t-il s'ils y entraînent des préjugés raciaux ou d'autres erreurs persistantes ? Étant donné que toutes les données collectées par les personnes sont intrinsèquement erronées, un nouveau processus brillant pourrait être construit sur une base d'erreurs.

"Notre ingénieur rapide ne va pas travailler dans une bulle", a déclaré Brownstein. Son équipe consacre du temps, dit-il, à s'inquiéter de "ce que cela signifie d'avoir des données imparfaites". Il était convaincu que le processus ne serait pas : "mettre un tas de données et, comme, espérer le meilleur".

Mais n'oublions pas que "mettre un tas de données et espérer le meilleur" est une description appropriée du fonctionnement des grands modèles de langage, et les résultats sont souvent, eh bien, horribles.

Pour un exemple où les données doivent être exactes, ne cherchez pas plus loin que la vision absolument fascinante de Brownstein pour les instructions de décharge du futur. Vous avez probablement reçu – et rapidement jeté – de nombreuses instructions de décharge.

Peut-être avez-vous eu une bosse sur la tête dans un accident de voiture. Après avoir été examiné à l'hôpital et avoir été autorisé à rentrer chez vous, vous avez probablement reçu quelques pages agrafées d'informations sur les signes d'une commotion cérébrale, comment utiliser une compresse froide et la quantité d'ibuprofène à prendre.

Avec un LLM formé sur les informations individuelles de votre patient, a déclaré Browstein, le système sait, entre autres choses, où vous vivez, donc il peut dire où aller pour acheter votre ibuprofène, ou ne pas acheter du tout d'ibuprofène, parce que vous êtes allergique . Mais ce n'est que la pointe de l'iceberg.

"Vous faites une cure de désintoxication et vous devez vous promener. Cela vous dit de faire cette promenade dans cette zone particulière autour de votre maison. Ou cela pourrait être contextuellement utile, et cela peut changer en fonction de votre âge et de divers attributs vous concernant. . Et cela peut donner ce résultat dans la voix qui est le plus convaincant pour s'assurer que vous respectez ces instructions."

David Himmelstein, professeur à la CUNY School of Public Health et éminent critique du système de santé américain à but lucratif, a déclaré que bien qu'il ait entendu parler d'utilisations potentielles de l'IA dans les hôpitaux qui le concernaient, celui-ci ne l'a pas frappé comme "attaque." Il a noté que les instructions de décharge sont "presque passe-partout" de toute façon, et semblait indifférent au changement potentiel.

Cependant, il s'inquiète de ce que ces systèmes pourraient signifier pour la vie privée. "Qui obtient cette information?" se demanda-t-il. "On dirait que cela met les informations entre les mains de Microsoft - ou de Google s'ils utilisent leur moteur d'IA."

Dans une utilisation généralisée, ce sont des préoccupations majeures pour les hôpitaux à l'avenir, mais Brownstein a déclaré que l'hôpital pour enfants de Boston, pour sa part, "construit en fait des LLM internes", ce qui signifie qu'il ne s'appuiera pas sur des sociétés comme Google, Microsoft ou la société mère de ChatGPT. OpenAI. "Nous avons en fait un environnement que nous construisons, de sorte que nous n'avons pas à pousser les données des patients n'importe où en dehors des murs de l'hôpital."

Himmelstein, cependant, a souligné que les systèmes d'automatisation des hôpitaux sont loin d'être nouveaux et n'ont pas créé de paradis sans bureaucratie, où le travail se déroule de manière fluide et efficace, même s'il a noté que les entreprises faisaient de telles promesses depuis les années 1960. Il a fourni un document historique fascinant pour illustrer ce point : une vidéo IBM de 1961 qui promet des systèmes électroniques qui réduiront la bureaucratie et « élimineront les erreurs ».

Mais au cours du mois qui s'est écoulé depuis que Mashable a parlé pour la première fois à Brownstein, la situation de l'IA a progressé au Boston Children's Hospital. Dans un e-mail, Browstein a signalé "une tonne de progrès" sur les grands modèles de langage et un ingénieur rapide "incroyable" en cours d'intégration.