Le modèle d'intelligence artificielle "apprend" à partir des données des patients pour rendre le traitement du cancer moins toxique

Rob Matheson | Office de presse du MIT

Les chercheurs du MIT utilisent de nouvelles techniques d'apprentissage automatique pour améliorer la qualité de vie des patients en réduisant les doses de chimiothérapie et de radiothérapie toxiques pour le glioblastome, la forme la plus agressive de cancer du cerveau.

Le glioblastome est une tumeur maligne qui apparaît dans le cerveau ou la moelle épinière et le pronostic pour les adultes ne dépasse pas cinq ans. Les patients doivent subir une combinaison de radiothérapie et de médicaments multiples pris chaque mois. Les professionnels de la santé administrent généralement des doses maximales de médicaments sécuritaires pour réduire le plus possible la tumeur. Mais ces produits pharmaceutiques puissants causent encore des effets secondaires débilitants chez les patients.

Dans un article présenté la semaine prochaine lors de la conférence Machine Learning for Healthcare 2018 à l'université de Stanford, les chercheurs du MIT Media Lab détaillent un modèle qui pourrait rendre les schémas posologiques moins toxiques mais toujours efficaces. Alimenté par une technique d’apprentissage automatique, le modèle examine les schémas thérapeutiques actuellement utilisés et ajuste les doses de manière itérative. En fin de compte, il trouve un plan de traitement optimal, avec la puissance et la fréquence de doses les plus faibles possibles, qui devraient néanmoins réduire la taille des tumeurs à un degré comparable à celui des régimes traditionnels.

Dans des essais simulés de 50 patients, le modèle d'apprentissage automatique a conçu des cycles de traitement qui réduisaient la puissance à un quart ou la moitié de presque toutes les doses tout en maintenant le même potentiel de rétraction tumorale. Plusieurs fois, il a complètement ignoré les doses, programmant les administrations seulement deux fois par an au lieu de chaque mois.

"Nous avons gardé l’objectif d’aider les patients en réduisant la taille des tumeurs, mais nous voulons aussi nous assurer que la qualité de vie – la toxicité de la dose – n’entraîne pas une maladie accablante et des effets secondaires néfastes », explique Pratik Shah, chercheur principal au Media Lab qui a supervisé ces recherches.

Le premier auteur de l'article est Gregory Yauney, chercheur au Media Lab.

Récompenser les bons choix

Le modèle des chercheurs utilise une technique appelée apprentissage renforcé (RL), une méthode inspirée de la psychologie comportementale, dans laquelle un modèle apprend à favoriser un comportement qui mène à un résultat souhaité.

La technique comprend des "agents" intelligents artificiellement qui accomplissent des "actions" dans un environnement complexe et imprévisible pour atteindre le "résultat" souhaité. Chaque fois qu'il termine une action, l'agent reçoit une "récompense" ou une "pénalité". "Selon que l'action fonctionne vers le résultat. Ensuite, l'agent ajuste ses actions en conséquence pour atteindre ce résultat.

Les récompenses et les pénalités sont essentiellement des nombres positifs et négatifs, disons +1 ou -1. Leurs valeurs varient en fonction des mesures prises, calculées en fonction de la probabilité de réussite ou d’échec au résultat, entre autres facteurs. L'agent essaie essentiellement d'optimiser numériquement toutes les actions, en fonction des valeurs de récompense et de pénalité, pour obtenir un résultat maximal pour une tâche donnée.

Lire Aussi :   6 façons naturelles de gérer les symptômes de l'anémie falciforme

L'approche a été utilisée pour former le programme informatique DeepMind qui a fait la une des journaux en 2016 pour avoir battu l'un des meilleurs joueurs du monde dans le jeu "Go". dans la circulation ou le stationnement, où le véhicule s’entraînera encore et encore, en ajustant sa trajectoire jusqu’à ce qu’elle se déroule correctement.

Les chercheurs ont adapté un modèle RL pour des traitements au glioblastome utilisant une combinaison de médicaments: témozolomide (TMZ) et procarbazine, lomustine et vincristine (PVC), administrés sur des semaines ou des mois.

L'agent du modèle passe au travers de régimes administrés traditionnellement. Ces schémas thérapeutiques reposent sur des protocoles utilisés cliniquement depuis des décennies et reposent sur des tests sur des animaux et divers essais cliniques. Les oncologues utilisent ces protocoles établis pour prédire combien de doses donner aux patients en fonction du poids.

Au fur et à mesure que le modèle explore le schéma thérapeutique, à chaque intervalle de dosage planifié, disons une fois par mois, il décide de l'une des actions. Il peut d'abord commencer ou retenir une dose. Si elle est administrée, elle décide ensuite si la dose entière ou seulement une partie est nécessaire. À chaque action, un autre modèle clinique – souvent utilisé pour prédire le changement de taille d'une tumeur en réponse à des traitements – est testé pour voir si l'action réduit le diamètre moyen de la tumeur. Si c'est le cas, le modèle reçoit une récompense.

Cependant, les chercheurs devaient également s'assurer que le modèle ne distribuait pas seulement un nombre et une puissance maximums des doses. Par conséquent, chaque fois que le modèle choisit d'administrer toutes les doses complètes, il est pénalisé et choisit donc moins de doses plus petites. "Si tout ce que nous voulons faire, c'est réduire le diamètre moyen de la tumeur et le laisser prendre toutes les mesures voulues, il administrera des médicaments de manière irresponsable", explique Shah. "Au lieu de cela, nous avons dit:" Nous devons réduire les actions néfastes nécessaires pour parvenir à ce résultat "."

Cela représente un «modèle RL peu orthodoxe, décrit dans le document pour la première fois», dit Shah, qui évalue les conséquences négatives potentielles des actions (doses) par rapport à un résultat (réduction tumorale). Les modèles RL traditionnels sont axés sur un résultat unique, tel que gagner un jeu, et prendre toutes les actions qui maximisent ce résultat. D'autre part, le modèle des chercheurs, à chaque action, a la souplesse nécessaire pour trouver une dose qui ne maximise pas nécessairement uniquement la réduction tumorale, mais qui équilibre parfaitement la réduction maximale de la tumeur et la faible toxicité. Cette technique, ajoute-t-il, a diverses applications d'essais médicaux et cliniques, où les actions pour traiter les patients doivent être réglementées pour prévenir les effets secondaires nocifs.

Schémas optimaux

Les chercheurs ont formé le modèle sur 50 patients simulés, choisis au hasard parmi une vaste base de données de patients atteints de glioblastome ayant déjà subi des traitements traditionnels. Pour chaque patient, le modèle a conduit environ 20 000 tests de test et d'erreur. Une fois la formation terminée, le modèle a appris les paramètres pour des régimes optimaux. Lorsqu'ils recevaient de nouveaux patients, le modèle utilisait ces paramètres pour formuler de nouveaux schémas thérapeutiques en fonction de diverses contraintes fournies par les chercheurs.

Lire Aussi :   Recettes de repas pour une peau éclatante supplémentaire

Les chercheurs ont ensuite testé le modèle sur 50 nouveaux patients simulés et comparé les résultats à ceux d'un schéma conventionnel utilisant à la fois le TMZ et le PVC. Lorsqu'il n'y a pas de pénalité de dosage, le modèle a conçu des régimes presque identiques à des experts humains. Cependant, compte tenu des petites et des grandes doses, la fréquence et la puissance des doses ont été considérablement réduites, tout en réduisant la taille des tumeurs.

Les chercheurs ont également conçu le modèle pour traiter chaque patient individuellement, ainsi que dans une seule cohorte, et ont obtenu des résultats similaires (les données médicales pour chaque patient étaient disponibles pour les chercheurs). Traditionnellement, un même schéma posologique est appliqué aux groupes de patients, mais les différences de taille de la tumeur, les antécédents médicaux, les profils génétiques et les biomarqueurs peuvent tous modifier le traitement d'un patient. Ces variables ne sont pas prises en compte lors de la conception des essais cliniques traditionnels et d’autres traitements, conduisant souvent à des réponses médiocres au traitement chez de grandes populations, explique Shah.

"Nous avons dit [to the model]:« Faut-il administrer la même dose à tous les patients? Et il a dit: 'Non Je peux donner un quart de dose à cette personne, la moitié à cette personne, et peut-être que nous sautons une dose pour cette personne. »C'était la partie la plus passionnante de ce travail, où nous sommes capables de générer des traitements de précision basés sur la médecine. "essais de personnes utilisant des architectures d'apprentissage peu orthodoxes", explique Shah.

Le modèle offre une amélioration majeure par rapport à la méthode conventionnelle consistant à administrer des doses, à observer comment les patients réagissent et à ajuster en conséquence, explique Nicholas J. Schork, professeur et directeur de la biologie humaine au J Institut Craig Venter et expert en conception d'essais cliniques. "[Humans don’t] a la perception profonde qu’une machine regardant des tonnes de données a, de sorte que le processus humain est lent, fastidieux et inexact", dit-il. "Ici, vous laissez simplement un ordinateur chercher des modèles dans les données, ce qui prendrait un temps fou à passer au crible un humain, et utiliserait ces modèles pour trouver les doses optimales."

M. Schork ajoute que ce travail pourrait intéresser particulièrement la Food and Drug Administration des États-Unis, qui cherche actuellement des moyens de tirer parti des données et de l’intelligence artificielle pour développer des technologies de la santé. Les réglementations doivent encore être établies, dit-il, "mais je ne doute pas que, dans un court laps de temps, la FDA déterminera comment les évaluer de manière appropriée afin qu'elles puissent être utilisées dans des programmes cliniques quotidiens".

Source

Be the first to comment

Leave a Reply

Your email address will not be published.


*