Le Big Data, source d’innovation dans la santé ?

 

Le 7 février 2014 s’est tenue à Berlin la 7e conférence annuelle sur la propriété intellectuelle dans les sciences de la vie. Organisée par le think tank Biocom AG, elle a porté sur le Big Data pour l’innovation dans la santé en réunissant des acteurs publics et privés, économiques et scientifiques internationaux.

 

Cet évènement a été l’occasion d’échanger sur la vision des entreprises des sciences de la vie et des TIC vis-à-vis de l’exploitation des données massives dans la santé. Les innovations à la clé sont fondamentales, susceptibles de réduire les coûts de santé et d’ouvrir la voie vers la médecine personnalisée. Il subsiste toutefois des obstacles soit techniques, soit liés à la propriété des données.

La « Berlin Conference on IP in Life Sciences » est traditionnellement accueillie dans des locaux d’ambassades. Cette année, la septième édition s’est déroulée au sein de l’ambassade du Danemark. Les débats s’articulaient autour des « données massives pour une multitude de médicaments ». Pour rappel, la Commission « Innovation 2030 » a défini le Big Data et la médecine personnalisée comme partie intégrante des sept ambitions stratégiques. La conférence s’est inscrite dans ce cadre-là.

 

En 2013, le Big Data est au sommet des attentes

 

Le cycle de Hype, couramment utilisé pour représenter la maturité et l’adoption des différentes technologies, place en 2013 le Big Data en haut du pic des attentes, aux côtés de l’impression 3D grand public et des systèmes de réponse à des questions reposant sur le langage naturel.

 

La dimension du phénomène de Big Data est triple, et à chaque composante sont liés des défis spécifiques :
– en termes de volume, on parle généralement de Big Data à partir de cinq téraoctets de données à traiter, ce que les logiciels ou les bases de données classiques ne peuvent pas faire ;
– en termes de variété, les données acquises sont brutes ou structurées, au format texte ou image, avec des propriétaires et des droits d’utilisation aussi différents que leurs sources ;
– en termes de vélocité, il faut être capable d’intégrer en temps réel les dernières données disponibles et les lier aux autres jeux de données sans recommencer une analyse complète à chaque cycle.

Ces trois composantes nécessitent de nouvelles formes de traitement de l’information.

 

Dans la santé, un potentiel d’innovation et de monétisation

 

Le secteur des soins de santé est confronté à une importante transformation, alimentée par une explosion des connaissances en sciences biomédicales et par la vulgarisation de certaines technologies telles que le séquençage des gènes. Les progrès réalisés dans les technologies de l’information transforment cette évolution en révolution. La gestion de ces données massives est un important levier pour une meilleure compréhension des maladies, du développement de médicaments et du traitement des patients.

 

Une étude de l’Institut McKinsey a mis en avant les nouvelles pistes offertes par le Big Data en sciences médicales :
– La prévention ciblée : évoluer vers un mode de vie adapté à l’état de santé ;
– La mise en place des soins appropriés, qui permettent d’obtenir les effets attendus pour chaque patient tout en assurant la sécurité (en tendant vers la médecine personnalisée) ;
– L’optimisation du médicament pour obtenir l’impact clinique attendu ;
– Les coûts : approche de réduction des coûts pour une qualité de soin égale ou meilleure ;
– L’innovation : en encourageant la R&D et la sécurité.

 

D’après l’investisseur Kempen & Co Merchant Bank (Amsterdam), les trois clés du succès du Big Data sont l’accessibilité des données, leur qualité et la rapidité de l’analyse. Le Big Data permettra aux entreprises pionnières d’acquérir rapidement de nouvelles pistes d’innovation et de les convertir en avantage compétitif.

 

Le Big Data devrait en effet générer un marché impactant différents secteurs :
– Dans la santé : 300 milliards de dollars de revenus par an ;
– Dans l’administration publique en Europe : 250 milliards ;
– Données de géolocalisation : 100 milliards pour les prestataires de services, 700 milliards pour les utilisateurs ;
– Dans la production : baisse de 50% des coûts de développement de produit

Aux Etats-Unis, l’impact du Big Data sur la réduction des coûts de santé serait de l’ordre de 300 à 450 milliards dollars (jusqu’à 17% de baisse), principalement grâce à la prévention et à la médecine personnalisée.

 

Quelles sources de données pour le Big Data de la santé ?

 

L’industrie de la santé se fonde sur quatre sources de données :
– Les données de R&D d’entreprises pharmaceutiques ou académiques (essais cliniques par exemple) ;
– Les données cliniques d’hôpitaux (dossiers médicaux électroniques…) ;
– Les rapports d’activité et les données de coûts (données des caisses d’assurances maladies) ;
– Le comportement des patients, données détenues par divers acteurs (parties prenantes en dehors de l’industrie de la santé, voire le patient directement) : il s’agit des préférences du consommateur, de son historique d’achats, voire des enregistrements de ses activités sportives « connectées ».

 

Les réseaux sociaux constituent également une importante source pour l’industrie pharmaceutique, afin d’identifier les patients non diagnostiqués et d’améliorer la compréhension des effets, souhaités ou non, des soins prescrits. L’intégration et la combinaison de l’ensemble de ces sources seraient nécessaires.

 

Quelles innovations pour le Big Data ?

 

Selon les investisseurs, le Big Data a atteint son point de basculement, où il peut créer du profit. La génération de valeur dépendrait de trois aspects :
– La précision de l’analyse des données ;
– La fiabilité des scénarios de prédiction ;
– L’amélioration des processus.

 

Différents modèles d’affaires ont été identifiés :
– Le repositionnement des médicaments, en considérant que des médicaments actuels peuvent soigner d’autres maladies que celles pour lesquels ils sont prescrits ;
– La combinaison de données de séquençage pour une meilleure compréhension moléculaire, dans le but d’identifier de nouvelles cibles de médicaments ;
– Le comportement du consommateur, pour générer la fidélité du client final et réduire le fardeau de traitements inutiles ;
– Le meilleur choix de personnes pour les essais cliniques, grâce aux données du génome personnel.

 

Pour un professeur d’épidémiologie au centre hospitalier universitaire d’Aarhus (Danemark), les données contiennent des informations sur les traitements suivis dans les conditions réelles, incluant les facteurs humains (comportement des patients et du personnel hospitalier) et les caractéristiques du patient (d’autres maladies ou soins en parallèle). Par ailleurs, il serait possible de disposer d’une large quantité d’échantillons pour les signaux faibles, tels que les maladies rares, d’éliminer les valeurs aberrantes, tout en ayant des données à long terme sur les effets épigénétiques (influences de l’environnement sur l’expression des gènes). A ce titre, le Danemark dispose de différents registres (comme un registre de patients, de prescription notamment), cas semble-t-il unique, dans lesquels peuvent puiser les épidémiologistes.

 

Le directeur médical d’IBM Healthcare a par ailleurs présenté les deux points sur lesquels son entreprise se focalise : le cas de patients atteints de plusieurs maladies dans un contexte de société vieillissante, et la possibilité de prolonger l’espérance de vie de patients atteints de certains types de cancers non curables.

 

Des barrières à l’exploitation des données

 

Un représentant de l’Université de Zurich, travaillant sur le Big Data dans la compréhension des systèmes biologiques, dénonce la quantité de formats différents existants et la rétention des données par les instituts de recherche. Ces derniers estiment que ces données ont une valeur marchande, sans toutefois ni les exploiter, ni les réutiliser.

 

Ce chercheur est d’avis que les données ne sont pas spécialement massives, mais surtout très hétérogènes et de sources différentes. Actuellement, la compréhension du public vis-à-vis des données massives est très insuffisante. Il est question de la définition du champ d’application du Big Data et de la propriété des données. De plus, le fonctionnement actuel des publications n’incite qu’à publier les données nécessaires pour une étude donnée. Ainsi, peu de jeux de données brutes de qualité et annotés sont produits, ne permettant pas de réutilisation pour des études ultérieures. Enfin, les pertes de données sont importantes. Une étude récemment menée au Canada estime que 80% des données scientifiques actuelles seront perdues d’ici vingt ans, suite à des rotations de personnels et de supports de stockage obsolètes principalement.

 

Un responsable de l’entreprise pharmaceutique danoise H. Lundbeck A/S a indiqué pour sa part que le problème ne réside pas tant dans la quantité des données, mais plutôt dans le data mining (exploration des données). Des logiciels disponibles gratuitement seraient selon lui suffisants et sans besoin d’équipement spécifique. L’aspect le plus important serait la sélection au préalable des informations utiles pour l’analyse, et surtout la définition des questions auxquelles les chercheurs souhaitent répondre, avant de se plonger dans la technologie.

 

Une approche transparente comme clé de succès

 

La vision des investisseurs est la suivante : un soutien des formes d’innovation combinant différentes industries, et les projets tentant de valoriser les données de séquençage ou la transformation de données brutes pour les rendre exploitables. La confiance serait de plus un élément fondamental dans la stratégie de Big Data. La gérance des données devrait être dictée par des principes de collecte et d’utilisation, par l’intermédiaire d’un code de conduite. Dans une stratégie de communication externe, les entreprises devraient par ailleurs communiquer sur la façon dont les données sont gérées, à quelles fins elles seront utilisées, et publier de manière transparente des indicateurs de performances évaluant la qualité de la gestion des données privées (sécurité, …).

 

Le chercheur de l’Université de Zurich a proposé que les données, annotées et de qualité, soient accessibles sur le cloud par des outils adaptés. Il serait également question de motiver les chercheurs à publier les jeux de données. Un représentant du « Clinical Practise Research Datalink », une organisation publique fournissant et régulant l’accès aux données de santé en Grande-Bretagne, vante les mérites de sa plateforme, qui au-delà des données extrêmement complexes et variées, fournit une interface accessible aux chercheurs. Un logiciel permet également de cibler le recrutement de patients pour des essais cliniques en fonction des différentes contraintes imposées par les tests.

 

Pour en savoir plus, contacts :

Site de la conférence : http://redirectix.bulletins-electroniques.com/XWnQi

 

Sources :

Participation du rédacteur à la conférence, le 7 février 2014 à l’ambassade du Danemark à Berlin

 

Rédacteurs :

Aurélien Filiali, aurelien.filiali@diplomatie.gouv.fr – https://www.science-allemagne.fr/