« Les enjeux sur la protection des données, le respect de la vie privée et des données de santé, la transparence des algorithmes vis-à-vis de nos parties prenantes n’ont jamais été tant évoqués » »

Entretien avec Alice Herreye, Directrice des Affaires Juridiques – Direction Juridique et Compliance, Roche SAS

Quel est votre parcours professionnel ?

J’ai commencé ma carrière professionnelle en 2005 dans l’industrie pharmaceutique (Johnson & Johnson) et j’ai apprécié le secteur de la santé, très réglementé et particulièrement innovant. J’ai ensuite rejoint le groupe chimique Solvay à Bruxelles où j’ai travaillé dans un environnement multiculturel pendant 7 ans. J’ai eu ensuite l’envie de suivre mes aspirations personnelles pour rejoindre mon secteur de prédilection : celui de la santé. Je suis désormais chez Roche depuis 2014, une entreprise centrée sur l’innovation et dont l’éthique et les valeurs sont au cœur des projets.

Quels sont les grands challenges et axes de développement qui se dessinent au sein de la Direction juridique de Roche pour les prochaines années ?

Roche est une entreprise pharmaceutique mondiale dont l’ambition est de développer des médicaments pour améliorer la prise en charge des patients atteints de cancers, de maladies inflammatoires, de maladies psychiatriques, ou encore de maladies infectieuses.
Depuis quelques mois, le business model classique autour de la découverte et la mise sur le marché de molécules pharmaceutiques s’est accompagné d’une nouvelle ambition : une offre de services numériques embarquant de l’intelligence artificielle (“IA”) pour accompagner la mise sur le marché des médicaments et améliorer le parcours de soin des patients. Roche ambitionne ainsi de développer des solutions de e-santé  (ex. outils digitaux de suivi des effets secondaires d’une thérapie) ou encore de digitalisation des interactions avec les professionnels de santé (ex. visite médicale numérisée). L’IA promet des applications particulièrement intéressantes dans le domaine de la santé telles que l’aide à la décision diagnostique et thérapeutique ou la médecine prédictive.

Ce virage numérique introduit une transformation digitale profonde de l’entreprise et un changement de paradigme qui intervient tant sur l’organisation interne que sur  les modèles d’affaires. Cette transformation introduit à la fois de nouvelles opportunités pour l’ambition numérique et fait émerger des problématiques juridiques et éthiques associées.

En effet, les enjeux sur la protection des données, le respect de la vie privée et des données de santé, la transparence des algorithmes vis-à-vis de nos parties prenantes n’ont jamais été tant évoqués.
Si Roche a l’obligation de se mettre en conformité au regard de la réglementation (ex. Règlement Général sur la Protection des Données, Loi Sapin II, etc), le sujet de l’éthique du numérique doit également être appréhendé par la Direction Juridique.

Nos axes de développement en tant que juristes sont orientés vers ces nouvelles problématiques : numérique et santé, éthique du digital, données de santé. Notre challenge est de fédérer à un niveau stratégique de l’entreprise sur ces sujets qui vont au-delà d’une simple conformité impulsée par la Direction Juridique.

Vous avez-vous-même suivi le programme certifiant Digital Ethics Officer de l’EDHEC en 2022, quelles compétences nouvelles cette formation vous a-t-elle permis d’acquérir ?

Le programme certifiant Digital Ethics Officer est incontournable et tout à fait complémentaire d’une formation classique en Droit des Affaires/Droit des Données Personnelles.
La formation permet de développer un socle de connaissances solides en matière de réglementation éthique et juridique au regard des projets numériques. Elle m’a notamment permis d’appréhender les risques posés par les données, le digital et l’IA vis-à-vis des droits fondamentaux et d’identifier les moyens et les compétences permettant de prévenir ou de limiter ces risques.

Du point vue organisationnel, la formation donne les clés pour anticiper les contraintes réglementaires (ex. Règlement européen sur l’IA) et adapter son organisation à des modèles de risques.

Pourriez-vous citer un atelier ou une intervention qui vous a particulièrement marqué dans ce programme, et pour quelle raison ?

L’intervention de Mona Caroline Chammas, avocate fondatrice du cabinet Govern&Law m’a interpellée. A priori, nous pensons que le droit et la technologie sont des domaines diamétralement opposés. Or, le droit et la technologie ont en commun qu’ils façonnent la façon dont les individus agissent et interagissent entre eux et avec l’écosystème.

La complexité de la technologie (ex. algorithmes peu transparents) et l’automatisation des décisions apportées par cette même technologie peuvent conduire à des biais et des atteintes au respect des droits fondamentaux. Il est donc urgent de réconcilier droit et technologie en promouvant une approche d’”Ethics by design” dans les projets innovants embarquant de l’IA.
L’innovation technologique n’est pas durable sans le respect des droits fondamentaux des individus et de l’éthique.

Le recours à l’Intelligence Artificielle fait-il partie des outils de développement mis en place ou prévus dans votre entreprise ? Si oui, quels sont les risques que vous devez anticiper sur les plans juridique et éthique ?

Le recours à l’IA soulève un certain nombre de questions : celle de l’utilisation massive de données de santé pour faire fonctionner un algorithme, ou encore celle des droits fondamentaux des personnes qui peuvent être impactés.
Prenons l’exemple des biais consécutifs à l’utilisation des algorithmes. Les biais proviennent essentiellement de deux sources. D’abord le programmeur lui-même, qui intègre dans ses algorithmes ses propres croyances et biais cognitifs (par exemple que les hommes s’intéressent plus à la technologie que les femmes). D’autres découlent des données qui nourrissent le système, à partir desquelles il est entraîné. Plusieurs études ont, par exemple, montré que certaines technologies de reconnaissance faciale fonctionnaient nettement moins bien sur les peaux foncées. Tout simplement, ces outils sont majoritairement conçus et entraînés sur des hommes hétérosexuels à la peau blanche.

Il est souhaitable pour Roche d’identifier et d’examiner en permanence les risques liés à ses solutions d’IA, d’atténuer ces risques, et de maintenir un plan d’intervention en cas d’échec des mesures d’atténuation. C’est le sens des dispositions du projet de Règlement Européen sur l’IA qui requiert notamment un “système de gestion de la qualité” comprenant entre autres, “un système de gestion des risques” et “un système de surveillance après commercialisation”.

Documenter ce processus par le biais d’un examen périodique de l’impact des risques peut contribuer à développer la clarté et la confiance nécessaire dans l’utilisation par Roche de solutions d’IA. Cela aidera également Roche à répondre à des questions soulevées par les patients, aidants, médecins, régulateurs, etc.; à faciliter l’adoption des solutions IA par ces mêmes parties prenantes et à rendre l’entreprise plus compétitive.

En termes de ressources humaines : La gestion des enjeux éthiques et juridiques de l’IA et/ou de la data nécessite-t-elle d’envisager de nouveaux recrutements, de rechercher de nouveaux types de profils ?

Au-delà des nouvelles expertises juridiques qu’il conviendrait de renforcer (ex. Droit des nouvelles technologies), je pense que la clé pour une Direction Juridique pour appréhender les enjeux juridiques de l’IA et de la data est d’être en capacité d’interagir avec les décideurs, ingénieurs, programmeurs… au sein de l’organisation, en vue de garantir la dimension éthique des projets data et IA.