« Les enjeux sur la protection des données, le respect de la vie privée et des données de santé, la transparence des algorithmes vis-à-vis de nos parties prenantes n’ont jamais été tant évoqués » »
Entretien avec Alice Herreye, Directrice des Affaires Juridiques – Direction Juridique et Compliance, Roche SASQuel est votre parcours professionnel ? J’ai commencé ma carrière professionnelle en 2005 dans l’industrie pharmaceutique (Johnson & Johnson) et j’ai apprécié le secteur de la santé, très réglementé et particulièrement innovant. J’ai ensuite rejoint le groupe chimique Solvay à Bruxelles où j’ai travaillé dans un environnement multiculturel pendant 7 ans. J’ai eu ensuite l’envie de suivre mes aspirations personnelles pour rejoindre mon secteur de prédilection : celui de la santé. Je suis désormais chez Roche depuis 2014, une entreprise centrée sur l’innovation et dont l’éthique et les valeurs sont au cœur des projets. Quels sont les grands challenges et axes de développement qui se dessinent au sein de la Direction juridique de Roche pour les prochaines années ? Roche est une entreprise pharmaceutique mondiale dont l’ambition est de développer des médicaments pour améliorer la prise en charge des patients atteints de cancers, de maladies inflammatoires, de maladies psychiatriques, ou encore de maladies infectieuses. Ce virage numérique introduit une transformation digitale profonde de l’entreprise et un changement de paradigme qui intervient tant sur l’organisation interne que sur les modèles d’affaires. Cette transformation introduit à la fois de nouvelles opportunités pour l’ambition numérique et fait émerger des problématiques juridiques et éthiques associées. En effet, les enjeux sur la protection des données, le respect de la vie privée et des données de santé, la transparence des algorithmes vis-à-vis de nos parties prenantes n’ont jamais été tant évoqués. Nos axes de développement en tant que juristes sont orientés vers ces nouvelles problématiques : numérique et santé, éthique du digital, données de santé. Notre challenge est de fédérer à un niveau stratégique de l’entreprise sur ces sujets qui vont au-delà d’une simple conformité impulsée par la Direction Juridique. Vous avez-vous-même suivi le programme certifiant Digital Ethics Officer de l’EDHEC en 2022, quelles compétences nouvelles cette formation vous a-t-elle permis d’acquérir ? Le programme certifiant Digital Ethics Officer est incontournable et tout à fait complémentaire d’une formation classique en Droit des Affaires/Droit des Données Personnelles. Du point vue organisationnel, la formation donne les clés pour anticiper les contraintes réglementaires (ex. Règlement européen sur l’IA) et adapter son organisation à des modèles de risques. Pourriez-vous citer un atelier ou une intervention qui vous a particulièrement marqué dans ce programme, et pour quelle raison ? L’intervention de Mona Caroline Chammas, avocate fondatrice du cabinet Govern&Law m’a interpellée. A priori, nous pensons que le droit et la technologie sont des domaines diamétralement opposés. Or, le droit et la technologie ont en commun qu’ils façonnent la façon dont les individus agissent et interagissent entre eux et avec l’écosystème. La complexité de la technologie (ex. algorithmes peu transparents) et l’automatisation des décisions apportées par cette même technologie peuvent conduire à des biais et des atteintes au respect des droits fondamentaux. Il est donc urgent de réconcilier droit et technologie en promouvant une approche d’”Ethics by design” dans les projets innovants embarquant de l’IA. Le recours à l’Intelligence Artificielle fait-il partie des outils de développement mis en place ou prévus dans votre entreprise ? Si oui, quels sont les risques que vous devez anticiper sur les plans juridique et éthique ? Le recours à l’IA soulève un certain nombre de questions : celle de l’utilisation massive de données de santé pour faire fonctionner un algorithme, ou encore celle des droits fondamentaux des personnes qui peuvent être impactés. Il est souhaitable pour Roche d’identifier et d’examiner en permanence les risques liés à ses solutions d’IA, d’atténuer ces risques, et de maintenir un plan d’intervention en cas d’échec des mesures d’atténuation. C’est le sens des dispositions du projet de Règlement Européen sur l’IA qui requiert notamment un “système de gestion de la qualité” comprenant entre autres, “un système de gestion des risques” et “un système de surveillance après commercialisation”. Documenter ce processus par le biais d’un examen périodique de l’impact des risques peut contribuer à développer la clarté et la confiance nécessaire dans l’utilisation par Roche de solutions d’IA. Cela aidera également Roche à répondre à des questions soulevées par les patients, aidants, médecins, régulateurs, etc.; à faciliter l’adoption des solutions IA par ces mêmes parties prenantes et à rendre l’entreprise plus compétitive. En termes de ressources humaines : La gestion des enjeux éthiques et juridiques de l’IA et/ou de la data nécessite-t-elle d’envisager de nouveaux recrutements, de rechercher de nouveaux types de profils ? Au-delà des nouvelles expertises juridiques qu’il conviendrait de renforcer (ex. Droit des nouvelles technologies), je pense que la clé pour une Direction Juridique pour appréhender les enjeux juridiques de l’IA et de la data est d’être en capacité d’interagir avec les décideurs, ingénieurs, programmeurs… au sein de l’organisation, en vue de garantir la dimension éthique des projets data et IA. |