Mis en ligne dans /Articles/

Acceptabilité sociale ou contrôle public de l’usage des IA dans les bases de données de santé ?

Acceptabilité sociale ou contrôle public de l’usage des IA dans les bases de données de santé ?

   

pdf

 

Transfinis - Janvier 2024

   


 

Texte de la communication en juin 2022 présentée au colloque Acceptabilité sociale et usage des IA : entre ignorance, indifférence et utilité publique », org. B. Legros, actes parus chez LEH Editions

   

L’acceptabilité sociale des Intelligences Artificielles (IA) dans les Bases de Données de Santé Massives (BDSM) semble être, pour l’instant, un fait. Aucune contestation forte ne s’est manifestée. Néanmoins, au vu des implications de ces technologies - que les experts peuvent en partie prévoir -, et parce que celles-ci, pour fonctionner, ébranlent les repères du consentement individuel et de la frontière entre soin et recherche, il semble nécessaire de définir, avec elles, tout un pan de notre droit.

On voudrait ici montrer que l’usage des IA dans les BDSM remet en cause non seulement le droit de la santé, mais tout un modèle du droit, de la politique et de la société, corrélatif du paradigme de « l’acceptabilité sociale ». Les tensions entre consentement individuel et collectif, savoir expert et ignorance profane, intérêts privés et intérêts publics, ne sont pas seulement exacerbées par l’usage des IA dans les BDSM. Cet usage implique un basculement à un pôle ou l’autre de ces tensions, sans qu’un compromis ne paraisse possible.

C’est pourquoi, plutôt que le modèle de l’acceptabilité sociale, qui repose sur la priorité des savoirs experts et la confiance en les intérêts privés, on défendra ici un modèle public et open source des IA et des BDSM. Celui-ci paraît seul à même de garantir, à partir de la publicité des problèmes généraux ou particuliers qui se posent, une réelle gouvernance politique et scientifique des innovations techniques et conceptuelles à venir, et ainsi la formulation d’un droit conséquent et pérenne.

On procédera en trois temps. On reviendra d’abord sur le paradigme de l’acceptabilité sociale, comme conceptualisation possible des rapports entre privé et public, dans le domaine des connaissances, des techniques et des rapports socio-politiques. Puis nous montrerons comment ce paradigme ne permet pas de résoudre certains problèmes posés par l’usage des IA dans les BDSM, notamment la révision des diagnostics ou la production de diagnostics rétrospectifs provoqués par l’entraînement des IA. Enfin, nous verrons pourquoi il nous faut choisir entre deux modèles - l’un de l’acceptabilité, l’autre de la publicité, sans compromis possible. De ce choix, dépend sans doute notre conception de la forme et du contenu du droit destiné à encadrer les sciences et techniques.

   

I L’acceptabilité sociale comme paradigme des nouvelles technologies

« Accepter » appartient au même réseau sémantique que « consentir ». Acceptare avait en latin la même signification que consentir. Le terme renvoie à une forme de méconnaissance, de réceptivité et de passivité, pour ne pas dire de compromis forcé. Un de ses premiers emplois portait sur la forme à accorder aux lettres de change et, de manière plus révélatrice encore, sur le fait d’accueillir de manière répétée un hôte1. Autrement dit, l’acceptabilité n’a pas la rationalité comme fondement : on est, par exemple, « d’accord » avec un résultat de mathématiques, il ne s’agit pas de l’accepter. D’autre part, l’acceptation ne correspond pas nécessairement à une souscription pleine et entière. On peut, par compromis ou tolérance, accepter les pratiques d’une personne sans cependant les approuver. Toutefois, on doit enfin noter que, à la différence du consentement, l’acceptation peut porter sur une infinité de choses, pour une infinité de motifs, et qu’elle est aussi étroitement liée aux conjonctures. Nous consentons à des choses qui nous engagent essentiellement - par exemple à un mariage -. Mais nous pouvons accepter d’agir pour des raisons variables, éventuellement futiles - accepter de se marier n’est en ce sens pas la même chose que consentir au mariage.

Sur ces bases, on peut mieux présenter ce que suppose l’acceptabilité sociale, comme concept politique et juridique. On cherche par ce modèle à rendre possible de nouveaux dispositifs sociaux ou techniques, malgré leurs désagréments probables, et plus largement malgré la part d’inconnu qui accompagne leur mise en place, sans présenter les choses comme l’instauration d’un nouveau système, sans non plus prétendre pouvoir se justifier par une rationalité sans faille2.

L’acceptabilité sociale vise de la sorte, dans le cadre d’une gestion des risques, à faire s’établir auprès du public des dispositifs élaborés par des techniciens, des scientifiques, en un mot par des experts, malgré une part de risques mal identifiés et maîtrisés3. Le ressort principal de l’acceptabilité est ainsi de faire s’ajuster les intérêts, ceux portés par les experts et ceux défendus par le public. Cet ajustement va consister à déterminer les limites possibles des usages, quels sont les bons et les mauvais, à partir des prévisions expertes et des souhaits, des craintes ou des expériences, du public. L’acceptable naît de la conciliation d’une ignorance partagée dans le respect de la liberté individuelle pour définir l’intérêt collectif.

L’idée générale de l’acceptabilité est qu’une certaine ignorance caractérise les différents groupes sociaux face à l’innovation, mais qu’elle traverse aussi chacun d’eux. Les experts ne savent pas tout, parce qu’ils ignorent certaines expériences faites par le public. Le public, quant à lui, méconnaît une bonne part du fonctionnement technique et scientifique des innovations. Il faut ajouter à ces deux lacunes que, même d’un strict point de vue techno-scientifique, les experts ne peuvent être assurés avec certitude de toutes les conséquences de ce qu’ils mettent en œuvre, tout comme les usagers des dispositifs techno-scientifiques peuvent y voir des dangers ou des avantages divers, sans savoir ce que les autres usagers en pensent. Il convient donc d’échanger des informations et des points de vue, pour parvenir à quelque chose qui soit « acceptable », dans la mesure même où les bases de l’accord obtenu sont destinées, a priori, à rester incomplètes. L’acceptabilité sociale appartient en cela au régime de la démocratie libérale d’opinion (par ses appuis sur la forme du consentement), où elle cherche à donner une forme au règlement aux questions posées par la technoscience (forme de l’expertise) en vue d’assurer le bien commun (défini comme un calcul d’intérêt public).

En résumé, l’acceptabilité sociale désigne donc une méthode collective de gestion des risques techniques et institutionnels, par une réflexion sur les usages, les savoirs experts et les créations d’ingénieurs. Elle part des savants et va jusqu’au public ou inversement, suivant que la mise en œuvre des projets précède leurs critiques ou les suit, aux cours d’échanges organisés par le filtre du droit, de l’éthique et d’autres médiations (d’enquêtes, d’éducation, de communication, etc.).

Étant donné leur haut degré de technicité et de scientificité, les nombreux inconnus qu’ils ouvrent, l’usage des IA dans les BDS peut pleinement relever de ce paradigme socio-politique. Certes, il est possible que cet usage soit actuellement toléré par ignorance du public ou à cause de son impuissance à refuser les risques pris, compensée par des bénéfices possibles. Cependant, il semble nécessaire, pour l’avenir, d’en cadrer les usages, en recourant par exemple à l’acceptabilité sociale.

Dans ce tableau, il faut le noter, le fait technologique précède le droit. Celui-ci, tendanciellement, n’intervient que comme régulateur a posteriori, sous la forme de l’assurance et du droit pénal. Si ce caractère d’a posteriori n’est pas exceptionnel, il ne va pas sans difficultés dans le cas des nouvelles technologies. Il faut en effet que le droit s’approprie sans cesse des données scientifiques complexes, nombreuses, disparates, et en devenir constant - génétiques, par exemple4. Une logique de la particularisation et surtout de la révisabilité est ainsi à l’œuvre, dont la révision programmée des lois de bioéthique est un signe5, et où l’horizon de la loi comme cadre fixe, général et a priori semble s’éloigner. C’est un point sur lequel il faudra revenir.

   

II Les impasses de l’acceptabilité sociale pour l’usage des IA dans les BDS

On peut cependant douter de la pertinence du modèle de l’acceptabilité sociale pour réguler efficacement l’usage des IA dans les BDSM. Cet usage n’est en effet pas seulement à considérer d’un point de vue quantitatif, comme un simple changement d’échelle, bien que les termes que nous employons actuellement le suggèrent (« big data » ou « deep learning »). Le caractère potentiellement totalisant des données collectées, afin de constituer un savoir sur la santé constitue bien un problème neuf, inédit, chargé d’enjeux qualitatifs ou axiologiques nouveaux6. C’est ce qu’on peut d’abord montrer au travers de deux exemples particuliers - celui de la correction des diagnostics par les IA et celui de production de diagnostics rétrospectifs par ces mêmes IA -. On peut à partir de là faire apparaître l’insuffisance du paradigme de l’acceptabilité sociale pour résoudre les problèmes généraux et systématiques qui se posent.

 

A Le problème des diagnostics erronés ou rétrospectifs

Soit le premier exemple, celui de la correction de certains diagnostics par les IA. L’entraînement de celles-ci se fait d’une part sur des données collectées antérieurement, d’autre part par la mise en comparaison du résultat de leurs calculs avec certains résultats types, considérés comme exacts. Nous transmettons certains repères de validité aux circuits de neurones électriques, pour que ces réseaux sculptent une partie de leur fonctionnement à leur manière, mais en fonction de nos repères. Si les IA, par exemple, doivent traverser des millions d’images, c’est pour y reconnaître ce que nous y reconnaissons - des vélos ou des tumeurs7. Or, au fur et à mesure de leur parcours des bases de données, les IA peuvent y identifier des choses dont la présence nous a échappé. Cela peut être des formes de vélos dans les ridules d’un étang - et les IA nous semblent alors faire de l’art. Cela peut être aussi des formes de tumeurs dans des données d’imagerie médicale - et les IA peuvent ainsi confirmer ou infirmer des diagnostics précédemment formulés par des médecins à partir de ces images.

La difficulté est ici que si les IA infirment un diagnostic antérieur et que la validité de cette infirmation est établie d’une manière ou d’une autre, c’est également une erreur de diagnostic qui est établie. Il semble qu’il faille en avertir le patient concerné. Mais faut-il accuser l’humain qui avait mal perçu ?

Le second problème n’est pas tout à fait le même, mais repose sur les mêmes bases techniques des IA. Il peut arriver qu’elles fassent leur apprentissage en parcourant d’anciennes données de santé, mais en disposant corrélativement de données plus récentes. Le parcours de données génétiques stockées en 2010 peut se faire, par exemple, avec les catégories et les corrélations de la génomique de 2023, ce qui peut révéler des risques de maladie ou des maladies qu’on ne pouvait pas détecter en 2010.

Il n’y a pas alors d’erreur de diagnostic. Mais ce qui pouvait sembler évident dans le premier exemple ne l’est plus avec le second. Faut-il, en effet, en cas de détection de nouvelles pathologies ou de risques pathologiques à l’occasion d’un diagnostic rétrospectif, en avertir la personne concernée, voire sa parentèle ?

Ces questions ne sont pas des projections imaginaires, mais se posent actuellement, et sont impliquées par les principes de fonctionnement des IA. Il s’agit aussi de questions nouvelles, pour lesquelles aucune réponse n’est encore clairement formulée. En droit, elles mettent, entre autres, à mal la distinction entre ce qui relève du consentement à la recherche et ce qui relève du consentement au soin8. Elles ne peuvent pas être résolues d’un point de vue technique : il est de la nature des IA de fonctionner à partir de données assemblées dans d’autres buts que celui de faire fonctionner les IA. Et des questions éthiques essentielles et multiples s’ouvrent ainsi à nouveaux frais : celles de la caractérisation des erreurs médicales, du consentement des patients, du droit à l’information ou à l’ignorance.

 

B Pistes de solutions à partir de l’acceptabilité sociale et accentuation des problèmes

Quels éléments de réponse permet d’envisager le paradigme de l’acceptabilité sociale ? Il consiste à allier, rappelons-le, le contrôle expert et le respect des libertés individuelles, face à une ignorance partagée, en vue de définir l’intérêt collectif.

En tant qu’une part des problèmes inédits relèvent de l’erreur et de sa correction, c’est sans doute la mise en avant des savoirs experts qui devrait être privilégiée. Des pairs pourraient établir des normes pour fixer ce que signifient ces erreurs : soit une erreur fautive, soit non fautive. Pour la part des problèmes qui relèvent de la transmission des informations aux patients (droit à savoir ou à l’ignorance), c’est probablement la liberté individuelle des patients qui devrait être privilégiée pour fonder un droit à l’ignorance, tandis que l’intérêt général pourrait impliquer un consentement par défaut à l’usage des données collectées au cours d’un soin, afin que la recherche et les techniques médicales puissent poursuivre leurs progrès.

Ces éléments de solution, que permet de dessiner la recherche d’une acceptabilité sociale de l’usage des IA dans les BDSM et qui seront probablement les nôtres, vont rencontrer des difficultés déjà connues, mais aussi d’autres, sinon inédites, du moins pour lesquelles les IA vont obliger formaliser plus rigoureusement certains cadres

Ainsi, le recours aux comités d’experts, dans le cadre hautement conflictuel des erreurs de diagnostics, va renforcer leur pouvoir et, par là, les antagonismes auxquels ces comités devront faire face. Le problème est connu. Mais qu’il se pose avec les IA et les BDSM va, d’une part, multiplier les types d’experts à solliciter et à accorder entre eux. Les médecins ne pourront pas être les seuls juges. Il faudra aussi, par exemple, en appeler au jugement d’informaticiens et de statisticiens pour décider, notamment, des taux d’erreurs acceptables - qu’il s’agisse des erreurs des IA ou des humains.

D’autre part, va aussi se reposer, dans des formes nouvelles, la question de l’égalité de l’accès et de l’usage des moyens de soin. Où, dans quel hôpital, aura t-on pu faire passer des IA sur les données des patients, ou seulement des humains, ou à la fois des humains et des IA, alors que ces différentes combinaisons donneront une fiabilité des diagnostics plus ou moins élevés ? Tous ces problèmes, sont techniques, juridiques, éthiques, mais aussi, il convient de le noter, politiques : ils engagent des rapports entre professions, entre institutions, et pas seulement entre les patients et les soignants.

Les éléments de solutions fondés sur le respect de la liberté individuelle d’un côté et la recherche de l’intérêt collectif de l’autre risquent de provoquer des questions encore plus profondes.

Supposons le refus d’être informé instauré en matière de génétique. Il ne vaudrait pas grand chose, par les recoupements possibles, la circulation autorisée des informations, les conversations du quotidien, si la majorité des gens choisissait d’être informé. Quel sera le choix du plus grand nombre, et comment déterminer nos règles en fonction de ce choix, et même dans l’attente hypothétique de ce choix ? Un éventuel droit à l’ignorance, en outre, ne réglerait pas les questions liées au droit d’être informé en matière génétique, qui suscite actuellement les plus grandes contorsions et beaucoup de bricolage dans les corpus juridiques9.

Ces difficultés, dira t-on, ne sont pas spécifiques Elles sont liées à l’information génétique en général. Les BDSM et les IA ne font que les étendre. Cependant, celles-ci ne produisent pas seulement de nouvelles informations sur la génétique. Elles permettent également d’envisager et d’identifier des biomarqueurs en très grand nombre, de nature très variable. Or, suivant leur nature, qui n’est pas nécessairement génétique, ces biomarqueurs peuvent porter sur des relations entre les personnes qui ne sont pas du même ordre que celles exprimées par la génétique, et qui n’engagent donc pas les mêmes réflexions juridiques et éthiques10. Soit, par exemple, les biomarqueurs microbiotiques. Là où des informations génotypiques fournissent un savoir sur les parentèles à partir des relations de procréation, des informations sur le microbiote touchent à l’environnement : dans le cas des maladies causées aux étiologies environnementales, le recoupement des informations microbiotiques impliquerait non seulement la parentèle biologique, mais plus largement tous les proches dans le quotidien des personnes, le voisinage, etc.

Les repères que permettent de fixer le recours au consentement individuel rencontre ici ses limites, tout comme celui de la seule expertise en matière de correction de diagnostic, en tous cas dans le cadre qui est celui de l’acceptabilité sociale. Il convient alors d’envisager d’autres modèles. C’est ce que nous allons essayer d’esquisser pour finir, à partir d’une analyse critique des pistes actuellement explorées par le Comité National d’Éthique (CCNE).

   

III Dynamiques privées ou politiques publiques ?

A Un basculement en faveur de l’expertise et d’un consentement global ?

Les différents problèmes posés par l’usage des IA dans les BDSM peuvent être rassemblées autour de trois questions clés:

On peut croire que ces rapports, toujours traversés de tensions, se transforment actuellement en alternatives. L’accroissement quantitatif qui caractérise l’usage des IA dans les BDSM, en termes de vitesse et de taille, semble provoquer un changement qualitatif par effet de seuil, en faveur des pôles de l’expertise, de l’information et de l’intérêt collectifs, de telle sorte que les cadres par lesquels nous nous orientons habituellement paraissent révolus (telle que la recherche d’un « équilibre » des intérêts à partir de l’idée de « risque »).

C’est ce qu’illustrent, par exemple, l’avis 143 du CCNE qui tient essentiellement en trois propositions12.

  1. Suivant la recommandation n°17, un altruisme en matière de données (p. 49), qui suppose une mise à disposition de ses données personnelles, par un consentement global, corrélé avec une information actualisée au fur et à mesure des usages qui seraient faits de ces données.

  2. Un recours aux associations de malades pour garantir la bonne information et le bon usage des données. C’est la figure du patient expert qui est convoquée ici, sous une forme citoyenne (recommandation n°21).

  3. Une prise en compte de coûts et des bénéfices produits par les dons de données (p. 54), grâce auxquels les BDSM peuvent être constituées et utilisées (recommandations n°13, n°14, n°15)

On ne peut que remarquer le flou constant de cet avis du CCNE, sur des points pourtant cruciaux. Sur la forme exacte du consentement général, il n’est pas dit comment il convient de l’obtenir, même s’il n’est pas affirmé non plus qu’il doit être posé par défaut. Sur l’origine des capacités de contrôle attribuées aux associations de malades ou d’éventuelles structures juridiques plus larges, rien n’est dit non plus, pas plus que sur les méthodes de fixation de la valeur des données de santé.

Cet avis se comprend certes très bien à partir des cadres de l’acceptabilité sociale et de leur recherche d’une maximalisation de tous les éléments en jeu : maximalisation du consentement, à partir des libertés individuelles, mais pour le maximum de monde ; maximalisation des informations produites comme de leur contrôle, malgré une perspective indépassable d’impossibilité de contrôle total par qui que ce soit ; maximalisation des intérêts par valorisation et partage de la valeur. Cette logique de maximalisation, il faut le noter, est aussi un décalque de la logique de fonctionnement des IA dans les BDSM. Plus il y a de données et d’algorithmes, plus les échantillons sont fiables et les hypothèses testées, ce qui conduit par exemple actuellement à donner un accès direct aux différentes bases de données dans leur totalité aux chercheurs13.

 

B L’ignorance au cœur d’arguments inconséquents ou contradictoires

Cependant, les arguments par lesquels cette orientation est défendue ne sont pas du tout équilibrés, et parfois même inconséquents

Un des arguments donné en faveur d’un consentement général est que le consentement particulier des personnes serait très fragile, notamment à cause de leur inégalité face aux informations qu’elles reçoivent et comprennent, et même face aux dispositifs de consentement qu’on leur propose14. Sa forme serait donc inappropriée, face aux promesses des IA qu’un « altruisme numérique » permettrait de soutenir efficacement15. Mais comment comprendre que l’on puisse, à partir de là, passer à la préconisation d’un consentement global de tout un chacun, au nom de l’intérêt collectif ? Soit ce qui compte est que les personnes sont inégales, soit qu’elles sont égales, mais l’on ne peut aller directement de l’une à l’autre de ces propositions. Il y a là une contradiction de principe, qui est aussi une inconséquence politique : ignorants, les gens le seraient toujours, et ainsi toujours exposés au risque de l’exploitation de leurs données, sans que la forme de leur consentement ne change rien à l’affaire. Qu’il soit particulier ou général, un consentement par ignorance n’est jamais libre et éclairé, comme il est censé l’être pour avoir de la valeur.

On voit mal également en quoi des contrôles experts organisés par des organismes experts seraient une bonne garantie de contrôle de l’usage des IA dans les BDSM. Le problème est connu : qui gardera les gardiens ? Il n’est pas résolu par le recours aux associations de malades. En effet, les recherches qui se font à partir des IA dans les BDSM peuvent être étrangères à des investigations sur telle ou telle maladie. Dans bien des cas, les recherches n’intéressent donc aucune association de malades en particulier - ou alors beaucoup trop -, s’il est par exemple question du codage de certaines protéines ou des rapports entre durée des trajets dans l’hôpital et vitesse de guérison.

 

C Comités d’experts, contrôle public

Si les arguments donnés par le CCNE sont fragiles, les horizons qui sont dessinés sont en revanche clairs. Qu’il s’agisse de dépasser la fragilité des consentements particuliers, toujours entachés d’obscurité, dans un consentement global, ou de recourir à des groupes de patients experts qui ne pourront l’être que très partiellement, ou même de fixer la valeur économique des données, c’est une montée en puissance des savoirs experts les plus spécialisés qui s’annonce, en suivant finalement un principe très simple face à la prolifération des informations et des données : seules les personnes savantes parviendraient à utiliser au mieux les informations et à les diffuser d’une manière pertinente et utile16.

Cette idée est familière en médecine, et elle se défend parfaitement dans le domaine médical. Mais, encore une fois, l’usage des IA dans les BDSM dépasse les cadres habituels, dont ceux de la médecine. Qui peut se prétendre expert de ces usages ? Le médecin ? Le généticien ? Le biologiste ? L’informaticien ? Le statisticien ? Le sociologue ? L’éthicien ? Et, si personne ne semble l’être, pourquoi tout le monde ne le serait-il pas un peu ? C’est bien une forme de contrôle de tous qu’il faudrait imaginer, sans pouvoir en tous cas légitimer les contrôles experts avec les arguments habituels. Les BDSM ne sont pas des centrales nucléaires, ou les IA des formules de composition chimiques. Elles sont techniquement infiniment plus composites, aux éléments et aux conséquences tout aussi variables.

Face à la complexité scientifique et technique, l’idée d’un contrôle public pourrait paraître généreuse dans son principe, mais désastreuse dans son application. Mettre à disposition du tout venant les informations sur les recherches en cours et sur les types de données employées, cela n’ouvre t-il pas la porte aux controverses les plus stériles, voire aux tentatives les plus farfelues, en exposant ainsi les sociétés à des tensions et à des dangers énormes ? Mieux vaudrait faire les choses à l’abri des regards, et ne livrer au public que ce qui peut l’être, c’est-à-dire essentiellement, des résultats et des techniques utiles en pratique pour lui.

À bien y réfléchir, ce type d’argument est étrange, et profondément paradoxal. Afin d’empêcher des manipulations mauvaises ou mal intentionnées, il consiste à cacher les mains qui manipulent, de telle sorte que la sécurité publique devrait être assurée par le recours au privé - au sens originel de ce mot, le privé étant ce dont le public est privé. Les débats sur la régulation des IA portent aujourd’hui sur ces points : il s’agit non pas d’empêcher les IA, mais leurs mauvais usages, le tout étant de savoir comment, la fermeture de ces technologies au public étant tantôt un élément de solution, tantôt un élément du problème, suivant que l’on mette l’accent sur le contrôle par réduction des usages ou sur le contrôle par détection des usages.

L’efficacité des contrôles par le public et par la publicité des savoirs et des techniques ne doit certes pas être défendue de manière simpliste. Mais l’on peut relever que, factuellement d’abord, ce type de contrôle a fait et continue de faire ses preuves. La sécurisation des transferts d’information sur internet, bancaires ou autres, via le protocole « https » qui en chiffre le contenu, repose actuellement pour la grande majorité des sites sur un algorithme logiciel dont chacun peut lire le code, et que chacun peut utiliser, Openssl17.

Il convient ensuite de ne pas se méprendre sur les raisons pour lesquelles un tel principe de contrôle public pourrait être efficace pour l’usage des IA dans les BDSM. Il ne s’agit pas d’invoquer une rationalité collective, produite par son exercice public18. Le caractère hypothétique de cette rationalité, d’horizon plus que de réalité doit toujours être présent à l’esprit. S’il l’on peut malgré cela défendre l’efficacité d’un tel contrôle public, c’est bien plutôt en reprenant un des arguments clés de ceux qui y sont opposés. S’il est vrai que les gens ne comprennent pas, n’ont pas prise et ne s’intéressent pas aux savoirs fondamentaux en biologie, on ne peut certes pas rêver à l’ appropriation collective spontanée de ces savoirs à partir de leur publicité. Mais on ne doit pas alors craindre non plus que chaque recherche fasse l’objet de débats inconséquents ou de mauvaise foi. C’est plutôt par le biais d’alertes, puis de diffusion de ces alertes en fonction de leur pertinence, que les contrôles se feraient.

Un tel contrôle public ne résout évidemment pas toutes les questions, par exemple celles de l’anonymisation ou de la pseudonymisation19. Mais, d’une part, s’il s’agit de favoriser des concentrations et des recoupements, suivant une logique de maximalisation, ce type de contrôle y contribue au moins tout autant que le jeu des intérêts privés en concurrence, ce qui garantit aussi la production de valeur (dont il faudrait penser les modalités de partage).

D’autre part, ce contrôle change les problèmes. Sur les modalités de consentement ou sur l’établissement d’un droit à l’ignorance d’éventuels diagnostics rétrospectifs, la publicité de ces questions, au cas par cas, peut permettre de les modifier, en ne les limitant pas à leurs aspects scientifiques, techniques et économiques. Par exemple, le question de la temporalité des interventions médicales est un problème très ancien, et récurrent en médecine. Quand faut-il opérer ou agir ? Cette temporalité n’appartient ni à la science, ni à l’informatique, où le temps n’a de valeur que résiduelle. C’est pourquoi, alors que la science et l’informatique modifient effectivement cette temporalité, on peut croire que celle-ci ne pourra être redéfinie, avec ses temps d’ignorance, de déni, de refus, etc. que par une réflexion publique qui n’appartient ni à la science, ni aux données.

Et c’est dans un tel cadre, peut-être, que le droit de la santé pourrait non plus se formuler essentiellement a posteriori, mais pourrait reposer sur certains principes généraux et pérennes, solides au milieu des innovations technoscientifiques20.


  1. Alain Rey, Le Robert, Dictionnaire historique de la langue française, Paris, Dictionnaires Le Robert, 1992, article « Accepter ».↩︎

  2. Voir par exemple Gouvernement du Québec, « Acceptabilité sociale », 2023, < https://www.quebec.ca/gouvernement/politiques-orientations/acceptabilite-sociale >.↩︎

  3. Ulrich Beck, La société du risque, sur la voie d’une autre modernité, Paris, Flammarion, 2008.↩︎

  4. Voir Bérengère Legros, « Révélation des caractéristiques génétiques constitutionnelles et séquençage pangénomique, le regard de la juriste », Revue générale de droit médical, Paris, LEH Éditions, 2020, p. 57‑82.↩︎

  5. Loi n° 2011-814 du 7 juillet 2011 relative à la bioéthique↩︎

  6. C’est peut-être en psychiatrie que cette recherche de totalisation va le plus loin, voir Christophe Gauld, Steeve Demazeux et Elodie Giroux, Promesses et limites de la psychiatrie de précision, enjeux pratiques, épistémologiques et éthiques, Paris, Hermann, 2023.↩︎

  7. Yann Le Cun, Quand la machine apprend, Paris, Odile Jacob, 2019 ; Yann Goodfellow, Yoshua Bengio et Aaron Courville, Deep Learning, Cambridge, MIT Press, 2016.↩︎

  8. Voir sur ce point le texte de Robin Cremer dans ce volume, « Recherche sur données biomédicales : un consentement impossible à refuser ? ».↩︎

  9. Voir par exemple en droit allemand Sylvie Deuring, « Les examens génétiques en droit allemand », Revue générale de droit médical, Paris, LEH Éditions, 2020, p. 137‑150.↩︎

  10. Xavier Guchet, La médecine personnalisée : un essai philosophique, Paris, Les Belles Lettres, 2016.↩︎

  11. Jean-Philippe Pierron, La fabrique du consentement. Comprendre. Accepter. Consentir., Lormont, Le Bord de l’Eau, 2022.↩︎

  12. Comité Consultatif National d’Ethique pour les Sciences de la Vie et de la Santé et Comité National Pilote d’éthique du numérique, Plateformes de données de santé : enjeux d’éthique, Paris, https://www.ccne-ethique.fr/, 2023.↩︎

  13. Voir par exemple Health Date Hub, Décret SNDS : le Health Data Hub voit ses capacités d’actions renforcées, https://www.health-data-hub.fr/actualites/decret-snds, Health Data Hub, 2021.↩︎

  14. Voir CCNE, Plateformes…, op. cit., p. 47-49, notamment p. 49.↩︎

  15. Ibid., p. 51-54.↩︎

  16. Jürgen Habermas, La science et la technique comme idéologie, Paris, Gallimard, 1973.↩︎

  17. https://www.openssl.org/↩︎

  18. Jürgen Habermas, Théorie de l’agir intercommunicationnel, Paris, Fayard, 1987.↩︎

  19. Voir à ce sujet la page du Health Data Hub < https://documentation-snds.health-data-hub.fr/snds/glossaire/pseudonymisation.html >↩︎

  20. Alain Supiot, Homo Juridicus, Essai sur la fonction anthropologique du droit, Paris, Seuil, 2005.↩︎