top of page
Thomas Cole, Course of Empire,  The Oxbow, 1836

Législation, Ethique & Déontologie

L’encadrement juridique de l’intelligence artificielle vise à concilier innovation et protection des droits fondamentaux. Avec l’AI Act adopté en 2024, l’Union européenne établit le premier cadre mondial fondé sur le niveau de risque des usages. En santé au travail, où l’IA peut influencer des décisions sensibles liées à la santé ou à l’emploi, cette réglementation impose une vigilance accrue en matière de sécurité, de transparence et d’éthique. 

 

 

Sur le Plan Juridique

L’usage de l’intelligence artificielle en santé au travail s’inscrit désormais dans un cadre juridique clair, à la fois européen et national, qui impose aux professionnels une vigilance accrue quant à la protection des données et à la responsabilité des décisions.

 

Au niveau européen, le Règlement sur l’intelligence artificielle (AI Act), adopté en 2024, établit le premier cadre mondial fondé sur le niveau de risque des usages. Il classe notamment les applications de l’IA liées à la santé, à l’évaluation des aptitudes ou à la gestion du personnel comme des systèmes à haut risque, soumis à des exigences strictes: supervision humaine obligatoire, transparence du fonctionnement, traçabilité des décisions et contrôle de la qualité des données. L’objectif est de garantir que l’IA reste un outil d’aide à la décision (et non un substitut) dans des domaines où les enjeux humains, médicaux et sociaux sont considérables.

En parallèle, le Règlement général sur la protection des données (RGPD) continue de s’appliquer pleinement à tout traitement automatisé de données personnelles, et plus encore lorsqu’il s’agit de données de santé, considérées comme sensibles. Chaque utilisation d’un outil d’IA doit ainsi reposer sur un fondement légal clair, respecter les principes de finalité déterminée, de minimisation des données, de transparence et de sécurité, et faire l’objet, dans la plupart des cas, d’une analyse d’impact sur la vie privée (AIPD). Les salariés doivent être informés de manière compréhensible du rôle de l’IA dans les traitements les concernant, de la logique de fonctionnement du système, et de leurs droits d’accès, de rectification et d’opposition.

Sur le plan éthique et déontologique

L’introduction de l’intelligence artificielle dans la santé au travail soulève des enjeux déontologiques majeurs: confidentialité, responsabilité, autonomie professionnelle et équité. Ces questions ne sont pas accessoires; elles touchent à la nature même de la relation de confiance entre le médecin du travail, le salarié et l’employeur.

1. Confidentialité et secret médical

Le secret médical est l’un des fondements de la pratique médicale. Or, l’utilisation d’outils d’IA implique la circulation et l’analyse de données sensibles, souvent hébergées sur des serveurs tiers.

 

Chaque transfert ou traitement algorithmique expose un risque de fuite ou de réidentification, même lorsque les données sont pseudonymisées.


D’un point de vue déontologique, le médecin du travail demeure pleinement responsable de la confidentialité de toute information transmise à ou par un système d’IA.


L’IA ne peut donc être qu’un assistant, jamais un réceptacle autonome de données médicales, sauf si la gouvernance, la sécurisation et le consentement du salarié sont strictement garantis.

2. Autonomie et responsabilité du praticien

L’article R.4127-5 du Code de la santé publique stipule que le médecin «Le médecin ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit ». L’IA ne doit pas devenir un substitut décisionnel, mais un outil d’aide à la réflexion.

 

Le risque, si l’on s’en remet trop à un modèle prédictif, est de glisser vers une déresponsabilisation, où l’humain devient simple validateur d’un « raisonnement » élaboré par une machine.

 

Déontologiquement, le médecin du travail doit pouvoir expliquer, contester ou corriger une suggestion émise par l’IA, et surtout motiver ses choix en conscience, ce qu’aucun algorithme ne peut faire à sa place.

3. Biais, équité et justice

Les modèles d’IA apprennent sur des données historiques, souvent biaisées.


Dans un contexte professionnel, cela peut se traduire par des recommandations discriminantes: par exemple, des corrélations implicites entre certains métiers, genres ou pathologies.


Appliquer ces systèmes sans correction reviendrait alors à institutionnaliser les biais passés.


Sur le plan éthique, il incombe donc au médecin et au service de santé au travail de questionner la provenance et la représentativité des données, et d’exiger une transparence algorithmique avant toute utilisation.

4. Consentement et information des salariés

L’usage de l’IA en santé au travail impose une transparence totale vis-à-vis des salariés.


Ils doivent savoir: quelles données sont utilisées, à quelles fins, avec quel degré d’automatisation, et quelles en sont les limites.


Un outil d’IA appliqué à l’évaluation de poste ou à la rédaction de préconisations doit être présenté comme un outil de soutien médical, non comme un dispositif de surveillance ou de sélection.

 

Sans cette clarté, on risque d’éroder la confiance, pourtant essentielle à la relation de soin et de prévention.

5. Humanité et finalité du soin

 

Enfin, la question éthique la plus fondamentale demeure: quelle place laissons-nous à

la rencontre humaine ?


La santé au travail ne se réduit pas à une analyse de risques ou à une suite de décisions rationnelles; elle est aussi un dialogue, un accompagnement.


L’IA, aussi performante soit-elle, ne perçoit ni la détresse, ni la nuance, ni la complexité des contextes sociaux.


Son usage doit donc être instrumental, non normatif. Elle éclaire, mais ne remplace pas la pensée critique.


Autrement dit, la finalité de l’IA en santé au travail n’est pas de dire à notre place, mais de mieux nous permettre de comprendre, prévenir et protéger.

Références  

  1. https://artificialintelligenceact.eu/

  2. https://www.cnil.fr/fr/ia-et-rgpd-la-cnil-publie-ses-nouvelles-recommandations-pour-accompagner-une-innovation-responsable

  3. https://www.cnil.fr/fr/ia-les-grands-principes-pour-se-mettre-en-conformite

bottom of page