Article 14: Contrôle humain
Les systèmes d’IA à haut risque doivent être conçus de manière à permettre un contrôle humain pendant leur fonctionnement afin de réduire au minimum les risques pour la santé, la sécurité et les droits fondamentaux. Les mesures de contrôle devraient être proportionnées aux risques, à l’autonomie et au contexte d’utilisation du système, y compris les garanties intégrées et les contrôles mis en œuvre par le déployeur. Les êtres humains doivent être en mesure de surveiller, d’interpréter et d’ignorer le système, tout en étant conscients de la dépendance excessive potentielle à l’égard des résultats de l’IA. Pour les systèmes d’identification biométrique à distance, les décisions critiques doivent être vérifiées par au moins deux personnes compétentes, sauf dans des scénarios spécifiques en matière répressive ou de contrôle aux frontières.
Les résumés sont destinés à fournir des explications utiles, mais ne sont pas juridiquement contraignants.
1. La conception et le développement des systèmes d’IA à haut risque permettent, notamment au moyen d’interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant leur période d’utilisation.
2. Le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent apparaître lorsqu’un système d’IA à haut risque est utilisé conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, en particulier lorsque de tels risques persistent malgré l’application d’autres exigences énoncées dans la présente section.
3. Les mesures de contrôle sont proportionnées aux risques, au niveau d’autonomie et au contexte d’utilisation du système d’IA à haut risque, et sont assurées au moyen d’un ou des deux types de mesures suivants:
4. Aux fins de la mise en œuvre des dispositions des paragraphes 1, 2 et 3, le système d’IA à haut risque est fourni au déployeur de telle manière que les personnes physiques chargées d’effectuer un contrôle humain, dans la mesure où cela est approprié et proportionné, ont la possibilité:
5. Pour les systèmes d’IA à haut risque visés à l’annexe III, point 1 a), les mesures prévues au paragraphe 3 du présent article sont de nature à garantir que, en outre, aucune mesure ou décision n’est prise par le déployeur sur la base de l’identification résultant du système sans vérification et confirmation distinctes de cette identification par au moins deux personnes physiques disposant des compétences, de la formation et de l’autorité nécessaires.
L’exigence d’une vérification distincte par au moins deux personnes physiques ne s’applique pas aux systèmes d’IA à haut risque utilisés à des fins répressives ou dans les domaines de la migration, des contrôles aux frontières ou de l’asile, lorsque le droit de l’Union ou le droit national considère que l’application de cette exigence est disproportionnée.
- Relevant recitals