Application à haute responsabilité

De Glossaire IA
Aller à la navigation Aller à la recherche

Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exemple, les jouets pour enfants, les équipements radioélectriques, les machines, etc.) ; soit ils sont attachés à des résultats potentiels (par exemple, si le système d'IA permet de sélectionner l'accès d'individus à des établissement scolaires ou de formation professionnelle).