Application à haute responsabilité
Aller à la navigation
Aller à la recherche
Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exemple, les jouets pour enfants, les équipements radioélectriques, les machines, etc.) ; soit ils sont attachés à des résultats potentiels (par exemple, si le système d'IA permet de sélectionner l'accès d'individus à des établissement scolaires ou de formation professionnelle).