Différences entre les versions de « Application à haute responsabilité »

De Glossaire IA
Aller à la navigation Aller à la recherche
(Page créée avec « Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exempl... »)
 
(Aucune différence)

Version actuelle datée du 2 mai 2022 à 22:04

Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exemple, les jouets pour enfants, les équipements radioélectriques, les machines, etc.) ; soit ils sont attachés à des résultats potentiels (par exemple, si le système d'IA permet de sélectionner l'accès d'individus à des établissement scolaires ou de formation professionnelle).