Application à haute responsabilité

De Glossaire IA
Révision datée du 2 mai 2022 à 22:04 par Eren Atolgan (discussion | contributions) (Page créée avec « Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exempl... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exemple, les jouets pour enfants, les équipements radioélectriques, les machines, etc.) ; soit ils sont attachés à des résultats potentiels (par exemple, si le système d'IA permet de sélectionner l'accès d'individus à des établissement scolaires ou de formation professionnelle).