Application à haute responsabilité
Révision datée du 2 mai 2022 à 22:04 par Eren Atolgan (discussion | contributions) (Page créée avec « Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exempl... »)
Selon le projet européen d'Artificial Intelligence Act, le niveau de risque d'un système d'IA s'apprécie selon ses impacts potentiels pour la santé, la sécurité ou les droits fondamentaux des individus (pas certain que les personnes "morales" soient visées, donc j'ai mis "individus"). Les systèmes d'IA sont définis comme étant à "haut risque" doublement : soit ils sont associés à des produits dont le droit encadre l'entrée sur le marché (par exemple, les jouets pour enfants, les équipements radioélectriques, les machines, etc.) ; soit ils sont attachés à des résultats potentiels (par exemple, si le système d'IA permet de sélectionner l'accès d'individus à des établissement scolaires ou de formation professionnelle).