Qu’est ce que les applications IA ?
Les applications IA sont des programmes informatiques qui utilisent l’intelligence artificielle pour effectuer des tâches. Rappelons que l’intelligence artificielle est un domaine d’étude de l’informatique qui vise à créer des machines capables de penser et d’agir de manière intelligente. Les applications IA sont utilisées dans un grand nombre de domaines, notamment la santé, la finance, la fabrication, la vente au détail et les transports.
Pourquoi des garde-fous sont prévus par l’UE pour les applications IA les plus risquées ?
L’intelligence artificielle fait partie du quotidien des français quotidiennement. Les médias ont notamment écrit beaucoup d’articles sur le sujet. Par exemple, avec l’arrivée de ChatGPT il y a quelques mois. Le grand public est désormais de plus en plus au fait de l’utilisation de ce style de technologie, de ses avantages et de ses limites.
Mais, la technologie avançant rapidement, le droit n’est pas toujours en phase avec celle-ci. C’est dans ce sens que l’Union européenne prévoit des garde-fous pour les applications les plus risquées. Il y a quelques semaines, le Parlement européen a ainsi voté par une large majorité en faveur de l’AI Act, pour Artificial Intelligence Act. Ce texte est censé mieux gérer cette technologie.
Pour cela, quatre niveaux de risques ont été créés. Il existe bien sûr les niveaux de risques auxquels on pouvait s’attendre. Il s’agit des risques faibles, moyens et élevés. Mais une quatrième catégorie est également sortie. Elle prend en compte les systèmes posant un risque inacceptable, qui sont tout bonnement interdits dans l’Union européenne. Dans ce domaine sont englobés les systèmes de crédit social basés sur l’intelligence artificielle et la mise en place de dispositifs d’identification biométrique à distance, en temps réel et à des fins répressives dans des espaces accessibles au public. De son côté, l’interdiction de la reconnaissance faciale n’a finalement pas été maintenue.
Les trois autres catégories d’intelligence artificielle autorisées comportent des obligations progressives, en fonction du niveau de risque. La catégorie « risquée » peut être régulièrement mise à jour par la commission. Elle comprend notamment les systèmes d’intelligence artificielle appliquée à la gestion et l’exploitation d’infrastructures critiques, l’éducation et la formation professionnelle ou encore la gestion de la migration, de l’asile et du contrôle aux frontières.
Ces systèmes devront avoir une supervision humaine, selon le texte. Une analyse d’impact doit anticiper en amont les risques que les systèmes peuvent amener notamment sur les droits fondamentaux. Une analyse devrait être régulièrement réalisée afin de savoir les dangers encourus. Les systèmes devront être déclarés conforme à l’Union européenne et avoir un marquage CE.
La catégorie intermédiaire englobe les systèmes qui interagissent avec les humains. Ils servent par exemple à connaître des émotions ou à savoir à quelle catégorie sociale appartient telle ou telle personne grâce à des données biométriques. Ils permettent encore de créer un contenu comme ceux des deep fakes. Les contenus devront être marqués comme générés par une intelligence artificielle.
La catégorie faible parle des systèmes que l’on connaît déjà plutôt bien, comme l’intelligence artificielle utilisée dans les jeux vidéo, ou pour filtrer les spams. Un code de conduite est établi avec eux, visant à faire respecter par exemple des critères en lien avec l’environnement, l’accessibilité, la collaboration des personnes avec les systèmes d’intelligence artificielle et la diversité des développeurs.
L’intelligence artificielle générative vue au cas par cas
Un des grands sujets du Parlement européen était celui du traitement réservé à l’intelligence artificielle générative. Et celle-ci n’a finalement pas été classée dans la catégorie à haut risque. Cela, d’après une enquête du Time Magazine, à cause du lobbying de l’industrie, et notamment d’OpenAI, célèbre pour son produit ChatGPT.
L’appréhension de ce style d’intelligence artificielle se fera de façon spécifique plutôt que de façon générique. Les modèles d’intelligence artificielle entraînée sur un grand nombre de données devront tout de même avoir une obligation de transparence, notamment. Il faudra dire sur quel contenu protégé par le droit d’auteur a été entraîné le système et faire une analyse des risques. Ainsi, les journalistes, les photographes, les musiciens ou encore les scientifiques devront être cités lorsqu’ils ont été utilisés pour former les algorithmes. Et les entreprises ne pourront pas faire ce qu’elles veulent, en tout cas d’après le texte. Elles devraient se voir infliger une amende pouvant monter jusqu’à 7 % de leur chiffre d’affaires si elles ne respectent pas l’obligation de supprimer l’applicationSe dit souvent application mobile. Se télécharge à titre gratuit ou payant depuis le système d’exploitation d’un smartphone ou d’une tablette..
Désormais, ce sera au tour de la Commission, du Parlement et du Conseil européen d’évoquer les dernières adaptations et d’entériner le texte, pour le Conseil européen.