L’IA générative pose un certain nombre d’interrogations, auxquelles certaines entreprises essaient de répondre.
Qu’est ce que l’IA générative?
L’intelligence artificielle générative est une branche de l’intelligence artificielle qui vise à créer de nouvelles données à partir de données existantes. Elle est utilisée dans de nombreux domaines, dont la finance, la santé et la recherche.
L’IA générative est basée sur l’idée que les données existantes contiennent des informations qui peuvent être utilisées pour créer de nouvelles données. Par exemple, si on dispose d’un ensemble de données sur les prix des actions, on peut utiliser l’IA générative pour créer de nouvelles données sur les prix des actions futures. L’IA générative peut ainsi être utilisée en théorie pour la génération de rapports d’analyse, la modélisation du risque, la gestion d’allocation d’actifs, la création de contenu créatif, comme des images, de la musique ou des textes.
Cependant, elle possède des biais ou encore peut être sujette à des «hallucinations». L’utilisation de l’IA générative soulève aussi des défis, notamment la maîtrise des données, leur protection, les questions liées à l’éthique ou à la maîtrise des données, car l’IA générative nécessite une grande quantité de données pour fonctionner. Ces données doivent être de bonne qualité et correctement structurées. Les entreprises qui utilisent l’IA générative doivent donc mettre en place une gouvernance des données solide pour garantir la qualité et la cohérence des données utilisées par l’IA générative. Cette gouvernance doit inclure une définition claire des propriétaires des données, des règles de bonnes pratiques pour la collecte et le traitement des données, des procédures de contrôle et de protection.
L’IA générative peut en effet être utilisée pour générer des données sensibles, telles que des données sur les clients ou les transactions. Il est donc important de protéger ces données contre les accès non autorisés.
Les entreprises qui utilisent l’IA générative peuvent mettre en place des mesures de sécurité appropriées pour protéger les données utilisées par l’IA générative. Ces mesures doivent inclure l’utilisation de technologies de cryptage, la mise en place de politiques et de procédures de sécurité, des questionnements et des réponses appliquées, si possible, en lien avec le domaine éthique.
Des bonnes pratiques pour mettre en place une gouvernance
Ainsi, alors que l’intelligence artificielle possède un profil attrayant sur le papier, les défis sont nombreux pour les entreprises. Plusieurs questions sont en suspend, comme par exemple le fait de savoir comment gérer plus spécifiquement les grandes quantités de données financières et extra-financières ? Celles-ci nécessitent d’en connaître la fiabilité et de savoir si elles peuvent être utilisées de façon éthique.
Beaucoup de sociétés essaient de résoudre le problème afin de pouvoir concrétiser certains projets. Pour cela, certaines insistent pour mettre un cadre afin d’éviter les échecs. Le besoin de gouvernance autour des modèles et de la donnée peut alors devenir important.
Dans ce sens, les sociétés peuvent mettre quelques fois en place des règles de bonne pratique en interne. Celles-ci sont une façon notamment de cadrer les niveaux de responsabilité des collaborateurs. Cela doit permettre de connaître par exemple la personne garante de l’identification et de la correction.
Protection et identification des données, travail avec des prestataires
Également, on trouve des questions sur la protection des données, avec le recours quelquefois à des prestataires de service. Si cette façon de faire peut permettre certains avantages, comme la rationalisation des coûts, il pose aussi des problèmes sur l’utilisation des données open sourceProgramme dont le code source est ouvert à la modification, redistribution, utilisation par les utilisateurs.. Les différents collaborateurs dans la chaîne de sous-traitance peuvent en effet causer des problèmes, liés à la maitrise des données.
Egalement, outre la rapidité de la circulation des données, la multiplication des référentiels et leur incohérence peuvent être problématiques. Dans cette optique, certaines entreprises n’hésitent pas à essayer de créer des initiatives, contre ce qui peut être considéré par certaines comme des « nuisances». L’objectif est de pouvoir travailler avec des prestataires de service sans être touché par les problèmes précédemment cités. Par exemple, la banque AXA IM gère une gamme de solutions d’investissement conçues pour répondre à différents besoins. Elle a fait en sorte de mettre en place son propre service interne, Axa Secure GPT, basé sur le service Azure OpenAI de Microsoft.
Outre les points précédemment vus, il demeure également des questions sur l’identification du propriétaire des données. Il existe notamment comme acteur les fournisseurs experts dans les données et aussi les collaborateurs qui les transforment. Une question très importante liée à la modification des données pourrait être réglée au niveau de la loi.