Salut l’équipe 👋,
Voici un article un peu long, mais qui sert de réflexion aux sujets actuels autour l’IA. Les sujets d’IA éthique et utilisation responsable, commencent à s’accélérer avec l’approbation de plusieurs réglementations dans le monde (+50 pays réfléchissent ou font voter à une réglementation locale sur l’IA).
Je voulais donc faire un récapitulatif des enjeux actuels. Mais, avant de commencer, rappelons-nous des principales technologies sur le marché:
📈 Advanced Analytics: Marché mature avec des solutions performantes (et qui vont aller plus loin, avec de nouvelles opportunités dans le cloud).
🧠 Machine Learning : utilise des algorithmes utilisant des données pour réaliser des prédictions ou décisions, où les performances s’améliorent lorsque exposé à plus de données à travers le temps. C’est en cours d’adoption dans les entreprises (car nécessite une compréhension technique et les compétences) avec des Use-Cases où le ROI commence à prendre forme.
📱Generative AI (ChatGPT, DALL E, BARD etc.) : LA nouveauté 2023, qui s’installe dans notre quotidien très rapidement, à l’image des smartphones dans les années 2000.
Qu’est-ce que l’IA éthique ?
L’IA éthique fait référence au développement et au déploiement de systèmes d’intelligence artificielle (IA) qui mettent l’accent sur l’équité, la transparence, la responsabilité et le respect des valeurs humaines.
L’objectif est de promouvoir une utilisation sûre et responsable de l’IA, de réduire les nouveaux risques liés à l’IA et de prévenir les préjudices. Une grande partie du travail dans ce domaine se concentre sur quatre principaux aspects :
- Biais – risque que le système discrimine injustement des individus ou des groupes.
- Explicabilité – risque que le système ou ses décisions ne soient pas compréhensibles pour les utilisateurs et les développeurs.
- Robustesse – risque que l’algorithme échoue dans des circonstances inattendues ou sous l’attaque.
- Confidentialité – risque que le système ne protège pas adéquatement les données personnelles.
Pourquoi l’IA éthique est-elle importante ?
Bien que l’IA et l’automatisation puissent présenter d’importants avantages, tels qu’une plus grande efficacité, une plus grande innovation, une personnalisation des services et une réduction de la charge de travail pour les travailleurs humains, l’utilisation de l’IA peut également présenter de nouveaux risques qui doivent être abordés: Le traitement des données personnelles et dans quels usages: vente, recrutement, les droits d’auteurs vis-à-vis des métiers créatif etc.
Comment les entreprises sont-elles concernées ?
À mesure que l’adoption de l’IA devient plus répandue (ex: ChatGPT, extensions de logiciels vendeurs), la sensibilisation du public aux risques augmente et l’attention réglementaire s’intensifie, les entreprises sont sous pression croissante pour s’assurer qu’elles conçoivent et déploient l’IA de manière éthique.
Bientôt, les entreprises seront légalement tenues d’incorporer l’IA éthique dans leur travail.
Le projet de loi de l’UE sur l’IA (AI Act voté en juin 2023) est la proposition de loi de l’UE visant à réglementer le développement et l’utilisation des systèmes d’IA à « haut risque ». Il s’agit de la première loi dans le monde régissant le développement et l’utilisation de l’IA de manière exhaustive. La loi sur l’IA de l’UE est destinée à devenir le « RGPD de l’IA », avec des sanctions lourdes en cas de non-conformité, une portée extraterritoriale et un ensemble étendu d’exigences obligatoires pour les organisations qui développent et déploient l’IA.
En tant qu’entreprise, quelles actions entreprendre ?
✅ S’aligner sur la vision et les croyances de l’entreprise: il est essentiel d’être clair sur la vision de l’entreprise, les valeurs qu’elle soutient, et comment un éventuel cas d’utilisation des données s’aligne avec ces valeurs. Cela peut orienter les décisions concernant l’utilisation des données (et modèles d’IA des vendeurs à utiliser ou non).
✅ Déterminer l’Ownership des données et l’atténuation des risques (et cela devient impératif)
Définit les rôles pour l’utilisation éthique des données et la propriété des données (Data Owners) devient indispensable. Ainsi, si un algorithme doit être modifié, par exemple, ou si l’accès aux données d’un système doit être ajusté, il est clair qui doit apporter ces modifications.
Les organisations doivent également être conscientes des risques existants liés aux données, tels que l’utilisation des informations de contact personnelles des clients.
✅ Faire évoluer la culture et les compétences
✅ Evaluer les usages actuels de l’IA dans l’entreprise
✅ Créer un comité d’éthique des données
Idéalement, un comité d’éthique des données serait un comité pluridisciplinaire composé de représentants des domaines de l’entreprise, de la conformité et du juridique, des opérations, de l’audit, de l’informatique et de la haute direction. La représentation de l’IT est essentielle en raison des responsabilités et de ses connaissances techniques. En effet, ce département est responsable de plusieurs aspects de la gestion et de la protection des données.
Cependant, il incombe toujours aux Métiers et aux Data Owners de veiller à ce que leurs fonctions respectent les politiques adoptées et de surveiller en permanence les nouveaux cas d’utilisation qui pourraient nécessiter une évaluation des risques liés aux données.
✅ Se former: votre responsabilité est engagée et le sujet n’est pas simple.
La fin en quelques mots
Pour aller plus loin je vous invite à vous abonner à la newsletter de la CNIL, mais aussi à vous former. J’écrirai un nouvel article sur l’AI Act d’ici la fin de l’année. D’ici là, analysez vos processus où vous utilisez de l’IA et à la manière dont vous transmettez des informations confidentielles ou des données personnelles.
La gestion des données vous intéresse et vous êtes un professionnel ? Renseignez-vous sur mon programme de formation DARE – Data Manager: une formation de 2 jours pour acquérir les fondamentaux de la gestion des données et construire la stratégie MDM associée 🔥.
A bientôt!
Laura
0 commentaires