Passer au contenu principal

PARIS : Roy Horgan : « La confidentialité constitue la couc…

Partager :

PARIS : Roy Horgan : « La confidentialité constitue la couche de confiance qui rend l’IA fiable »

À l’occasion de la Journée de la protection des données célébrée ce mercredi, Roy Horgan, Vice President et Privacy Officer chez Qlik, rappelle que l’essor de l’intelligence artificielle impose une gouvernance rigoureuse et une transparence totale pour garantir l’adhésion des utilisateurs.

Alors que l’intelligence artificielle (IA) s’invite désormais dans le quotidien des entreprises et des particuliers, la question de la sécurité des données n’a jamais été aussi prégnante. En cette Journée mondiale de la protection des données, les experts du secteur insistent sur la nécessité d’intégrer les principes de confidentialité dès la conception des outils technologiques.

Pour Qlik (https://www.qlik.com/), spécialiste de l’intégration et de l’analyse des données, l’équation est simple : sans données de qualité et sécurisées, l’IA ne peut délivrer son plein potentiel.

La gouvernance comme socle de l’IA

L’efficacité des algorithmes dépend intrinsèquement de la matière première qu’ils traitent. « Dans le contexte actuel du développement de l’intelligence artificielle, la protection de la vie privée revêt une importance accrue », explique Roy Horgan.

Pour le dirigeant, la performance technologique ne doit pas se faire au détriment de la sécurité. « Pour être pleinement efficace, toute solution d’IA doit s’appuyer sur des données de haute qualité rigoureusement gouvernées, afin de garantir une mise en œuvre optimale et de préserver la confiance des utilisateurs », poursuit-il.

Cette rigueur passe par des méthodologies éprouvées, telles que le « privacy-by-design » (confidentialité dès la conception). Ces approches « garantissent ces éléments, en particulier lorsque des données à caractère personnel sont concernées. Elles assurent une définition claire de la propriété des données, une visibilité précise quant à leur localisation, ainsi qu’un contrôle strict des personnes habilitées à y accéder et à les exploiter », détaille l’expert de Qlik.

Anticiper l’ère des agents autonomes

L’enjeu dépasse la simple conformité réglementaire. Il s’agit de préparer les infrastructures aux futures évolutions de l’IA, notamment l’autonomie croissante des agents virtuels amenés à effectuer des tâches pour le compte des employés.

« À mesure que l’IA s’intègre de manière croissante dans les usages quotidiens et gagne en autonomie, ainsi que d’autres approches similaires, telles que les analyses d’impact liées à l’IA, doivent être intégrées dès les premières phases de conception », analyse Roy Horgan.

Selon lui, le coût de l’inaction ou du rattrapage serait prohibitif pour les organisations. « Il est en effet bien plus efficace et évolutif d’intégrer cette gouvernance au début de chaque projet, plutôt que d’attendre que l’IA soit répandue dans toute l’organisation », prévient-il.

La confiance, clé de l’adoption massive

Au final, la réussite du déploiement de l’intelligence artificielle à grande échelle repose sur un facteur humain : la confiance. Si les utilisateurs doutent de la confidentialité de leurs informations ou de la transparence des processus, l’adoption technologique risque de marquer le pas.

« La qualité de la mise en œuvre, la confiance des utilisateurs et la capacité de montée en charge deviennent d’autant plus cruciales que des agents d’IA commencent à exécuter des tâches pour le compte des employés et des équipes », souligne le Vice President de Qlik.

Il conclut par un avertissement clair aux entreprises qui négligeraient cet aspect : « La confidentialité, la gouvernance et la transparence constituent la couche de confiance qui rend l’IA fiable à grande échelle. Sans elle, l’adoption peut stagner, la confiance est difficile à gagner et l’impact reste limité ».