SAN FRANCISCO : Santé connectée – ChatGPT Health, la…
Partager :

SAN FRANCISCO : Santé connectée – ChatGPT Health, la révolution médicale à l’épreuve de la vie privée
OpenAI vient de lancer ChatGPT Health, une nouvelle interface dédiée à l’analyse des dossiers médicaux et à la centralisation des données de santé.
Si cette innovation promet de simplifier la compréhension des résultats cliniques pour les patients, les experts en cybersécurité alertent sur les risques sans précédent que cette agrégation d’informations sensibles fait peser sur la confidentialité des utilisateurs.
L’intelligence artificielle franchit une nouvelle étape critique dans son intégration au quotidien. Avec le lancement récent de ChatGPT Health, OpenAI propose désormais d’interpréter les résultats de laboratoire, de préparer les visites médicales et de comparer les options d’assurance.

Une avancée technologique majeure qui soulève toutefois une question fondamentale : que se passe-t-il lorsque le chatbot le plus populaire au monde devient le gardien de notre intimité biologique ?
De la donnée brute au profilage intime.
L’adoption de l’IA dans le domaine de la santé est déjà une réalité massive : OpenAI a révélé que 230 millions de personnes interrogent chaque semaine son robot sur des questions de bien-être. ChatGPT Health va cependant plus loin en permettant aux utilisateurs de connecter l’IA directement à leurs applications tierces (Apple Health, MyFitnessPal) et de télécharger leurs dossiers médicaux.
Cette centralisation transforme radicalement la nature des données. Jusqu’ici éparpillées entre un portail hospitalier, une montre connectée et des résultats d’analyses PDF, les informations sont désormais tissées ensemble. « Les utilisateurs peuvent consentir à partager des points de données individuels, comme un symptôme ou un résultat de laboratoire, sans comprendre la nouvelle signification qui émerge une fois ces points combinés », analyse Stefanie Schappert, journaliste senior chez Cybernews. C’est là que réside le véritable changement : la valeur ne réside plus dans la donnée brute, mais dans les inférences et le contexte narratif généré par l’IA.
Le risque des inférences cachées.
L’agrégation de ces données permet à l’algorithme de déceler des tendances et des connexions invisibles pour l’utilisateur moyen. Si cela présente un indéniable intérêt médical, le revers de la médaille inquiète les spécialistes. Les algorithmes développés à partir de données agrégées ont déjà démontré par le passé des risques de biais. Entre de mauvaises mains, ces profils de santé ultra-détaillés pourraient théoriquement conduire à des discriminations sociétales ou professionnelles, voire impacter le calcul des primes d’assurance santé.
L’histoire récente incite à la prudence. Une étude menée en janvier dernier a montré que près d’un travailleur sur dix exposait régulièrement des données sensibles de son entreprise via l’IA. De plus, la fuite de milliers de conversations ChatGPT via les moteurs de recherche en août dernier a confirmé que les utilisateurs ont tendance à se confier sans retenue à l’interface.
Un cadre juridique incertain.
Sur le plan technique, OpenAI assure avoir mis en place une architecture de sécurité renforcée : chiffrement de bout en bout, isolation des conversations de santé et promesse que ces données ne sont pas utilisées pour entraîner les modèles. Les utilisateurs conservent également la possibilité de supprimer leurs données ou de révoquer l’accès aux applications connectées.
Cependant, les critiques soulignent un point névralgique : le statut juridique de la donnée. Lorsqu’un patient télécharge volontairement ses dossiers médicaux dans une plateforme d’IA grand public, il sort potentiellement du cadre protecteur des réglementations sanitaires strictes (comme la loi HIPAA aux États-Unis ou le RGPD en Europe dans certains contextes d’usage personnel). Sara Geoghegan, conseillère juridique principale à l’Electronic Privacy Information Center, rappelle que « ChatGPT n’est lié que par ses propres divulgations et promesses ». En l’absence de garde-fous législatifs spécifiques, les conditions d’utilisation du service restent modifiables à tout moment par l’entreprise.
Une cible de choix pour les cybercriminels.
Enfin, la centralisation des données crée un risque de sécurité accru. Les dossiers médicaux figurent parmi les cibles les plus lucratives pour les pirates informatiques. En regroupant historiques médicaux, données de bien-être et analyses générées par l’IA sur une plateforme unique, ChatGPT Health devient une cible de très haute valeur. Le risque n’est plus seulement la compromission d’un dossier isolé, mais l’exposition d’une identité biologique complète.
Alors que l’assistant de santé d’OpenAI commence son déploiement, le grand public se trouve confronté à un arbitrage complexe entre la clarté médicale offerte par l’outil et l’exposition potentielle de sa vie privée. Comme le résume Stefanie Schappert, ce compromis entre « perspicacité et exposition » s’impose désormais comme le moment décisif de l’ère de la santé pilotée par l’IA.


