PARIS : L’humain face aux algorithmes
Partager :

PARIS : L’humain face aux algorithmes
L’intelligence humaine est-elle suffisante face aux capacités des machines ?
Les capacités biologiques humaines seraient-elles insuffisantes pour faire face aux capacités des machines et pour penser les modalités d’une co-existence avec les intelligences artificielles ? Cette question, formulée comme un problème d’ordre moral il y a quelques décennies, est aujourd’hui davantage évoquée comme un problème de limitations biologiques ou de capacités cognitives en déclin. L’adaptation à cette co-existence pourrait être davantage celle de la société que celle de l’humain.
Des capacités humaines limitées dans le domaine de l’imagination et des sentiments ?
L’idée d’une inadaptation de l’humain aux technologies puissantes qu’il crée a émergé au milieu du 20ème siècle, avec l’inquiétude des nouvelles capacités nucléaires et la démesure des moyens techniques contemporains comparés aux capacités de réflexion éthique des humains. Le philosophe allemand Gunther Anders observait un « décalage prométhéen » entre les puissantes capacités de production de l’humain et ses capacités limitées dans le domaine de l’imagination et des sentiments.
« Nous ne sommes pas, avec notre imagination et nos sentiments, à la hauteur de nos propres productions et de leurs effets », écrivait-il.
Anders se plaçait alors dans une perspective d’adaptation morale face à la perspective d’une hécatombe humaine nucléaire. Julian Savulescu, l’auteur de « Unit for the future, the need for moral enhancement », défendra plus tard l’idée que l’amélioration morale via des technologies serait une obligation morale pour les sociétés contemporaines.
Un manque de motivation alimenté par une fascination paralysante
Aujourd’hui, la question porte davantage sur les capacités cognitives dans leur ensemble. Comment appréhender les enjeux de la banalisation du recours aux algorithmes, en particulier ses conséquences sur le développement cognitif humain ? De nombreux auteurs soulignent le risque de déclin cognitif en cas de sous-utilisation du cerveau humain et d’utilisation intense d’intelligences artificielles. Si le risque paraît plausible, le sentiment d’inéluctabilité est-il fondé ?
Dans le sujet de philosophie du baccalauréat 2025 : « Notre avenir dépend-il de la technique ? », le piège était d’oublier que c’est l’humain qui crée et qui contrôle la technique. La question semble aujourd’hui s’apparenter à un problème de motivation, ou plutôt de démotivation face aux performances actuelles et futures de la machine. Une certaine paralysie, un défaitisme face à la machine sont alimentés par une peur envahissante : peur de perdre l’expertise humaine, peur de perdre le contrôle de l’IA. Le problème s’apparente peut-être à une prédiction autoréalisatrice.
D’autres, technophiles convaincus ou proches de la mouvance transhumaniste, développent au contraire une certaine fascination dans l’idée que les machines vont prendre les décisions à notre place, et que c’est un bien. « Largement compensé par la liberté de créer notre vie qui découle de l’abondance matérielle créée par notre utilisation des machines », estime par exemple l’industriel Marc Andressen.
La fin de la « parenthèse Gutenberg » est-elle la fin du monde ?
Il reste possible d’envisager que de nouvelles pratiques numériques et algorithmiques ne soient pas le signe d’un déclin de l’intelligence humaine, mais le prélude à de nouvelles organisations. L’abandon annoncé des textes traditionnels imprimés et publiés – « la fin de la parenthèse Gutenberg » – aurait par exemple pour conséquence davantage de communication orale.
« Internet a refermé la parenthèse en nous ramenant à un mode de communication plus fluide, décentralisé et conversationnel. Au lieu de lire des livres, nous pouvons nous disputer dans les commentaires. Certains théoriciens ont même proposé que nous revenions à une sorte de culture orale… », peut-on lire dans The New Yorker.
L’auteur de l’article examine l’hypothèse dans laquelle des intelligences artificielles apporteraient davantage de valeurs aux lectures, par l’approfondissement des nuances ou bien le rappel de souvenirs. Mais cet apport serait limité car : « L’intelligence artificielle, en elle-même, n’est pas motivée ; elle lit, mais n’est pas un lecteur ; ses « intérêts », à un moment donné, dépendent fondamentalement des questions qu’on lui pose. Son utilité en tant qu’outil de lecture dépend donc de l’existence d’une culture de la lecture qu’elle ne peut ni incarner ni perpétuer ».
Ainsi, dans l’exemple de la lecture, l’intelligence artificielle, même largement banalisée, ne pourrait se substituer à l’intelligence humaine.
Adapter la société, pas l’humain
L’urgence résiderait alors, non dans l’adaptation des humains, mais dans l’adaptation de la société, en particulier des apprentissages et de l’éducation. Le programme est considérable. Il s’agit de comprendre « la dimension émotionnelle, ontologique qui s’invite dans notre relation avec les agents IA… Dans cette dynamique, l’IA devient un miroir de nos propres attentes et projections, un interlocuteur qui répond à nos besoins émotionnels et intellectuels », souligne avec clarté Laurence Devillers.
Pour le problème aigu des algorithmes d’influence, créés pour vaincre les résistances cognitives humaines, mettre les enfants à l’abri le plus longtemps possible, le temps du développement cérébral, pourrait être prudent. Peut-être faudrait-il aussi acter que l’accumulation de connaissances, la rapidité et la mémoire illimitée sont maintenant du côté des IA et de ChatGPT ; et réorganiser les apprentissages autour de ce que l’humain fait de mieux : la recherche et la compréhension de sens, le sens du monde, le sens des autres, le sens pour soi et le sentiment de l’existence incarnée.
Consultez l’article complet ici
Source : Fondapol – La Newsletter du 25 juin


