On parle beaucoup d’intelligence artificielle. Trop, sans
doute, et souvent mal.
On en parle comme d’une prouesse technique, comme d’un
danger existentiel, comme d’un outil miraculeux ou comme d’un scandale moral.
On débat de ses performances, de ses biais, de sa « compréhension »,
de son avenir. Mais une question plus simple, plus proche, reste étonnamment
peu posée : que faisons-nous concrètement avec l’IA, et que fait-elle à nos
manières de juger, de décider et de discuter ?
C’est à cette question que ce blog se consacre.
Pourquoi les usages, plutôt que la technique ou la morale
L’IA n’existe jamais « en général ». Elle existe
toujours dans des usages situés : écrire un texte, classer des dossiers,
recommander un contenu, orienter une décision, évaluer un élève, diagnostiquer
un risque. Ce sont ces usages — et non les algorithmes en eux-mêmes — qui
transforment nos pratiques sociales.
Or ces transformations ne sont pas seulement pratiques ou
économiques. Elles sont philosophiques, au sens le plus classique du
terme : elles touchent à ce que signifie comprendre, expliquer, prouver,
décider, faire confiance, assumer une position.
Une philosophie des usages de l’IA ne cherche donc pas à
répondre à la question abstraite « l’IA pense-t-elle ? », mais à une question
plus décisive : dans quelles conditions ce que produisent les systèmes d’IA
peut-il encore faire sens publiquement ?
Le cœur du problème : le sens sans répondabilité
Les systèmes contemporains — et en particulier les modèles
de langage — sont capables de produire des résultats plausibles,
cohérents, élégants, souvent utiles. Ils produisent du sens formel : des
textes, des scores, des classements, des recommandations qui « se tiennent ».
Mais cette puissance a un effet paradoxal : elle tend à
détacher la signification de ce qui la rendait autrefois publiquement discutable.
Un texte peut être compris sans que l’on sache sur quoi il repose. Une
recommandation peut être suivie sans que l’on puisse en débattre. Une décision
peut être appliquée sans que l’on sache qui en répond.
Le problème n’est pas seulement l’erreur ou le biais, il est plus profond : que devient le sens lorsqu'il est difficile
de poser les questions élémentaires — pourquoi, selon qui, sur quelles bases,
avec quelles conséquences ?
Philosophie de l’IA
Une philosophie de l’IA ne signifie pas porter un jugement
sur les machines, ni leur prêter des intentions qu’elles n’ont pas. Cela
signifie examiner les conditions dans lesquelles leurs productions entrent
dans nos pratiques humaines.
Dans ce blog, je défends une idée simple : le sens n’est pas
seulement une propriété des énoncés ou des résultats, mais une condition
publique, qui suppose la possibilité de répondre à ce qui est produit — et
d’en répondre.
C’est cette condition que je nomme répondabilité.
Un usage de l’IA est problématique non pas parce qu’il est
automatisé, mais lorsqu’il rend la discussion vaine, l’endossement flou, la
correction difficile. À l’inverse, un usage peut rester pleinement humain —
même fortement assisté par des modèles — s’il est organisé de manière à rendre
visibles les responsabilités, les limites et les possibilités de reprise.
Philosophe de l’IA : une figure professionnelle en
devenir
Cette réflexion n’est pas seulement théorique. Elle engage
une pratique et, de plus en plus, un rôle professionnel émergent : celui
de philosophe de l’IA.
Non pas un expert technique de plus, ni un moraliste chargé
de dire ce qui serait « bien » ou « mal », mais un
praticien du sens public à l’ère des modèles. Un philosophe de l’IA travaille là
où les usages deviennent décisifs : là où des systèmes fondés sur des modèles (y
compris hors LLM) produisent des textes, des classements, des scores, des
recommandations ou des décisions qui orientent des actions, des jugements ou
des politiques humaines. Son rôle est d’identifier les zones de fragilité du
sens, de rendre visibles les points d’endossement, et de concevoir des cadres
où jugement, reprise et discussion restent possibles.
C’est dans cette perspective que ce blog s’inscrit. Il
accompagne une activité de formation et de réflexion appliquée, destinée
à toute personne confrontée à l’usage quotidien de l’IA. Former, ici, ne
signifie pas apprendre à « mieux utiliser les outils », mais à mieux
situer ce que l’on fait lorsqu’on s’appuie sur eux : ce que l’on délègue,
ce que l’on vérifie, ce que l’on assume.
À l’ère des modèles, la question n’est pas seulement de
savoir comment utiliser l’IA efficacement, mais comment organiser
collectivement des usages qui restent discutables et endossables. C’est à
cette tâche — intellectuelle, pratique et publique — que ce travail entend
contribuer.
Ce que vous trouverez ici
Ce blog propose :
- des
analyses philosophiques ancrées dans des usages réels ;
- des
distinctions conceptuelles simples (plausible / vrai, généré / endossé,
utile / répondable) ;
- des
exemples concrets (école, médias, entreprises, institutions) ;
- et
surtout des pistes pratiques pour organiser les usages de l’IA sans
perdre le sens.
Les billets à suivre exploreront cette figure professionnelle, ces usages et ces dispositifs, pas à pas. Il ne s’agit ni de célébrer ni de condamner l’IA, mais de penser avec précision ce qu’elle fait à nos manières de comprendre et de décider, afin de rester capables de juger, de discuter et d’assumer collectivement.
Si la philosophie a encore une tâche aujourd’hui, c’est
peut-être celle-ci : maintenir les conditions du sens là où la puissance
technique tend à les rendre invisibles.

Aucun commentaire:
Enregistrer un commentaire