# IA – Les humanités à l'ère des LLM
**Date de l'événement :** 26/01/2026
* Publié le 26/01/2026

### Date
26/01/2026

## Chapô
**En décembre 2025, SciencesPo s'est doté d’une [doctrine sur l'usage des IA](https://www.sciencespo.fr/fr/actualites/doctrine-intelligence-artificielle-a-sciences-po/). À l’ère des grands modèles de langage, une illusion guette : confondre la fluidité du discours avec l’acte même de penser. Garance Benoît, professeure de philosophie, montre que la défense des humanités n'a rien de nostalgique : elles sont d'une frappante actualité.**

## Corps du texte
Quand produire du texte ne suffit plus à penser
-----------------------------------------------

Parmi les manières récentes d’aborder la question de l’IA dans le discours public, il en est une ces derniers mois qui détonne, à laquelle Sciences Po participe largement, et qui consiste à dire que les larges modèles de langage (LLM) nous invitent dans la formation à revenir vers ce qu’on appelle « les humanités ». La réponse serait surprenante si elle consistait simplement à faire jouer un savoir traditionnel ancien contre une modernité dont les possibilités nous inquiètent. Elle s’entend mieux en revanche si l’on comprend qu’elle procède d’une réflexion sur la manière d’user au mieux de ces outils émergents, nous incitant à évaluer les possibilités ouvertes par ces programmes, mais aussi à estimer leurs limites.

Les LLM sont en effet aujourd’hui capables de produire, en quelques secondes, des résumés, des dissertations, des synthèses argumentées et des raisonnements plausibles. Cette capacité, désormais largement accessible, bouleverse les pratiques académiques et éducatives en rendant possible une production textuelle qui adopte jusqu’à un certain niveau les formes attendues du travail intellectuel. Il devient possible d’obtenir, sans engagement personnel réel, des textes structurés et cohérents, alors que ces productions étaient jusqu’alors associées à un travail de réflexion, de lecture et d’écriture. C’est ce fait, simple mais décisif, qui constitue le point de départ de beaucoup d’interrogations contemporaines autour des LLM, et qui nous invite à réfléchir à ce qui différencie la production et la lecture de textes humains par rapport à ceux générés artificiellement.

Un langage sans monde
---------------------

Sans entrer dans des détails techniques inutilement complexes, rappelons quelques points sur le fonctionnement des LLM : ce sont des modèles statistiques entraînés à prédire la continuation la plus probable d’un énoncé (le prochain _token_) [à partir de son contexte](https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf)1. Et cela, ils le font en s’appuyant sur l’apprentissage de vastes corpus textuels, _via_ ce qu’on appelle le « pré-entraînement » (qui constitue le fameux « P » de « GPT »). En se nourrissant ainsi de corpus immenses, ils condensent une part considérable de la culture écrite humaine. Dialoguer avec un tel modèle, ce n’est donc pas seulement interagir avec une machine, mais rencontrer une mémoire : une mémoire culturelle, impersonnelle, sédimentée, composée de textes, de styles, de raisonnements et de traditions intellectuelles accumulés au fil des siècles. Ce que le modèle mobilise, ce sont donc des formes héritées, des manières établies d’écrire et de penser, des régularités culturelles.

À ce titre, les LLM donnent accès à une puissance inédite d’exploration de la culture écrite. Ils recombinent, déplacent, rapprochent des éléments issus de traditions diverses, faisant apparaître des analogies et des continuités qui peuvent se révéler heuristiques. Cette capacité d’hybridation n’est d’ailleurs pas étrangère à la culture humaine elle-même : inventer n’a jamais signifié créer _ex nihilo_, mais toujours recomposer, transformer, recevoir et modifier des formes existantes. Une telle conception de la culture comme combinatoire a certainement trouvé son expression la plus célèbre dans la nouvelle _La_ _Bibliothèque de Babel_ de Borges. L’auteur y avait imaginé une bibliothèque infinie contenant toutes les combinaisons possibles de lettres, tous les textes possibles. En un sens, les larges modèles de langage réalisent à une échelle inédite quelque chose de proche : ils explorent un espace combinatoire, non pas infini et absurde, car il devait y avoir dans la bibliothèque imaginaire de Borges bien des ouvrages illisibles et dépourvus du moindre intérêt, mais structuré par les régularités statistiques des textes. Plutôt que de produire n’importe quelle combinaison, les LLM s’arrêtent sur celles qui sont rendues probables par les usages et les formes reconnues de la langue. En ce sens, ils réalisent une exploration de la culture écrite numérisée (dont il faudrait tout de même remarquer qu’elle n’en constitue qu’une partie) comme espace de possibles normés.

Cette puissance combinatoire des LLM donne des résultats tout à fait sidérants qui étonnent ses architectes eux-mêmes. Ingénieurs informatiques et mathématiciens sont, de leur propre aveu, incapables de dire pourquoi cela _marche_ si bien. Puisque certaines productions générées par _prompting_ avancé ou faites à partir de modèles spécifiques par _fine-tuning_ miment nos ouvrages à s’y méprendre, il faut reconnaître que la production culturelle joue bien davantage encore que ce que nous pensions sur des mécanismes apparentés à la combinatoire.

Ceci étant posé, cette faculté rencontre néanmoins une limite décisive dans la création. Si la statistique permet de reproduire des normes, elle ne les institue pas. Les LLM suivent les régularités de ce qui a été dit, reconnu et stabilisé, sans pouvoir décider qu’une norme doit être déplacée ou abandonnée. C’est en ce sens que Kant, dans la _Critique de la faculté de juger_, distinguait d’ailleurs l’invention véritable de la simple reproduction. Ce qu’il appelait, selon un terme quelque peu passé de mode, le « génie » consistait précisément à _instituer_ de nouveaux codes, _donner_ ses règles à l’art, former de nouvelles écoles.

En réalité, si les LLM ne peuvent être créatifs au sens fort du terme, ce n’est pas une limite fortuite, mais structurelle. Les LLM produisent du contenu sans jamais être directement confrontés au monde au-delà de corpus linguistiques existants. Cela, nulle amélioration technique par _Transformers_, _Chain-of-Thought_, élargissement des _data_ ou _fine-tuning_ ne pourra le résoudre. Ils ne parlent jamais depuis une situation vécue à laquelle ils seraient exposés mais demeurent ce que le philosophe Hilary Putnam avait appelé dans une expérience de pensée des « cerveaux dans une cuve »2 : des systèmes de neurones capables de manipuler des représentations sans jamais pouvoir les rapporter à leurs conditions d’apparition.3

Or, écrire, parler, pour un sujet humain, ne consiste pas seulement à produire des énoncés cohérents ou plausibles. C’est toujours dire quelque chose _de_ quelque chose, _dans_ une situation déterminée. À l’inverse, les LLM parlent depuis des normes, mais sans exposition au réel qui pourrait troubler leur architecture, positivement ou négativement. Ils excellent alors dans l’exploration d’un espace de possibles déjà constitué, sans jamais pouvoir instituer de nouvelles formes.

Ce constat ne disqualifie pas l’usage des LLM comme outils. Il permet au contraire d’en préciser le statut. Les IA sont des dispositifs puissants de manipulation symbolique, capables de produire des analogies statistiques à une échelle inédite4. Mais ce qui fait la valeur d’une pensée, d’un jugement ou d’une œuvre, ne se laisse pas réduire à des combinaisons de langage, même immensément sophistiquées : cela demande une expérience du monde qui ne soit pas que linguistique et statistique.

Or, c’est ce manque du monde qui éclaire aujourd’hui, par contraste, la valeur des grands récits de vie et de voyage dans les œuvres humaines, de Thucydide à Nicolas Bouvier, en passant par Saint Augustin ou Marguerite Yourcenar. Ces récits témoignent d’un _usage du monde_ irréductible à la seule médiation linguistique : ils engagent un corps, une temporalité, et une vulnérabilité à l’événement.

Et c’est à ce niveau que se joue finalement l’importance des œuvres humaines à l’ère des LLM. Elles nous apprennent d’une part que _penser le monde_ suppose d’y avoir un rapport, donc de le parcourir ; et démontrent d’autre part que produire un discours n’est pas que la recombinaison de ce qui a déjà été dit.

Historiquement, ceci correspond à une fonction intellectuelle prise en charge par ce que l’on a appelé les « humanités ».

Ce que font les humanités
-------------------------

Pour parler de la pertinence des humanités dans le contexte actuel, il faut d’abord se mettre au clair sur ce qu’elles ont désigné historiquement, et ce en quoi elles sont encore actuelles pour une réflexion sur la formation des esprits. Notons qu’il ne s’agit pas ici d’en proposer une histoire exhaustive, mais de repérer succinctement, à travers quelques figures, les fonctions intellectuelles que ce terme recouvre.

Chez Cicéron, les _humanitates_ désignent d’abord l’étude des lettres, de l’éloquence, et de la philosophie. Davantage qu’un ensemble disciplinaire, c’est surtout une pratique orientée vers le développement du jugement moral et l’aptitude à agir avec discernement dans la cité. C’est une éducation de l’homme libre, formé à la délibération et à la responsabilité publique. De là, on voit déjà que les humanités désignent au départ une ambition : celle d’élever l’homme, de l’orienter, de l’accompagner dans divers aspects de sa vie en formant son jugement.

À la Renaissance, les humanistes reprennent et transforment cet héritage à travers les _studia humanitatis_. Contre une scolastique tardive marquée par une lecture largement médiatisée des œuvres, filtrée par des chaînes de commentaires, ils promeuvent le retour aux textes eux-mêmes selon l’adage _ad fontes_ : « retour aux sources ». Lire, interpréter, traduire les textes classiques deviennent alors des exercices centraux de l’éducation de l’homme. La situation n’est pas sans analogie avec le moment présent où la multiplication des résumés et des notes de synthèse produits par les LLM tendent à se substituer à la lecture des livres eux-mêmes. Dans ce contexte, il redevient pertinent de réaffirmer cette doctrine d’il y a cinq siècles : _ad fontes,_ retournons à la lecture des grands textes, et prêtons attention à leur détail, à leur langage, et à la manière dont s’écrit une pensée.

Avec les Lumières enfin, et chez Kant en particulier, les humanités s’inscrivent dans une conception de la culture qui ne se définit pas par l’utilité immédiate, mais par le développement de l’usage libre et critique de la raison. Elles visent la formation d’un sujet autonome, capable de penser par lui-même et de se donner ses propres règles intellectuelles et morales. Cette injonction à l’élévation au-dessus de la simple utilité entre ici encore en résonance avec une problématique contemporaine : à mesure que les LLM produisent des textes formellement satisfaisants, ils mettent en lumière le fait que certaines pratiques — y compris dans un contexte scolaire et académique — reposaient déjà sur la reproduction de formes plutôt que sur l’exercice d’une pensée originale.

Ces figures permettent ainsi de dégager une constante : plus qu’à un ensemble de disciplines, les humanités désignent un certain type d’activité intellectuelle qui renvoie à des manières de lire, de juger et d’interpréter. Celles-ci engagent le sujet dans son rapport au sens et à la validité de ce qu’il affirme — une exigence pressante pour l’université contemporaine qui a pour tâche de former des esprits capables de répondre de leurs discours, dans un contexte où ceux-ci peuvent désormais être produits sans sujet.

Sur un malentendu contemporain : l’illusion des chaînes de pensée
-----------------------------------------------------------------

Profitons enfin de cette discussion sur les spécificités de la parole humaine face à celle de l’IA pour aborder une confusion courante.

Le [point classique de philosophie de l’esprit pour distinguer l’homme de la machine](https://home.csulb.edu/~cwallis/382/readings/482/searle.minds.brains.programs.bbs.1980.pdf) a consisté à dire que celle-ci pouvait bien mimer la compréhension humaine mais qu’elle n’aurait jamais accès à la compréhension ou à la « conscience » du contenu des énoncés qu’elle produit. Sur cette base, un contre-argument important a émergé dans les récents développements des LLM avec l’introduction de ce qu’on a appelé les « chaînes de pensée » ([_Chain-of-Thought_](https://arxiv.org/abs/2201.11903?utm_source=chatgpt.com)), tendant à être intégrées systématiquement dans l’architecture des modèles depuis 2025. Plutôt que de produire directement une réponse finale, ces derniers sont programmés pour générer une succession d’étapes intermédiaires, formant un raisonnement explicité, dans le but d’améliorer leurs performances sur des tâches complexes. De là, certains observateurs contemporains ont proposé qu’il puisse s’agir d’une forme de raisonnement analogue à la réflexion humaine, au motif que ces séquences déploient une succession de moments logiquement articulés où le programme a accès à ses propres étapes de raisonnement, permettant de justifier pas à pas les réponses produites. Pourtant, l’analogie est trompeuse.

Sur ce point, il est en effet essentiel de distinguer deux choses : le raisonnement et la réflexion. Le raisonnement désigne un enchaînement d’énoncés selon des règles de cohérence ou d’inférence ; il peut être valide ou invalide, correct ou incorrect. La réflexion, en revanche, ne se réduit pas à cette continuité formelle.

Car qu’est-ce que réfléchir, au sens fort ? Telle que comprise par la tradition philosophique depuis Descartes, la réflexion humaine est une opération motivée par un doute. Réfléchir ne signifie pas simplement enchaîner des raisons ou produire des inférences. Le terme renvoie d’abord, par analogie avec la réflexion spéculaire en physique, à une interruption, puis au fait de s’éloigner un temps de l’objet sur lequel on a buté pour revenir à soi. Ainsi, le _Penseur_ de Rodin médite assis, immobile. De même, dans le tableau _La Pensée_ de Jean Despuljols, on observe une lectrice, l’index de la main arrêté sur la ligne d’un livre ouvert sur ses genoux, le regard levé, perdu dans un trouble. Réfléchir, c’est donc d’abord suspendre son action, sa lecture, le fil habituel de sa pensée, afin de s’attarder sur ce qui résiste. Cette suspension suppose du temps, une distance et un effort.

À l’inverse, les chaînes des LLM sont continues et non vécues. Elles ressemblent à des réflexions, mais sans intuition originaire, sans interruption, et sans doute. Elles enchaînent des réponses plausibles sans que rien ne fasse véritablement problème pour elles, et sans assumer de responsabilité énonciative (ce dont ses multiples erreurs, qu’on appelle les « hallucinations » sont le symptôme). Si la pensée humaine peut se tromper, hésiter et s’égarer, elle sait aussi douter, s’arrêter et revenir sur ce qu’elle affirme. C’est cette conscience de l’exposition à l’erreur qui fonde en dernière instance la réflexion.

Mal employés, les LLM tendent à court-circuiter le moment de suspension face à un problème, où la réflexion devrait naître. Déléguer une difficulté à un programme sans s’y être d’abord confronté, c’est ainsi se dispenser de ce passage à la réflexion que l’expérience du monde rend possible. Le risque — déjà largement rencontré dans l’enseignement auprès des élèves — est alors que l’IA devienne un automatisme qui prenne la place de la pensée.

Notes : 

1\. Alors que les modèles antérieurs traitaient le langage séquentiellement, mot après mot, la révolution des _Transformers_ permet de considérer l’ensemble d’une phrase simultanément.

2\. Dans _Reason, Truth and History_ (1981), Hilary Putnam soutient que le sens et la référence ne peuvent être entièrement internes à l’esprit : un sujet privé de tout contact causal avec le monde ne pourrait pas réellement y référer. Cette thèse, qu’il nomme « externalisme sémantique », affirme ainsi que la signification dépend non seulement du langage, mais aussi d’un rapport effectif au monde extérieur.

3\. La position de Yann LeCun, considéré comme l’un des inventeurs de l’apprentissage profond, offre à cet égard une critique éclairante. En annonçant le 19 novembre 2025 son départ de Meta dont il assurait la direction scientifique de l’IA pour fonder une start-up dédiée à des systèmes capables de « comprendre le monde physique », il a vivement critiqué une industrie trop centrée sur les seuls modèles de langage. Il plaide depuis pour des modèles fondés sur la perception et l’action, c’est-à-dire dotés d’un rapport matériel au monde.

4\. On en voit une illustration dans le recours croissant aux méthodes de _machine learning_ dans des disciplines fondées sur l’exploitation massive de données, comme l’astrophysique ou la cosmologie. Ces outils permettent d’améliorer les prédictions et d’extraire des informations à partir de corrélations complexes. Mais, comme le rappellent les physiciens eux-mêmes, cette efficacité _prédictive_ ne saurait être confondue avec une _compréhension_ des lois et des principes fondamentaux qui gouvernent les phénomènes étudiés.

**Licence :** `#CC-BY-ND (Attribution, Pas de modification)` 

### Thématique
`#Numérique` 

**Langue :** `#Français` 



---
### Navigation pour IA
- [Index de tous les contenus](https://conference.sciencespo.fr/llms.txt)
- [Plan du site (Sitemap)](https://conference.sciencespo.fr/sitemap.xml)
- [Retour à l'accueil](https://conference.sciencespo.fr/)
