Le 25 janvier 2024, Mark Zuckerberg était auditionné par la Federal Trade Commission (FTC) dans le cadre d’une enquête antitrust sur les pratiques commerciales de Meta. Au-delà des considérations économiques, son témoignage a mis au jour un basculement plus large dans l’orientation des plateformes sociales. Il y déclarait notamment que Facebook était devenu « un espace de découverte et de divertissement » — précisant que seules 17 % des interactions concernent les publications d’amis, contre 7 % sur Instagram.
Ces chiffres, qui n’ont rien d’anecdotique, confirment une dynamique déjà observable : les réseaux sociaux ne sont plus structurés par la relation entre individus, mais par la diffusion de contenus déterminée par des algorithmes d’optimisation attentionnelle. Le modèle social originel — celui qui reposait sur l’échange, la connexion, la visibilité mutuelle — s’efface progressivement au profit d’une logique de consommation individualisée de flux médiatiques. La fonction sociale des plateformes devient marginale dans leur économie générale.
Simultanément, un autre phénomène s’accélère : l’essor des modèles d’intelligence artificielle générative tels que ChatGPT (OpenAI), Claude (Anthropic) ou Gemini (Google). Ces systèmes, appelés agents conversationnels, sont des logiciels capables de simuler une discussion en langage naturel avec un humain. Conçus à l’origine comme outils d’assistance (poser une question, générer un texte, résumer un document), ils tendent aujourd’hui à devenir des interlocuteurs adaptatifs : ils mémorisent nos préférences, ajustent leur style, reformulent, contextualisent — et donnent l’impression, parfois, d’une forme d’écoute.
Ce que ces deux évolutions laissent entrevoir est un changement de paradigme dans notre rapport au numérique : d’un côté, les espaces relationnels classiques perdent leur centralité ; de l’autre, les interfaces pilotées par l’IA s’installent comme nouvelles médiations de la parole, de l’attention, et de la relation. Ce glissement mérite d’être interrogé à la fois dans ses dimensions techniques, sociologiques et politiques.
La déprise du sociographe
Le cœur de cette transition se trouve dans le déclin du sociographe numérique — cette cartographie algorithmique de nos liens sociaux, héritée des premiers réseaux sociaux. À l’origine, les plateformes comme Facebook reposaient sur la promesse d’un web social, structuré par nos connexions interpersonnelles. Mais aujourd’hui, ce sont des algorithmes de recommandation, non des relations humaines, qui déterminent la visibilité des contenus.
Les fils d’actualité se sont transformés en flux médiatiques, où la logique sociale — la mise en relation entre pairs — cède la place à la logique de l’engagement mesurable. Ce glissement vers un modèle de diffusion, optimisé pour la rétention, a progressivement vidé les plateformes de leur fonction première : organiser la sociabilité. Ce phénomène, bien documenté, traduit un déplacement de l’intention relationnelle vers une stratégie d’optimisation attentionnelle.
Des assistants aux confidents : mutation des IA conversationnelles
Dans l’espace ainsi libéré par la désaffection des réseaux sociaux, les agents conversationnels prennent une place croissante. Leur évolution n’est pas seulement technique — elle est interactionnelle. En quelques années, on est passé de chatbots rudimentaires à des entités conversationnelles capables de simuler une présence.
Grâce à des mémoires conversationnelles, une modélisation du langage contextuelle et des simulations d’intelligence émotionnelle, ces IA proposent une interaction continue, personnalisée, adaptative. Elles savent reformuler, se souvenir d’un fait évoqué, ajuster leur ton. Elles produisent une illusion de relation, que l’on pourrait qualifier de présence artificielle fiable.
Les usages suivent cette évolution. Selon une publication de la Harvard Business Review, la compagnie — entendue comme relation non utilitaire — est devenue l’un des cas d’usage majeurs. Des chercheurs parlent de ces IA comme de partenaires cognitifs, thérapeutes de substitution, ou encore amis simulés. Ce n’est plus seulement l’outil qui accompagne l’humain : c’est l’interlocuteur algorithmique qui prend sa place dans certains registres du lien.
AGI ou simple illusion ? La perception sociale de l’intelligence
Techniquement, ces systèmes ne constituent pas encore une AGI (intelligence artificielle générale), c’est-à-dire une IA capable de rivaliser avec l’humain dans tous les domaines cognitifs. Le concept de Jagged AGI, proposé par Ethan Mollick, décrit une réalité plus nuancée : ces IA sont surhumaines dans certaines tâches (analyse, synthèse, logique), mais fragiles dans d’autres (arithmétique simple, logique implicite, mémoire des faits).
Et pourtant, un basculement s’opère dans la manière dont les utilisateurs perçoivent l’intelligence. Ce n’est plus seulement la validité des réponses qui compte, mais la qualité de l’interaction vécue. Une IA qui comprend nos intentions, formule une réponse adaptée et se montre cohérente suffit à produire une impression d’intelligence. Tyler Cowen résume ce phénomène d’un trait provocateur :
Je reconnais l’AGI quand je la vois.
Cette perception d’intelligence est en soi un fait sociologique majeur. Elle modifie notre rapport à la machine, et en retour, redéfinit les attentes que nous plaçons dans l’interaction numérique.
Une nouvelle topographie sociale
Ce glissement de la relation sociale vers la relation simulée n’est pas un simple remplacement. Il s’accompagne d’une reconfiguration des dynamiques de pouvoir, de sens et d’accès à l’information.
D’un côté, cette IA omniprésente promet une interaction individualisée, fluide, non conflictuelle — un miroir réactif qui peut soutenir, assister, ou simplement « être là ». Pour certains, elle représente un espace de refuge, à distance des injonctions sociales des réseaux traditionnels. De l’autre, elle pose de nouvelles questions :
- Quel est l’impact psychologique d’une interaction constante avec des entités sans friction, programmées pour nous plaire ?
- Comment garantir la protection des données dans une relation où l’IA mémorise des éléments sensibles de nos échanges ?
- Qui détient le pouvoir de cadrer la réalité, si ces IA deviennent les filtres principaux de nos perceptions, de notre savoir, voire de nos émotions ?
Le fait que d’anciens architectes du web social (comme Mike Krieger ou Kevin Weil) dirigent désormais des produits IA chez Anthropic ou OpenAI témoigne de la fusion entre design de l’attention et design de l’interaction simulée. L’enjeu n’est plus de connecter des humains, mais de reproduire numériquement les conditions de cette connexion.
Conclusion : habiter le paradigme relationnel artificiel
Ce que nous vivons n’est pas un simple changement d’interface. C’est une mutation de l’architecture même de nos relations numériques. L’intelligence artificielle générative ne se contente pas de nous assister : elle recompose les contours du lien, elle intercale une présence algorithmique entre nous et le monde.
Face à cela, il ne s’agit pas seulement de s’émerveiller ou de s’inquiéter. Il faut analyser, anticiper, et surtout, concevoir. Car cette nouvelle sociabilité ne se développe pas hors-sol : elle est programmée, financée, normée, mais aussi habitée, ritualisée, vécue. Elle est un objet social, au sens plein du terme.
Comprendre l’IA comme vecteur de socialité implique donc de la penser au croisement du technique, du symbolique et du politique. L’avenir ne se résume pas à des modèles plus performants : il repose sur notre capacité à choisir les formes de relation que nous voulons entretenir avec (et à travers) ces systèmes.
Un paradigme s’efface. Un autre s’ébauche. Il est encore temps d’en définir les règles.