
IA, réseaux sociaux et visibilité : comprendre les nouvelles règles du jeu
Il fut un temps pas si lointain où publier sur un réseau social relevait d’un art relativement compréhensible. On postait, on observait, on ajustait. On avait l’impression – naïve sans doute, mais réconfortante – qu’il existait des règles, même mouvantes, mais au moins repérables. Aujourd’hui, ce sentiment a disparu. À la place, une impression diffuse : quelque chose s’est déplacé, sans prévenir, sans mode d’emploi, sans panneau “travaux en cours”.
Les réseaux sociaux ne fonctionnent plus comme avant. Et ce n’est pas seulement une nostalgie d’anciens combattants du fil d’actualité. Beaucoup d’utilisateurs ont le sentiment très concret de perdre la main : sur leur visibilité, sur leurs audiences, parfois même sur le sens de leur présence en ligne. L’arrivée massive de l’intelligence artificielle dans les systèmes de recommandation n’a pas créé ce malaise, mais elle l’a rendu plus opaque, plus systémique, presque… administratif.
Prenons LinkedIn, ce réseau où l’on vient parler sérieusement de choses sérieuses, avec un sourire professionnel bien cadré. Certaines utilisatrices y ont mené une expérience simple : changer de prénom, adopter un genre masculin, durcir légèrement le vocabulaire, injecter quelques mots-clés bien testostéronés – “stratégique”, “leader”, “vision”. Résultat : plus de likes, plus de commentaires, plus de portée. Comme si l’algorithme hochait la tête en disant : ah, voilà quelqu’un de crédible.
Ce n’est pas une anecdote isolée. Une étude publiée en 2025 dans Nature Communications montre que les femmes s’autopromeuvent environ 28 % moins que les hommes sur LinkedIn. Non pas par manque de compétences, mais parce que la prise de parole publique reste socialement plus coûteuse pour elles. Dans un environnement algorithmique qui valorise la répétition, l’assurance et l’autopromotion, cette retenue devient un handicap mécanique. L’algorithme ne “voit” pas le contexte culturel ; il compte des signaux.
Face à cela, beaucoup parlent de shadowban. Ce mot un peu magique, un peu parano, qui sert à nommer un sentiment : publier sans être vu. Officiellement, les plateformes jurent leurs grands dieux qu’il n’existe aucune invisibilisation volontaire. Officieusement, la complexité des algorithmes rend toute contestation impossible. Quand un système est trop compliqué pour être expliqué simplement, il devient, de fait, incontestable.
C’est là qu’intervient le travail du chercheur indépendant Martyn Redstone. En décortiquant les publications techniques de LinkedIn, il a reconstruit l’architecture probable de son système de recommandation. Ce qu’il décrit n’est pas un complot, mais quelque chose de plus dérangeant : un enchevêtrement de mécanismes parfaitement “rationnels” qui, mis bout à bout, produisent des inégalités durables. Les profils déjà visibles le deviennent encore plus. Les comportements majoritaires sont renforcés. La controverse est valorisée. Les notifications amplifient ceux qui ont déjà de l’audience. Rien d’illégal, rien d’intentionnel. Mais un système qui, sans garde-fous, reproduit fidèlement les déséquilibres sociaux existants.
Depuis fin 2025, LinkedIn a franchi une étape supplémentaire en confiant son flux de recommandation à un système baptisé “360brew”. Le réseau ne mettrait plus vraiment en avant des contenus, mais des profils. Autrement dit, ce n’est plus tant ce que vous dites qui compte que qui vous êtes perçu comme étant. Problème : cette mutation s’est faite sans pédagogie. Les règles ont changé, mais personne n’a reçu la notice.
Et LinkedIn n’est pas un cas isolé. X s’appuie désormais sur Grok pour piloter ses recommandations. YouTube suscite les mêmes interrogations. Partout, les plateformes deviennent des systèmes pilotés par des IA dont les critères réels échappent même aux utilisateurs expérimentés. On ne joue plus avec l’algorithme ; on joue dans l’algorithme, sans voir les murs.
La colère que l’on observe ici ou là ne vient pas seulement d’une baisse d’audience. Elle vient d’une perte de lisibilité. Avant, on pouvait se dire : si je fais mieux, ça marchera mieux. Aujourd’hui, l’effort n’est plus corrélé au résultat. Les règles changent sans cesse, sans explication, renforçant une asymétrie de pouvoir déjà massive entre plateformes et utilisateurs.
Ironie supplémentaire : dans ce nouvel environnement, les contenus générés par IA sont souvent mieux armés. Optimisés pour l’engagement, calibrés pour les signaux algorithmiques, produits sans fatigue ni scrupules. Face à eux, les productions humaines – plus lentes, plus nuancées, parfois hésitantes – font figure d’artisanat à l’ère de la chaîne industrielle.
Les signes d’épuisement sont partout. Les taux d’engagement chutent. On scrolle plus qu’on échange. Le fil d’actualité devient moins un espace d’information qu’un outil de régulation émotionnelle : on ne cherche plus quelque chose, on cherche à ne pas s’arrêter. Les jeunes, particulièrement lucides sur le caractère artificiel des contenus, continuent pourtant de défiler. Se retirer totalement, ce serait risquer l’exclusion symbolique : ne plus comprendre les références, les mèmes, les microcultures qui font langage commun.
Alors, assiste-t-on à la fin des réseaux sociaux ? Probablement pas. Mais sans doute à la fin de leur illusion de masse. Les plateformes elles-mêmes semblent l’avoir compris : montée des messageries privées, des communautés fermées, des cercles restreints. Moins de viralité, plus de relation. Moins de “tout le monde”, plus de “quelques-uns”.
Reste une question, simple et inconfortable : voulons-nous continuer à courir après la visibilité dans des systèmes opaques, ou sommes-nous prêts à reconstruire – lentement, imparfaitement – des espaces numériques plus humains, plus lisibles, plus choisis ?
La réponse n’est pas algorithmique. Et c’est peut-être la meilleure nouvelle.
Médias et enquêtes journalistiques
The Guardian
https://www.theguardian.com
(enquêtes sur les expériences de femmes modifiant leur genre et leur vocabulaire sur LinkedIn)
Next (France) – articles de Mathilde Saliou
https://next.ink
https://next.ink/author/mathilde-saliou/
Financial Times – analyses d’Isabel Berwick
https://www.ft.com
https://www.ft.com/isabel-berwick
Journal du Net – article d’Emmanuelle Petiau
https://www.journaldunet.com
Siècle Digital – algorithme de X
https://siecledigital.fr
L’ADN – article de David Julien Rahmil
https://www.ladn.eu
Noema Magazine – article de James O’Sullivan
https://www.noemamag.com
The Verge – TikTok et contrôle des contenus IA
https://www.theverge.com
Études et recherche académique
Nature Communications (2025) – autopromotion et genre
https://www.nature.com/ncomms/
Analyses indépendantes et expertise
Martyn Redstone – analyse de l’algorithme LinkedIn
https://martynredstone.com
https://github.com/martynredstone
Xavier Degraux – analyses LinkedIn
https://www.xavierdegraux.com
Plateformes et sources officielles
Blog officiel LinkedIn – fonctionnement du feed
https://www.linkedin.com/blog
Campagne “Fairness in the Feed”
https://www.fairnessinthefeed.org
GitHub – éléments de l’algorithme de X
https://github.com/twitter
OpenAI – positionnement sur l’écosystème informationnel
https://openai.com/blog
Axios – média partenaire OpenAI
https://www.axios.com
Bonus (utile pour débat / Café IA)
TikTok – communication IA et recommandations
https://newsroom.tiktok.com
.
IA, réseaux sociaux et visibilité : comprendre les nouvelles règles du jeu







