Projets de territoire : les 100 jours où tout se joue

Pour cela, on pourrait imaginer la mise en place d’une task force dédiée, positionnée comme une fonction ressource au service de l’administration et des élus (et non comme un commando déconnectée de l’organigramme). Cette équipe-ressource serait à la fois unique – pour concentrer les efforts – et à géométrie variable – pour mobiliser les bonnes compétences en fonction des problématiques abordées.
Cette cellule agit comme un starter, en se focalisant sur un chantier tous les six mois. Cette durée est trop courte pour porter une politique publique en tant que telle. Mais elle est largement suffisante pour enclencher le premier rouage de l’engrenage, lever les obstacles de court terme et rendre le mouvement irréversible. Son objectif consiste aussi (et surtout) à fabriquer les outils pour passer des orientations stratégiques à la mise en œuvre opérationnel sur chaque chantier. Libre ensuite aux directions concernées de s’en emparer !
Ces trois pistes démontrent que la planification straté

Par Grégoire Alix-Tabeling et Yoan Ollivier, designers (Vraiment Vraiment) et Nicolas Rio (Partie Prenante) « #innovation #design : de l’audace pour nos territoires ! ». Le titre des prochaines rencontres de la FNAU affirme l’intérêt d’impliquer les designers dans la transformation de l’action publique et la mise en mouvement des territoires. Appliqué aux agences d’urbanisme, il invite surtout à … Continuer la lecture de « Projets de territoire : les 100 jours où tout se joue »

L’article Projets de territoire : les 100 jours où tout se joue est apparu en premier sur Partie Prenante @ Nicolas Rio 2017.

Tuer l’innovation dans votre entreprise, c’est simple !

« Comment ne pas être démobilisé si tout le boulot fun est confié à une équipe isolée »La culture d’innovation, c’est réussir à faire ne sorte que tous les collaborateurs de l’entreprise soient impliqués dans les processus d’innovation. Les sources d’innovation sont partout : le service commercial ou le bureau d’étude bien sur, mais aussi le service administratif, les achats, la logistique, le juridique, … Les entreprises sont assises sur des tas d’or qu’elles se refusent à exploiter, tellement il est plus valorisant d’ouvrir un lab ou un incubateur et de dédier un gros budget à la politique d’innovation.
Tout ceci étant dit, il n’est pas simple de faire en sorte que chaque employé s’implique dans les processus d’innovation de l’entreprise. Je ne crois pas trop aux outils, plateformes, intranets ou applications mobiles sensés donner envie comme par magie à tout le monde de s’impliquer. Tous les efforts doivent plutôt être portés vers le management et la culture de l’entreprise. Les col

Tuer l’innovation dans votre entreprise est simple : lancez un programme d’innovation, écrivez une stratégie d’innovation. Un laboratoire d’innovation, un service dédié, une direction innovation, … ? Ce sont les derniers avatars d’un fléau bien connu : l’entreprise…

Cet article Tuer l’innovation dans votre entreprise, c’est simple ! est apparu en premier sur Les cahiers de l’innovation.

De l’UX à la médiathèque

Bien sûr, il y a les sondages, les enquêtes de satisfaction et les questionnaires en ligne…  Si ces méthodes d’enquête permettent de recueillir des données quantitatives ou qualitatives souvent extrêmement pertinentes, après deux ans d’ouverture et mettant à profit le travail d’une élève conservatrice en stage, la bibliothèque a eu envie d’innover pour connaître ses usagers en explorant de nouvelles méthodes inspirées de l’UX.

La Médiathèque de la Canopée a testé des méthodes UX pour mieux connaître ses usagers. Retour d’expérience.

Bien sûr, il y a les sondages, les enquêtes de satisfaction et les questionnaires en ligne…  Si ces méthodes d’enquête permettent de recueillir des données quantitatives ou qualitatives souvent extrêmement pertinentes, après deux ans d’ouverture et mettant à profit le travail d’une élève conservatrice en stage, la bibliothèque a eu envie d’innover pour connaître ses usagers en explorant de nouvelles méthodes inspirées de l’UX.

Définition de l’UX 

Acronyme de « User Experience », l’« expérience utilisateur » est un concept datant des années 1990, initialement ancré dans le secteur informatique. En prolongeant la notion d’utilisabilité, l’UX s’intéresse au ressenti émotionnel des utilisateurs quand ceux-ci utilisent un produit ou un service, réel ou virtuel. Très souvent, d’une observation des comportements et des usages, on peut mieux comprendre ce qu’il faudrait améliorer pour que le produit ou le service soit le plus adapté aux individus, que l’expérience soit la plus agréable possible. Lieux publics aux multiples interactions, les bibliothèques se sont intéressées à la palette de dispositifs UX proposés pour connaître les expériences de leurs utilisateurs, et proposer rapidement des améliorations.

Les méthodes d’observations UX

  • Une enquête contextuelle[1] a permis d’apprécier sur deux semaines les attitudes des usagers dès qu’ils franchissent le seuil de la bibliothèque, et la manière dont ils perçoivent l’accueil et s’orientent dans les différents espaces. D’une durée de quinze minutes réitérée à plusieurs moments ciblés de la journée, cette observation des publics in situ a pour objectif de renseigner une grille d’observation sur les types de comportements rencontrés, par profil d’usagers.
  • La méthode sweeping the library[2] a été utilisée pour observer six zones de la bibliothèque[3] et réaliser une photographie à un instant T des usagers et des usages, en particulier de l’utilisation du mobilier et de l’espace.
  • Les cartes d’itinéraires[4] ont permis d’étudier les parcours des visiteurs. Si l’UX préconise que l’usager conçoive sa propre carte, dans notre cas, le bibliothécaire est allé l’aborder et lui demander de reporter son parcours sur une carte vierge préimprimée. Reposant sur une médiation plus forte, ce dispositif a eu l’avantage de recueillir des informations qualitatives sur les expériences vécues à la bibliothèque.

Anaix_UX 02

Résultats de l’enquête

Par un traitement des grilles d’observations et une compilation des données issues des cartographies, l’enquête a permis de faire émerger quelques grandes tendances.

Étude de l’accueil

La plupart des visiteurs sont des usagers familiers, leur comportement et leurs pas sont assurés. Une stricte parité homme/femme a été observée. Le « Côté Jardin » propice à la lecture est la première zone où se dirigent les usagers. La belle vue sur le Jardin Mandela et l’église Sainte Eustache y fait probablement pour beaucoup. Les bureaux de l’accueil sont bien repérés par les quelques visiteurs hésitants, en quête d’informations. Par contre, l’accueil n’est qu’un lieu de passage pour les habitués. L’ « Espace Imaginaire » dédié aux enfants et l’espace « 3C » (acronyme pour convivialité, créativité et connecté)  où se trouvent les salons, les ordinateurs et quelques fonds spécialisés sont exclusivement investis par des initiés, qui s’y dirigent rapidement. Enfin, les automates constituent un point de contact de première importance pour un grand nombre des usagers, de passage à la bibliothèque.

persona 2.png

Étude des espaces

L’enquête a révélé la bonne compréhension par les usagers du projet d’établissement et de la structuration des espaces autour des usages, entre la zone froide « Côté jardin » propice à la lecture et aux activités silencieuses, regroupant les principaux fonds documentaires et la presse ; et la zone chaude, l’espace « 3C » où les usagers peuvent discuter, consulter les ordinateurs et participer aux animations culturelles. Cependant des usages plus spécifiques ont été finement localisés, permis souvent par le détournement du mobilier. Par exemple, pendant cette période d’examens, des étudiants ont utilisé les marches de l’estrade côté jardin pour travailler. Zone de l’espace « 3C », le bar à mangas est devenu un espace studieux, le bar étant utilisé comme des tables d’étude. Où qu’ils soient disposés dans la bibliothèque – à l’exception de l’Espace Imaginaire, les Fatboys sont majoritairement utilisés par des dormeurs et très peu par les lecteurs.

Canopée-La fontaine 12

Des activités parallèles et collectives, notamment des cours d’adultes, se déroulent à la bibliothèque faisant d’elle un lieu de rencontres et de réunion au cœur de Paris. Chez les jeunes adultes, nous remarquons que la découverte de la bibliothèque passe par une tierce personne qui joue le rôle de médiateur, faisant découvrir à l’autre la bibliothèque et l’incitant à s’inscrire et à utiliser ses services.

En outre, la répartition homme/femmes a révélé que les hommes occupaient davantage les espaces, à l’exception de la zone du bar à mangas où la parité est observée. L’estrade « Côté jardin » fait l’objet d’une occupation largement masculine : près des trois quarts des usagers sont des hommes.

persona 1

Personas

Les cartographies ont permis de créer six personas des usagers en prenant en compte deux critères : leurs activités et la durée estimée de leur séjour à la bibliothèque. Quelques verbatim ont été citées et les dessins sont l’œuvre de Xavier, talentueux bibliothécaire de la Canopée.

Pour conclure

Insufflant de nouvelles pratiques d’observations, cette enquête a permis de sensibiliser l’équipe aux enjeux de l’UX. Complètement intégrée au projet, celle-ci a joué le jeu en adoptant et testant les dispositifs. En s’appuyant sur les premières conclusions de cette étude, des pistes sur l’amélioration des espaces sont déjà étudiées. Par ailleurs, la direction souhaite prolonger l’expérimentation UX dans son établissement par la mise en œuvre prochaine d’autres dispositifs intégrant davantage les publics.

Par Anaïs Scalla, élève conservateur à l’ENSSIB

[1] L’enquête contextuelle consiste à observer, durant un temps déterminé, des usagers dans leur environnement effectuer des tâches particulières.

[2] La méthode dite sweeping the library (balayer la bibliothèque), souvent employée dans les bibliothèques anglo-saxonnes, est un type d’observation de nature quantitative, permettant de faire un relevé des usages et des comportements à un moment donné.

[3] Trois zones ont été observées pendant trois semaines. Elles soulèvent un certain intérêt pour leurs usages distincts : le petit salon de l’accueil (espace d’attente), le bar à mangas (espace aux usages contrastés de détente et de travail) et une estrade au fond de la salle de lecture (espace caché). L’observation a été étendue à 3 zones supplémentaires la dernière semaine : salon de presse, estrade jeunesse et salon 3C.

[4] Les cartes d’itinéraires constituent un outil de visualisation des trajectoires des usagers et des points de contact qu’ils ont utilisés, dans un espace délimité.

Publicités

Une capsule de sommeil isotherme pour les SDF

Déjà primé au concours Lépine en 2018, Jérémie Jeanne a mis au point une capsule de sommeil pour protéger les sans-abris du froid et de l’humidité.
Après quelques mois passés dans la rue, l’idée ne le quitte plus. Jérémie Jeanne a depuis conçu un prototype unique en son genre : une valise à roulettes qui se déplie en une sorte de “sarcophage” pour dormir au chaud. Ce Caennais de 36 ans ne laisse rien au hasard. Fabriquée en plastique recyclée ou en algue, la capsule sera dotée : 
– d’une couverture de survie,
– de petits hublots teintés pour garder l’intimité sans s’enfermer, 
– et de trous pour aérer la cabine et mieux respirer

Déjà primé au concours Lépine en 2018, Jérémie Jeanne a mis au point une capsule de sommeil pour protéger les sans-abris du froid et de l’humidité.

Après quelques mois passés dans la rue, l’idée ne le quitte plus. Jérémie Jeanne a depuis conçu un prototype unique en son genre : une valise à roulettes qui se déplie en une sorte de “sarcophage” pour dormir au chaud. Ce Caennais de 36 ans ne laisse rien au hasard. Fabriquée en plastique recyclée ou en algue, la capsule sera dotée :
– d’une couverture de survie,
– de petits hublots teintés pour garder l’intimité sans s’enfermer,
– et de trous pour aérer la cabine et mieux respirer.

Innovation accessible

Le concept est bien ficelé, reste maintenant à trouver les financements. Jérémie espère pouvoir lever 3 500 euros sur la plateforme participative Kiss Kiss Bank Bank et remporter le prochain concours Lépine. Un rêve pas si fou, puisque le jeune inventeur a déjà été primé en 2018 pour sa cabine de changement portative Tub’z. Le but pour sa capsule de sommeil est de la rendre accessible, à 15 ou 20 euros. Facilement transportable et peu onéreuse, son invention a donc du potentiel tant pour aider les SDF que les migrants ou militaires.

Les « communautés de vérité » de la culture numérique – Marc Jahjah

En parlant de “programmes de vérité”, nous évitons de réfléchir uniquement en termes de manipulation ou d’influence pour comprendre comment et pourquoi les programmes s’ajustent aux personnes ou à des collectifs de personnes, sans nier pour autant la part de coercition ou les rapports de force qui peuvent s’instaurer dans ces programmes et entre des programmes.

Sommaire

(à Yuka)

Nous avons souvent tendance à qualifier d’ ”idéologiques” des idées qui ne sont pas les nôtres1Ce billet est une réécriture et une très large extension d’un article à paraître dans Pascal Robert, L’Impensé numérique, t.2, Editions des Archives, courant 2018.. Dans un petit livre aussi bref que dense, l’historien de l’antiquité gréco-romaine Paul Veyne (1983) propose de remplacer les notions d’ ”idéologie”, de “mythe”, d’ ”imaginaire” ou même de “croyance”, qui servent généralement à sanctionner des valeurs étrangères, par celle de “programme de vérité”.

Vérité, confiance et mauvaise foi

Selon Veyne, il n’y aurait pas d’un côté des vérités et de l’autre des erreurs : il n’existerait que des “programmes de vérité”*2Chaque terme avec une astérisque est défini dans le lexique. que se fixent à un moment donné des “personnes”3La notion de personnes vient ici remplacer celle d’ ”acteurs”, d’ ”agents” ou d’ ”usagers” : elle présuppose une capacité d’action chez chacun d’entre nous qui n’est pas nécessairement déterminée par une situation dans laquelle s’engagent les personnes. Corrélée à celle de capacité — voir note d’après -, la notion de personne réintroduit de l’incertitude, de l’imprévu dans l’étude de l’action humaine. Voir Luc Boltanski et Laurent Thévenot, De la justification, Gallimard, 1991. et auxquels elles adhèrent par conviction, mauvaise foi ou opportunisme, parce qu’elles ont un temps confiance en l’expertise de leur promoteur.

Car elles ne sont jamais tout à fait dupes : elles peuvent croire et ne pas croire, adhérer à ce qui se présente à une vérité en un lieu (dans un espace public) et y renoncer à un autre (chez soi), choisir de suspendre leur crédulité un moment (le Père Noël existe) et se montrer incrédule ensuite. Nous savons bien mais quand même (Lambert, 2014)... Bref, les personnes sont compétentes ou capables4La capacité est un principe de la sociologie pragmatique qui prête aux personnes des aptitudes à analyser leur propre situation : elles n’appliquent pas bêtement un script ou un programme mais l’actualise en fonction de leurs intérêts, de leurs croyances, de l’intensité de leur adhésion. Voir Cyril Lemieux, La Sociologie pragmatique, La Découverte, 2018: si nous adhérons parfois sans résistance à des programmes (publicitaires, politiques, etc.), rien ne permet de dire que nous faisons toujours corps avec eux, avec la même intensité et sans distanciation. Bien au contraire, nous sommes capables de réviser nos jugements, voire de changer d’opinion, en fonction de notre environnement et de ses fluctuations. Les “programmes de vérité” relèvent ainsi d’une analyse pragmatique et dynamique des jugements, des valeurs et des actions humaines.

Les Grecs croient et ne croient pas à leurs mythes : ils y croient mais ils s’en servent et ils cessent d’y croire là où ils n’y ont plus d’intérêt. (…) tous les peuples donnent un coup de pouce à leurs oracles ou à leurs indices statistiques pour se faire confirmer ce qu’ils désirent croire.” (Paul Veyne, Les Grecs ont-ils cru en leurs mythes, Seuil, 1983, p. 94)

Le recours à ce concept a un intérêt discret mais majeur : d’une part, il permet de ne pas présumer a priori des tentatives de manipulation ou de falsification d’un réel donné chez les promoteurs d’un programme (une “start-up” peut sincèrement croire qu’elle va changer le monde, en dépit de ses logiques marchandes et stratégiques) ; d’autre part, il pointe la part de participation des personnes à qui s’adressent ses programmes, en montrant comment elles y adhèrent et selon quelles modalités. En parlant de “programmes de vérité”, nous évitons de réfléchir uniquement en termes de manipulation ou d’influence pour comprendre comment et pourquoi les programmes s’ajustent aux personnes ou à des collectifs de personnes, sans nier pour autant la part de coercition ou les rapports de force qui peuvent s’instaurer dans ces programmes et entre des programmes.

Un exemple : le programme de vérité du web (dit) 2.0

Un exemple (que je travaille de manière plus approfondie ensuite) : le programme du web (dit) 2.0. Le 10 décembre 2006, Tim O’Reilly, entrepreneur et promoteur de cette expression, finit par proposer la définition suivante :

Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them. (This is what I’ve elsewhere called “harnessing collective intelligence.”)

Or, un an sépare cette définition ultime d’un premier texte daté du 30 septembre 2005 (“What is Web 2.0 ?”) où O’Reilly cherchait à catégoriser une série de transformations observées sur Internet. De septembre 2005 à décembre 2006, son texte a bénéficié des suggestions de personnes qui, dans leurs commentaires, ont amendé, corrigé ou validé des éléments de sa première définition. Dans le texte de 2006, O’Reilly lui-même rappelle sa dette en matérialisant explicitement les débats suscités par sa définition, qui n’en était manifestement pas encore une :

O'Reilly 2.0 web deuxième définition

Progressivement, ce texte est devenu un point de ralliement entre des pratiques, des personnes, des mondes hétérogènes (Rébillard, 2011) qui s’en réclament parfois de manière opportuniste ou parce qu’il a simplement été naturalisé, “impensé” comme dirait Pascal Robert (2016), c’est-à-dire soustrait au débat public au point d’être aujourd’hui convoqué médiatiquement avec la force d’un réflexe pavlovien (“génération 2.0”, “émission 2.0”, etc.). Mais cette soustraction s’est faite après d’importants débats où O’Reilly s’est ajusté aux personnes. Autrement dit : les uns et les autres se sont mutuellement reconnus et élus dans la définition conjointe de leur programme de vérité qui atteste d’une polyphonie énonciative.

Dans cette perspective, on définira l’ajustement* comme l’opération par laquelle “les sujets élaborent dans la durée les normes, croyances, confiances et postures.” (Jeanneret, 2014, p. 87)

Programmes et “Maître de vérité” 

Un tel processus ressemble à bien à des égards au portrait que Marcel Detienne fait des Maîtres de vérité dans la Grèce archaïque (2006) : à cette époque, la parole du roi, du devin et du prêtre n’est jamais questionnée : elle est de type assertorique ; elle est “un discours de vérité” qui énonce “ce qui a été, ce qui est, ce qui sera.”

S’ils ne recherchent pas l’assentiment de leur communauté, le roi, le devin et le prêtre sont cependant soumis respectivement à trois ordres transcendants : le Droit, la Mantique, la Muse. Pour que leur parole reste socialement insoumise, ils doivent paradoxalement respecter les ordres reconnus par leur groupe social.

la vérité se définit à deux niveaux : conformité à des principes logiques d’une part, conformité au réel d’autre part, et par là elle est inséparable des idées de démonstration, de vérification, d’expérimentation. (Detienne, 2006, p. 51)

Maîtres et groupe sont donc indissociables : ils s’ajustent l’un à l’autre, définissent conjointement, reconnaissent les normes, les valeurs, les confiances et les postures dont ils ont mutuellement besoin pour s’organiser socialement. C’est pourquoi la tromperie ou la manipulation des Maîtres est bien relative, même si Détienne reconnaît son existence : plus que des virtuoses de la triche, de la ruse et du mensonge, ce sont les figures visibles d’un programme de vérité.

Bilan partiel : la vérité comme énoncé convenable naturalisé

À suivre ma lecture de Veyne et Détienne, on pourrait croire que je souscris au paradigme constructiviste de première génération, excessivement mentaliste et relativiste, encore parfois présent en sciences humaines et sociales. En fait, leur propre positionnement est plus nuancé. Chez Veyne comme chez Détienne, les programmes s’ajustent, même s’ils finissent par s’imposer de manière transcendante : qu’ils soient négociés par les personnes ou qu’ils soient en adéquation avec des cadres institutionnels (le roi respecte la justice), ils sont toujours auto-contraints, soumis à des “contraintes d’acceptabilité” (Ogien et Quéré, 2005a), sont entrelacés dans un tissu social, historique, institutionnel, normatif, langagier.

Les programmes de vérité ne sont pas des conventions qui émergeraient ex nihilo des sables sociaux ; ils ne sont pas non plus relatifs : ils se construisent à partir d’objets plus moins stabilisés, plus ou moins déjà présents, quoique toujours rejoués, réactualisés, transformés : les productions humaines ne procèdent pas de rien5Je reprends à mon compte la thèse de Ricoeur défendu dans un dialogue avec Castoriadis. Voir Cornelius Castoriadis et Paul Ricoeur, Dialogue sur l’histoire et l’imaginaire social, Éditions de l’EHESS, 2016.. Bref, ils sont réels, ils ne dépendent pas de l’avis de telle ou telle personne qui pourrait proférer sa propre vérité. Cette dernière, pour être acceptée, est en adéquation avec ce qu’un groupe social est plus ou moins disposé à accepter.

Mais elle fait aussi l’objet de stratégies de configurations des publics, de cadrages expérientiels et de luttes de reconnaissance : le processus qui mène à un programme de vérité, à la soustraction d’une idée de tout débat public, est long, semé d’embuches. Avant d’être impensé, un programme de vérité est surpensé : il est débattu, négocié, progressivement ajusté, à mesure que les publics sont eux-mêmes configurés ; il subit un processus progressif de naturalisation. À la suite des philosophes du langage ordinaire (Wittgenstein, Cavell), je considère ainsi qu’une convention “n’est pas ce qui est arbitraire ou objet d’un choix mais bien plutôt ce qui est devenu nécessaire” (Laugier, 2018, p. 208). Nous ne sommes pas les auteurs de nos accords et de nos conventions : nous ne faisons que retrouver en eux les forces qui contribuent à leur genèse et qui, en retour, s’en trouvent modestement infléchies.

Mettre au jour ces forces et leurs infléchissements implique une entreprise archéologique (Foucault, 1969) : nous chercherons ainsi à comprendre ce qui a rendu possible un certain type d’énoncés (“Candide 2.0”, par exemple), à partir de quelles formations discursives elles s’établissent et comment ces dernières se sont progressivement constituées par le truchement des médiations, des transformations, des stabilisations progressives et des querelles sourdes entre les programmes de vérité. Les programmes de vérité relèvent en partie, moyennant quelques ajustements et articulations avec d’autres concepts, des “régimes de vérité” qui invitent à se demander quels :

types de discours [une société] accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais et faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. (Foucault, 1976)

Ce projet est très proche de la conception Nietzchienne de la vérité :

Qu’est-ce donc que la vérité ? Une multitude mouvante de métaphores, de métonymies, d’anthropomorphismes bref, une somme de relations humaines qui ont été rehaussées, transposées , et ornées par la poésie et par la rhétorique, et qui après un long usage paraissent établies, canoniques et contraignantes aux yeux d’un peuple : les vérités sont des illusions dont on a oublié qu’elles le sont, des métaphores usées qui ont perdu leur force sensible, des pièces de monnaie qui ont perdu leur effigie et qu’on ne considère plus désormais comme telles, mais seulement comme du métal. (Nietzsche, Vérité et mensonge au sens extra-moral, 1873)

Nietzsche déplace le problème de la recherche de la vérité, qui fait l’objet d’une vénération en philosophie, vers l’interprétation : pour lui, une vérité n’est rien d’autre qu’une interprétation possible qui a réussi socialement à se faire oublier comme telle. Pour autant — j’insisterai souvent sur ce point — tout ne se vaut pas ; la philosophie de Nietzsche n’est pas relativiste : toutes les interprétations ne sont pas équivalentes ; elles exigent de la rigueur. S’il existe une pluralité de points de vue, cette pluralité “suppose un cadre dialogique qui suppose de donner des raisons d’adhérer à telle thèse et des arguments pour répondre aux objectifs qu’on lui oppose.” (Morizot, 2015, p. 545)

Pour résumer, nous ne cherchons plus à comprendre si un énoncé est juste ou pas (perspective idéologique ou cohérentiste de la connaissance), avant d’en sanctionner la teneur, mais comment il est devenu socialement possible, c’est-à-dire pourquoi il est convenable (Austin, 1962 ; voir Laugier, 2008) : le travail d’ajustement est l’indice d’une recherche rigoureuse (Brague et al., 2004) de convenabilité entre les personnes qui n’enlève rien aux luttes violentes et querelles sourdes de cette recherche.

C’est ici un léger point de divergence avec les Mythologies de Barthes (1957), livre de sémiologie critique pour lequel j’ai cependant une grande admiration : son auteur cherche à montrer comment la bourgeoisie naturalise sa propre culture par le truchement de signes qui envahissent l’espace public à tel point que ses valeurs, éminemment situées et relatives, finissent par innerver toute une société avec la force de l’évidence et sans possibilité de contestation. Or Barthes fait l’impasse sur le processus d’ajustement entre les personnes. Son projet est en effet différent : dans une perspective marxiste, il s’agit plutôt de montrer comment une culture (bourgeoise) s’impose sourdement à toutes les autres. Je n’ignore évidemment pas ces rapports de force, qui peuvent être violents et transcendants (Marcel Détienne fait d’ailleurs remarquer que les Maîtres de vérité sont aussi des manipulateurs) mais il me semble que la réussite d’un programme de vérité relève d’une stratification ou d’un tressage un peu plus complexe.

Explorons maintenant cette question, à la jonction du programme mythologique, de l’archéologie des savoirs, de la socio-philosophie américaine et de l’approche communicationnelle.

Les “communautés de discours”

Comment une convention naturalisée (ou un programme de vérité) devient-elle nécessaire et convenable, c’est-à-dire évidente, impensée, naturelle ? Jusque-là, nous avons vu que les programmes de vérité résultaient d’un processus conjoint d’ajustement entre des Maîtres de vérité et des personnes ou collectifs de personnes, qui se rencontrent dans le langage et dans des dispositifs transcendants (normes, institutions, règles, etc.). Autrement dit : l’ajustement est contraint par des cadres qui préexistent à l’accord des uns et des autres ; c’est pourquoi le rôle des Maîtres et des collectifs, s’il est réel, n’est pas suffisant pour expliquer la formation des programmes de vérité. Avant d’explorer cette question, je chercherai à qualifier ces “collectifs de personnes” et à examiner leur rôle dans la constitution des Maîtres et des programmes. Nous aurons ensuite à élargir la formation des programmes à d’autres critères et d’autres processus.

Pour travailler la question des “collectifs de personnes”, nous avons besoin d’un concept qui permette à la fois de penser l’ajustement des personnes, les contraintes qui pèsent sur elles et les cadres dans lesquels elles s’épanouissent. La notion de “communauté de discours” (Krippendorff, 2011) me semble utile et compatible avec ma problématique et les travaux précédemment cités : elle désigne un “dialogue systématiquement contraint” qui s’auto-organise. Cinq modalités régissent l’émergence et la maintenance des discours (ou, si l’on préfère, des programmes de vérité) :

  • La matière textuelle, soit l’ensemble des traces (œuvres, littératures, images, enregistrements, artefacts technologiques, etc.) produites par une communauté de discours dont les membres partagent des compétences d’écriture et de lecture ;
  • Le dynamisme des personnes, capables de s’approprier les discours, de les retravailler et de faire circuler leur matière d’une communauté à une autre, pour réélaborer leur sens en s’appuyant sur des critères co-définis et valables au sein d’un espace donné ;
  • L’institutionnalisation : les personnes d’une communauté de discours mettent progressivement en place des normes, des traditions, des pratiques qui se maintiennent grâce aux contraintes que chacun d’entre eux fait peser sur l’autre, au point qu’elles deviennent naturelles, alors même qu’elles se sont auto-construites ;
  • Les frontières : toute communauté discursive définit des règles d’appartenance qui permettent d’inclure ou de discréditer un membre. Certes, une communauté a besoin de membres d’autres communautés pour croître, en s’appuyant sur leurs ressources intellectuelles et matérielles. Mais cette ouverture relative n’est possible qu’à condition que soient reconnues les compétences de chacune d’entre elles ;
  • La justification : c’est parce qu’un discours est justifié qu’il reçoit un crédit extérieur. Il exhibe ses qualités ou celles de ses artefacts et des compétences de ses membres.

Cette proposition est d’abord utile pour penser les productions des “collectifs de personnes” ou des “communautés de discours” : ils conçoivent des artefacts (textes, images, logiciels, etc.) pour incarner leur programme. Elle permet également de montrer comment s’organise la naturalisation discursive : les discours sont d’abord débattus, ils s’organisent, avant d’être présentés comme évidents ou “affordants” dans la terminologie de Krippendorff inspiré par Gibson. Ils sont également dynamiques, c’est-à-dire opportuns : ils s’ajustent et s’adaptent sans arrêt. Enfin, même ils s’auto-organisent, ils s’inscrivent dans des cadres, des institutions, des règles et des normes qui les informent sans les contraindre tout à fait.

On pourrait même aller plus loin et considérer, avec Wittgenstein et les ethnométhodologues (Garfinkel, 1967), que les personnes ne font que retrouver, dans leurs interactions, non seulement les accords qui pré-existent à leurs négociations mais, bien plus, le seuil même des instruments (langage, institutions, etc.) à partir duquel ils se mettent d’accord6“La démarche ethnométhodologique reconnaît et prend toute la mesure d’un fait : la généralité de l’ordre dans le monde social ; et en déduit un principe d’analyse : rien de la vie que nous menons n’échappe jamais ni le moindre instant à une forme d’organisation sociale d’une activité pratique. C’est donc ce fait et ce principe qui fondent la pertinence du constat sur lequel ses analyses se développent : les individus agissent en mobilisant, dans la réflexivité de l’action, ce “savoir de sens commun des structures sociales“ qui ne cesse de les habiter.” Voir Ogien et Quéré, 2005c. Si nous ne pouvons pas dire n’importe quoi, si les Maîtres sont toujours audibles, c’est parce qu’ils ne parlent qu’à l’intérieur du langage humain dans lequel ils tentent d’être compris.  Comme l’écrit le philosophe analytique Nelson Goodman (1992[1978]) :

Quoiqu’on ait à décrire, on est limité par les manières de décrire.

Ma position est ainsi proche de l’émergentisme raisonné (voir Chauviré et Ogien, 2001), ou d’un nominalisme rigoureux (Goodman) : les phénomènes sociaux peuvent émerger, s’organiser d’eux-mêmes mais à l’intérieur de cadres qui les autorisent, les rendent lisibles et signifiants socialement, non parce qu’ils existeraient indépendamment d’eux (position du réalisme sémantique ; Tiercelin, 2013), mais parce que ces mêmes cadres, rejoués au cours des interactions des personnes, sont eux-mêmes construits à partir d’anciens cadres ou d’anciennes configurations, à leur tour actualisés et reconfigurés. Nous aurons largement l’occasion de travailler cette question.

Questions et exemples au travail

Pour mettre à l’épreuve ces concepts, je travaillerai tout au long de ce billet sur le web (dit) 2.0 à partir de multiples terrains. Il est particulièrement utile pour conceptualiser et théoriser la notion de “programme de vérité”, de “communauté de discours” et de “Maître de vérité” dans la mesure où, nous l’avons vu, il s’est auto-ajusté, bénéficie encore aujourd’hui d’une figure tutélaire (Tim O’Reilly) et a circulé dans d’autres mondes sociaux (comme le projet Candide 2.0 développé par la New York Public Library). En effet, O’reilly ne s’est pas contenté de “faire monter en généralité”, comme disent les sociologues (Quéré, 1994), un ensemble de discours concordants en proposant de les rassembler (ou de les typifier) sous l’épithète “2.0”. Il a, bien plus, contribué à sa circulation sociale en lançant notamment Tools of Change for Publishing (2007–2013), une conférence internationale sur l’édition numérique, chargée d’accompagner la transformation du monde du livre.

Retenons maintenant quelques questions pour mettre à l’épreuve les concepts précédemment cités et le cadre général. Je le rappelle : il ne s’agit plus de mettre au jour des stratégies de falsification du réel, comme s’il existait d’un côté des gourous et de l’autre des captifs ; il s’agit plutôt d’identifier un tressage fin de personnes, de Maîtres, de matières textuelles, de valeurs, de normes, d’actions à partir desquels émergent des programmes de vérité. D’où les questions suivantes, retravaillées et problématisées pour aborder mon propre corpus (Tim O’Reilly lui-même, la conférence Tools of Change et le projet Candide 2.0) :

  • Quels sont les programmes de vérité de Tim O’Reilly et de sa conférence internationale, Tools of Change for Publishing (2007–2013) ? De quelles matières textuelles (images, commentaires, textes, logiciels, etc.) sont-ils constitués ? Comment a-t-il été naturalisé et pourquoi est-il convenable ?
  • Comment a été mis en signe Tim O’Reilly, son expertise et la confiance qu’il inspire ? Qu’est-ce qui a socialement et historiquement permis l’émergence de ce Maître ? De quels discours est-il lui-même héritier ?
  • Comment s’est pérennisé et a circulé le programme de vérité de la communauté de discours de Tim O’Reilly ? Qu’est-ce que le projet Candide 2.0 reprend du programme de vérité de Tools of Change for Publishing ? Qui l’a fait circuler dans un nouvel espace social ? Selon quelles modalités ? Quelles compétences font valoir la nouvelle communauté de discours de ce programme de vérité ? Comment qualifier l’institutionnalisation de ce programme de vérité ?

N’ayant affaire qu’à des traces et n’ayant pas mené d’entretiens avec les personnes concernées, je travaillerai principalement à partir de signes, d’indices et de marqueurs : mon but est de repérer, dans une matrice textuelle et éditoriale donnée et reliée pertinemment, un ensemble d’éléments qui permettent de mettre d’abord au jour des “communautés de discours” et des “Maîtres de vérité”, dans une démarche dynamique. Ce parti pris relève de la théorie de l’énonciation éditoriale (Souchier, 2007), c’est-à-dire d’une tentative pour identifier, repérer et faire parler un ensemble d’éléments textuels dont on présuppose le potentiel indiciel, métonymique et symptomatique.

Tim O’Reilly : un Maître de vérité

Que ce soit sur O’Reilly (site mère de l’entreprise d’Oreilly), sur O’Reilly Radar (site de veille sur les nouvelles technologies), ou sur le site de l’événement Tools of Change for Publishing, Tim O’Reilly est toujours présenté en termes mélioratifs et parfois même comme un “oracle” (sic). Il est l’indice d’un travail pour l’instituer comme Maître de vérité.

Une figure mantique

Il assure d’ailleurs très bien le rôle qui lui a été ou qu’il s’est assigné : sur sa page personnelle, son expertabilité s’impose d’emblée. Elle s’apparente à une anthologie personnelle qui démontre visuellement son autorité et organise une matière disparate (entretiens, articles, vidéos, etc.) autour d’un seul énonciateur. Ces matières textuelles sont également structurées à partir d’un rubricage (“Tim’s Best”, “Some pieces on Web 2.0 and the enterprise”, “The Publishing Point Interviews”) qui donne à lire son parcours de manière “affordante”, pour reprendre Krippendorff. Dans cette perspective, il apparaît comme une figure quasi mantique qui avait tout anticipé.

Tim O'Reilly bio

On trouve en effet trace de ce statut dans les biographies dispersées sur l’ensemble des sites précédemment mentionnés. La formule suivante revient sans arrêt (voir Figure ci-dessus), en parlant du blog d’Oreilly : “[it] determines emerging technologie trends, and serves as a plateform for advocacy about issues of importance to the technical community”. Nous avons affaire à des indices d’un programme de vérité : Tim O’Reilly est présenté comme un devin capable de puiser dans la masse des signes disponibles des éléments d’orientation et d’action pour une communauté donnée. Comme sa biographie est identique sur tous les sites cités, nous pouvons à titre d’hypothèse considérer que nous sommes en présence d’une même communauté qui défend le même programme.

Le programme du Maître de vérité et de sa communauté

Ce programme est clairement exprimé dans le texte inaugural d’O’Reilly du 30 septembre 2005 (“What is web 2.0″ ?) qui a été retouché plusieurs fois avant de proposer la définition consensuelle suivante le 10 décembre 2006 :

Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them. (This is what I’ve elsewhere called “harnessing collective intelligence.”)

À cette époque, O’Reilly, comme beaucoup d’autres, cherchait à comprendre pourquoi certaines sociétés (Google) avaient émergé, étaient en pleine croissance, alors que d’autres (Netscape) s’étaient effondrées. Dans son article, il expliquait que les premiers avaient su développer des “services” autour de leur “produit” tandis que les seconds s’étaient excessivement focalisés sur ce dernier. Plus précisément, Google aurait su gérer l’ ”intelligence collective” en développant un algorithme capable d’indexer des productions éditoriales (les pages web) pour les mettre différemment en avant.

Dès 2005, il pose tout l’arrière-plan ou la texture doxique, technologique, axiologique, social bref, le programme de vérité du “web 2.0” : celui-ci devra s’appuyer sur la “sagesse des foules” pour faire des personnes des “co-développeurs” dont les comportements seraient suscités et analysés en temps réel grâce à des langages dynamiques (PHP, Perl, Python, Ruby) et des architectures comme AJAX.

Ce programme se trouvait alors résumé dans une métaphore. Pour O’Reilly, l’ensemble des liens hypertextes du web seraient comparables aux synapses d’un “cerveau global” (l’intelligence collective) qui entretiendrait un “dialogue mental” (“mental chatter”) entre toutes ses parties. Je reviendrai sur cette métaphore, qui permet d’identifier des racines cybernétiques et cognitivistes dans le programme d’O’reilly, soit un programme archaïque de vérité*7Les mots en astérisque font l’objet d’une définition synthétique dans le lexique, plus bas. Ils sont parfois rassemblés dans une macro-catégorie : dans “programme de vérité” pour “programme archaïque de vérité”, par exemple.

Pour résumer, les “règles du succès” reposeraient sur l’intelligence collective, les données récoltées, l’étude des publics et un ensemble de technologies émergentes. C’est en grande partie le programme anoncé de Tools of Change for Publishing le 6 décembre 2006, qui est une déclinaison du programme du Web 2.0 dans l’édition numérique :

Tools of Change conference

O’Reilly se présente comme le représentant naturellement désigné (“I’ve been asked”) d’un programme qui s’appuie déjà sur celui du 10 décembre 2016 (“Web 2.0” Compact Definition : Trying Again”). S’il s’y réfère dans un autre programme (Tools of Change), c’est donc qu’il était suffisamment stabilisé. C’est la raison pour laquelle il peut multiplier des marqueurs de consensualité et de convenabilité, comme les énoncés gnomiques (“Technology is fundamentally transforming publishing”) et doxiques (“publishers larges and small are realizing that the ground is moving under their feet”) : ils traduisent un travail de naturalisation passée dont le programme de Tools of Change est l’indice.

Présence et corps du Maître

Comment le Maître, institué par une communauté de discours (“I’ve been asked” dit-il), apparaît-il matériellement sur l’ensemble de ses sites ? Biographies et photographies d’O’Reilly ont une fonction sémiotique et pragmatique, comme l’a montré Louis Marin (1981) à propos du portrait de Louis XIV : elles présentifient un Maître dont le corps est absent ; elles créent du territoire ; ce sont des matières textuelles territorialisantes*. Mais cette présentification est re-présentation : elle est présence vivante, réelle, assurée par plusieurs éléments qui dynamisent les signes visuels d’O’Reilly, les rendent vivants, comme s’il était effectivement présent. Ainsi des commentaires en bas de chacun de ses billets, qui créent la fiction d’une conversation, l’énonciation verbale (O’Reilly parle toujours directement en son nom) ou le tableau très réaliste du monde de l’entreprise et de notre société, qui s’apparente à une hypotypose, à une description en temps réel, vigoureuse.

Deuxième caractéristique de la présence du Maître ou du roi : la transformation de sa force en puissance (Marin, 1981). Tim O’Reilly est un Maître de vérité tutélaire : dans un premier temps, son portrait a surtout servi à asseoir l’autorité de la conférence, des intervenants et du public, comme en témoigne un bandeau (ci-dessous) tiré du site de l’édition 2007 dans lequel il apparaît à leurs côtés. Le Maître est ici un espace virtuel : il tire son autorité de son retrait, c’est-à-dire de la force qu’il pourrait déployer et de sa capacité à la faire exercer par ses représentants ou relayeurs de vérité*.

Tim O'reilly biographie

Le devenir décitationnel du Maître de vérité

Consécration de cette présence : sa dissolution. En 2008, le programme de vérité d’O’Reilly se transforme énonciativement. Dans le texte inaugural de Tools of Change, on trouvait la formule suivante en tête du deuxième paragraphe : “Technology is fundamentally transforming publishing.” Or, les à propos des Tools of Change suivants reprennent exactement la formule sans citer son auteur :

Tools of Change 2008

L’énoncé est “décitationné” pour reprendre une formule du philosophe analytique Quine (1970, 1993) : les guillemets ont été effacés de manière à le décolérer de son auteur. Cette omission est loin d’être anodine pour notre propos : en effet, aux “guillemets, on attribue l’endoxal, ce dont le sujet se désiste” (Compagnon, 1979, p. 41), ce qu’il choisit de mettre à distance. En décitationnant l’énoncé d’O’Reilly, ce petit texte témoigne à l’inverse d’une adhésion : il traduit l’assimilation du programme d’O’Reilly qui prend maintenant la forme d’un énoncé gnomique (ou “énoncé éternel” selon Quine), ces petites sentences formulées au présent de vérité générale qui circulent sans auteur, sans origine, sans emprunt ; elles instituent le réel (Certeau, 1990). Le programme n’est manifestement plus porté par un Maître de vérité mais par une communauté de discours qui le reconnaît et s’y reconnaît.

La citation est l’arme absolue du faire croire. (Certeau, 1990, p. 274)

Bilan partiel : règles et apprentissage des programmes

La dispersion anonymisée du programme d’O’Reilly est non seulement l’indice d’une assimilation de son programme mais, bien plus, de la porosité des frontières entre les communautés de discours : du web 2.0 à Tools of Change for publishing, nous avons manifestement affaire à la même communauté qui semble plus ou moins défendre le même programme, adapté à l’édition.

Il reste à le vérifier. Dans son programme, O’Reilly énonce en effet un certain nombre de “règles” sur le mode impératif :

Web 2.0 tim o'reilly

Pour autant, il n’est pas sûr que ces règles aient été intégrées ou comprises. En effet, toute règle implique un apprentissage, pour ne pas dire un “dressage” dans la terminologie de Wittgenstein (1954) : maîtriser une règle, c’est savoir l’appliquer à partir d’un apprentissage. Ainsi la directionnalité de la flèche n’est en rien évident ou absolu : nous avons appris à regarder la direction vers laquelle pointe la flèche. Cet apprentissage est complexe et conduit, plus largement, à saisir la texture ou l’épaisseur de la règle : elle témoigne d’une maîtrise sociale, normative, anthropologique.

Lorsque nous suivons une règle (suivre une flèche, suivre le programme de Tim O’Reilly), nous témoignons d’une maîtrise d’activités sociales beaucoup plus importantes que ce que la règle décrit (par exemple, traverser la rue une fois que le bonhomme est vert, c’est implicitement comprendre un ordre et une conception du monde : les modes de circulation alternée dans la ville). Un signe et une règle sont toujours des contextes d’action dont nous démontrons la maîtrise convenable au cours de leur application, qui a fait l’objet d’apprentissages répétés.

Ainsi, nous pouvons faire l’hypothèse que l’acquisition d’un programme de vérité s’accompagne nécessairement d’un apprentissage et probablement d’ ”exercices pratiques”. Vérifions-le maintenant avec le programme de Tools of Change for Publishing (2007–2014).

Tools of Change : programme d’une communauté

Quel est le programme de vérité de Tools of Change for Publishing, l’événement de Tim O’Reilly qui décline le programme du “Web 2.0” dans l’édition numérique ? S’accompagne-t-il d’ ”exercices pratiques” ? Je le répète : je n’ai pas fait d’éthnographie de cet événement ; je ne peux me fonder que sur les textes de présentation, les “matières textuelles” — pour reprendre Krippendorff — d’une communauté de discours.

Mon but est seulement de repérer la formation et la circulation d’énoncés qui se sont matériellement incarnés et pérennisés dans des artefacts (Candide 2.0). Je m’intéresse plus aux moyens qui ont été déployés pour faire du “Web 2.0” une formation discursive, un énoncé convenable et admis, en sachant qu’il reste à faire l’ethnographie sociale de son implantation et de ses résistances éventuelles.

Un programme opportuniste et convenable

On peut néanmoins tenter de dégager quelques leçons en se fondant sur les petits textes de présentation qui précédaient chaque conférence (Tools of Change était une foire internationale). Je propose un balayage rapide des thèmes (du programme de vérité) de l’événement, en revenant plus précisément sur quelques points :

  • En 2007, la présence de Tim O’Reilly, qui est intervenu quatre fois (“Publishing in a Web 2.0 World”, par exemple), explique sans doute une stricte application de son programme. On trouve ainsi des conférences sur la question des données, sur le “logiciel social”, les besoins des personnes ou les nouvelles stratégies éditoriales.
  • En 2009, les adresses directes aux éditeurs disparaissent au profit d’un pronom collectif (“we”), qui témoigne sans doute d’un processus communautaire stabilisé. Le programme initial d’O’Reilly n’est plus explicité mais mis en application : aux éditeurs sont proposés des outils techniques pour les aider à faire leur transition.
  • En 2012, ce programme se radicalise par endroits : la page devient la figure métonymique de la culture imprimée, qu’il s’agit désormais de dépasser (“The Death of the Page, the Dawn of Digital”) ; de manière générale, les intervenants appellent à adapter les technologies de navigation de cette culture à la culture numérique.
  • En 2013, la formule “2.0” disparaît au profit de “social”. Cette transformation s’accompagne d’une multiplication des conférences destinées aux auteurs (comment augmenter ses ventes, structurer un lectorat) et de plaidoyers pour une reconnaissance de la nouvelle matérialité du livre (“Books as API”, entre autres).

De cette lecture des textes de présentation des Tools of Change on peut tirer quelques enseignements : d’abord, le programme d’O’Reilly est en grande partie respecté (XLM, API, intelligence collective) ; ensuite, il bénéficie d’effets d’opportunisme : il s’adapte à ce qui est reconnu, à un moment donné, comme efficace (la notion de “social web” s’impose autour de 2010). Il bénéficie d’effets d’ajustements qui le rendent lisible socialement, pour ne pas dire évident, consensuel, convenable.

Un “jeu de langage”

La convenabilité de ce programme s’accompagne, comme j’en faisais l’hypothèse plus haut, d’exercices pratiques. Je rappelle que pour faire la démonstration de la maîtrise d’une règle (dans le cas d’O’Reilly : faire des logiciels des services, ouvrir les APIs, etc.), nous devons montrer que nous savons l’appliquer. “Maîtriser une règle” et “savoir l’appliquer” signifie : mobiliser convenablement un énoncé prescriptif dans une situation sociale donnée. Par exemple, il ne suffit pas de savoir qu’une flèche indique une direction, c’est-à-dire où aller : il faut savoir et avoir appris qu’on peut aller à un endroit donné (les toilettes d’une gare, par exemple) à certains moments (de telle heure à telle heure), en respectant des convenances (s’isoler, faire comme si les autres n’y étaient pas, etc.). Un signe indique implicitement la totalité de son contexte d’application (Deniau, 2008, 2015). Appliquer la règle énoncée par un signe revient donc à faire la démonstration que nous savons maîtriser un ordre du monde.

Quels sont les “exercices pratiques” de Tools of Change ? Quel est l’ordre du monde que les personnes sont censées maîtriser ? Quel est le contexte d’application des règles énoncées dans le programme de vérité de Tim O’Reilly ? Prenons un exemple au hasard, daté de 2013 : l’atelier “Designing And Creating A Social Book App Using Open-source Technologies” (PDF de 44 pages ici). Les objectifs proposés (envisager le livre socialement, comme une micro-communauté grouillant dans ses pages ; concevoir des gestes “affordants” ; intégrer des outils Open Source pour rendre le livre interopérable) correspondent grosso modo aux règles de Tim O’Reilly (voir le” bilan partiel” plus haut), à savoir : penser à son logiciel comme un service communautaire et participatif, ouvrir ses données et utiliser des outils ouverts sans négliger pour autant la part marchande de ses activités, envisager des relations entre les différents espaces médiatiques.

schtroumpf jeux de langage wittgenstein

Qu’est-on censé maîtriser en suivant la règle du “livre social” et en sachant l’appliquer correctement ? Pour le comprendre, nous devons d’abord élucider ce qu’est un “jeu de langage”. Nous l’avons vu : une flèche ne signifie rien en elle-même. Nous avons appris à suivre la règle énoncée par la flèche. Mais cette règle s’inscrit elle-même dans un “jeu de langage”. Chez Wittgenstein, un “jeu de langage” (1954) désigne l’insertion du langage dans les activités qui permettent à la fois d’en éclairer la teneur et de le doter d’une signification naturalisée. Le mot “schtroumpf” est un bon exemple : pour le lecteur, il ne devient progressivement compréhensible qu’en expérimentant et recoupant ses multiples occurrences (“schtroumpf” dans telle situation, “schtroumpf” dans telle autre) qui permettent d’identifier des interactions mais également des normes, des valeurs, des fonctions, des usages. Ainsi, la signification d’un mot est le carrefour de ses occurrences situées. Pour autant, les “jeux de langage” ne sont pas sans règles : ils sont corrélés à une grammaire qui en explicite les conditions d’application et de compréhension, compte tenu de la “forme de vie” dans laquelle s’insèrent ces mêmes “jeux de langage” et ces mêmes “règles d’usage” (Ambroise et Laugier, 2011, p. 17). Ainsi, nous ne pouvons comprendre le mot “schtroumpf” qu’en saisissant les règles régissant son utilisation (dans telle situation, à tel moment) et le cadre social, cognitif, voire biologique de ses usagers (les schtroumpfs).

Dans le cadre de l’atelier cité (“Designing And Creating A Social Book App Using Open-source Technologies”), que signifie donc “livre social” ? Autrement dit : dans quelles activités est prise cette expression ? La page de présentation et le PDF offrent respectivement quelques éléments de compréhension : le “livre social” (“social book”) est présenté comme la possibilité donnée aux lecteurs de participer à la reconstruction dynamique d’un objet appelé “livre”, conçu grâce à des technologies adéquates. Le “livre social” nécessite également de créer des signes “affordants”, qui fassent sens pour des personnes n’ayant pas nécessairement connaissance de ce type d’objet : ils doivent rentrer dans leur projet (lire) alors que leur système de pertinence  (normes, habitudes, valeurs), pour citer le phénoménologue Schütz, est différent. Ainsi, le “livre social” doit intégrer d’anciennes configurations qui permettent à un lecteur d’en reconnaître l’utilisabilité.

Résumons en reprenant les notions de règle, d’apprentissage et de jeux de langage : en suivant cet atelier, c’est-à-dire la règle d’O’Reilly (penser tout objet informatique comme un service communautaire et participatif), les personnes apprenaient à matérialiser convenablement ce qui est appelé “livre social”. En effet, toute règle implique un apprentissage convenable : nous nous voyons gratifier ou sanctionner en fonction de notre comportement dans notre tentative pour appliquer une règle. Ici, l’auteur de l’atelier apprend littéralement aux personnes à adapter l’objet nouveau qu’ils fabriquent (“livre social”) à des habitudes anciennes par le truchement des “affordances”. Ainsi, l’objet sera jugé convenable s’il satisfait le système de pertinence des lecteurs et s’il est intégré à une nouvelle matérialité (le livre numérique). Enonçons-le clairement : les affordances servent un objectif politique qui consiste à doter les apprenants de vérité* de moyens pour “dresser” à leur tour les personnes utilisant leur futur dispositif. Non seulement les programmes de vérité créent des jeux de langage et des règles d’usage mais, bien plus, ils contribuent à réaffirmer ou à réifier les “formes de vie” des personnes y recourant. Par conséquent, en appliquant la règle d’O’Reilly, nous sommes censés faire la démonstration que nous savons adapter son programme, décliné ici pour le monde de l’édition, à des situations sociales et des systèmes de pertinence résistants (il reste bien évidemment à le vérifier pour les autres ateliers).

Le rôle des cadres d’écriture

Si le programme des Tools of Change est si respectueux du programme initial d’O’Reilly c’est parce qu’il a fait l’objet de cadrages. En effet, la première version de la page d’accueil de l’édition 2007 de Tools of Change comportait un appel à participation dont les exigences étaient très claires. Les propositions devaient porter sur les nouveaux modèles économiques, marketing, entrepreneuriaux, techniques, juridiques dans l’édition numérique. Un formulaire suivait ce premier cadrage : il demandait aux futurs conférenciers de renseigner un certain nombre de champs (type d’intervention, résumé, etc.).

C’est manifestement un “cadre d’écriture” (Béguin-Verbrugge, 2006) qui contraint les énonciateurs à produire un énoncé en conformité avec la communauté de discours à qui il est adressé. Cet outil transforme donc les paroles en langue : il institutionnalise des actes individuels en les conformant aux matières textuelles de cette communauté par le truchement d’un dispositif technique qui définit implicitement des règles d’appartenance. Sans grande surprise, les conférences proposées répondent au programme de Tim O’Reilly de 2007 à 2013 : le programme renvoie aux conférences parce que les conférences renvoient au programme. C’est bien de cette circularité tautologique que le programme tire sa vérité.

Les relayeurs de vérité

Il bénéficie également d’effets d’autorité et de visibilité : la structuration du site Internet est presque restée inchangée d’un point de vue technique, verbal et iconique. Or, elle donne une place centrale à ce programme, aux conférenciers et aux sponsors. Le menu, par exemple, comporte un onglet “programme” (“program”) à partir duquel le lecteur peut accéder à la liste des conférences, à la biographie des conférenciers et à leur présentation. La communauté choisit ainsi d’incarner le programme d’O’Reilly en donnant corps aux relayeurs de vérité* :

tools of change auteur conférencier

Toutes les biographies présentes sur l’ensemble des éditions ont à peu près la même forme : elles sont écrites à la troisième personne, comme si l’énonciateur avait cherché à effacer les marques de subjectivité pour objectiver l’énoncé. Il comporte essentiellement des indications sur l’apparence (Goffman, 1973), c’est-à-dire le statut social du conférencier (“Founder”, “CEO”). Le passage d’un poste à l’autre, toujours précisé, a une fonction de légitimation : tel conférencier a le droit de parler parce qu’il a démontré qu’il était capable de s’adapter aux transformations du monde, comme l’incarne le programme d’O’Reilly. Les votes du public (quatre étoiles sur 5 pour la conférence citée ci-dessus) viennent ratifier la participation de la conférencière, c’est-à-dire son degré de conformité avec le programme fixé par O’Reilly. Encore une fois, la boucle est bouclée : la conférence répond au programme parce que le programme a imposé un format à la conférence qui elle-même est validée par une instance textuelle du public…

Maîtres archaïques, passeurs et généalogistes de vérité

Enfin, ce programme porte la marque de plusieurs Maîtres de Vérité, dont certains ont même été oubliés. D’autres Maîtres sont représentés mais absents : c’est par exemple le cas de Bob Stein, directeur de l’Institut pour le Futur du Livre, qui a développé avec une équipe la notion de “networked book”, à partir de la théorie hypertextuelle de Ted Nelson, et un logiciel d’annotation des textes, CommentPress. Pour l’édition 2008, l’un de ses collaborateurs (Ben Vershbow) était chargé de relayer son programme dans les Tools of Change (“Books as conversation”). Dans sa perspective, les marges sont comparées à des espaces publics dans lesquels les lecteurs entretiennent un dialogue. Si ce programme a pu investir un lieu tel que Tools of Change, c’est parce qu’il est compatible avec celui d’O’Reilly (qui se réfère en permanence à l’“intelligence collective”) : on parlera à leur sujet de programmes de vérité compatibles* à partir desquels sont articulées de nouvelles communautés de discours.

Kevin Kelly et Henry Jenkins sont des Maîtres occasionnels* : ils apparaissent respectivement dans l’édition 2011 et 2013 des Tools of Change. Ils ont aidé à structurer les industries du web : fondateur de Wired, le premier est connu pour avoir largement contribué à la diffusion en entreprise des thèses de la contre-culture américaine (Turner, 2012) favorable à un renversement sociétal reposant sur l’informatique. Dans sa conférence datée du 16 février 2011, Kelly fait des livres “2.0” des “conversations” : ils seraient en adéquation avec la structure même du web, constitué de liens reliés entre eux.

Henry Jenkins est un universitaire américain : professeur au MIT, il a contribué à la légitimation de la formule “2.0” et a offert un programme durable aux industries du web à travers la notion d’“emporwerment” (Bouquillion et Matthews, 2010). Dans un entretien daté du 13 février 2014, Jenkins défend ses thèses sur le “transmedia” assimilé à une “conversation” (sic) entre supports médiatiques. La culture imprimée est également associée à un modèle vertical, par opposition à la culture horizontale du web collaboratif. C’est précisément le programme d’O’Reilly et notamment des Tools of Change : la page et le support imprimé sont des figures métonymiques d’un ancien monde. On perçoit un axe programmatique de vérité* qui finit par s’organiser autour de cet artefact.

Comment expliquer une telle convergence ? Tous se réfèrent à la “conversation” ou au “dialogue”. Le texte de Tim O’Reilly (“What is Web 2.0”) contient lui-même des références à ces notions résumées dans une métaphore : le “cerveau global” (“global brain”). Dans sa perspective, le web est un “dialogue mental” (“mental chatter”) et une “voix intérieure”. Ces thèses sont d’inspiration cybernétique et cognitiviste : elles doivent à plusieurs Maîtres de vérité archaïques* dont certains se sont suffisamment lus pour construire des axes programmatiques*. À partir de la cybernétique de Wiener et des travaux de Bateson sur la conscience, McLuhan a par exemple construit sa théorie communicationnelle du support : il considérait ainsi que les hommes étaient reliés par un même système nerveux grâce aux télévisions, aux transistors et aux machines informatiques. Or, cette théorie est au cœur du programme de vérité de Bob Stein, l’un des Maîtres absents de Tools of Change, qui s’est souvent référé à McLuhan pour fabriquer ses artefacts. On le trouve également chez O’Reilly.

Des passeurs de vérité* ont travaillé à l’articulation de ces programmes de vérité ; Steward Brand est l’un d’eux. Méconnu, il aurait pourtant eu un rôle fondamental dans le croisement de la contre-culture américaine, de la cybernétique et de l’informatique (Turner, 2012). Liberté d’entreprendre, renversement des pouvoirs et convergence médiatique : le programme d’O’Reilly est une actualisation de cette synthèse qu’on trouve défendue dès les années 90 dans Wired, fondé par un intime de Steward Brand, Kevin Kelly, qui intervint également aux Tools of Change.

Mais Tim O’Reilly a des liens beaucoup plus explicites avec Steward Brand. Le 5 septembre 2012, il participa ainsi à un séminaire organisé par ce dernier, qui se chargea de résumer son intervention (“Birth of the Global Mind”). Steward Brand fait mine de résumer telle quelle la pensée d’O’Reilly, en multipliant les marqueurs du discours rapporté (“he says”, citations), mais il ne choisit que quelques éléments d’une intervention d’une heure et trente minutes : ceux qui lui permettent de créer une filiation naturelle entre la contre-culture américaine et le Web 2.0. Plus qu’un passeur de vérité, Brand est un généalogiste de vérité*, comme en témoigne l’évocation d’une lecture antique d’O’Reilly sur la Grèce du IVème siècle av. J.-C qui aurait influencé sa conception du “cerveau global”.

Bilan partiel : “faire, c’est refaire”

Au terme de ce parcours, on voit combien le programme de vérité de Tim O’Reilly s’appuie sur des programmes antérieurs qui, eux-mêmes, portent la trace de programmes archaïques* ; nous pourrions sans douter remonter ainsi jusqu’à l’antiquité. Ce n’est évidemment ni mon propos ni mon objectif : à la suite de Castoriadis et Ricoeur (2015) ou du philosophe analytique Nelson Goodman (1992[1978), je souhaitais seulement montrer que nous ne faisons que produire des “synthèses nouvelles” : le rassemblement hétéroclite et cohérent d’éléments passés est la condition même de la nouveauté. Ainsi :

Faire, c’est faire. (Goodman)

Pour autant, cette synthèse ne s’appuie pas sur des éléments qu’il suffirait de combiner ou d’associer, comme dans une recette de cuisine, pour en concevoir une nouvelle. Les éléments combinés sont en fait dynamiques : ils font l’objet d’une analyse, d’un diagnostic, qui modifient leur signification, avant d’être associés à d’autres éléments, eux-mêmes soumis à examen et en mouvement.

Ainsi, en construisant son programme, O’Reilly choisit un type d’éléments comme déterminants et en minimise d’autres  ; il produit une définition, s’interroge, bénéficie de l’apport de sa communauté de discours : bref, des éléments plus ou moins stabilisés (l’idée du “cerveau global”, par exemple) subissent un processus de transformations continues.

Par conséquent, “nous ne pouvons penser la notion d’interruption que sur le fond de l’idée de continuation” (Ricoeur, 2015, p. 49 ; je souligne) : nous ne pouvons penser le “Web 2.0” que dans la dynamique des éléments mouvants qui en composent le programme. C’est précisément ce mouvement qui est la condition de la durabilité de certains phénomènes sociaux ; ils suivent, pour reprendre la sociologie d’Andrew Abbott, un “processus graduel de métamorphose” (Demazière et Jouvenet, 2016, p. 18).

Candide 2.0” : la circulation d’un programme

Introduction

Comment cette configuration nouvelle s’est-elle matériellement incarnée dans des artefacts techniques ? Candide 2.0 hérite en partie des programmes institués par Tools of Change. En effet, l’un de ses maîtres d’œuvre est Ben Vershbow, conférencier à Tools of Change, pour qui les livres sont des “conversations”, comme le pensaient déjà O’Reilly et d’autres Maîtres de vérité. Or, Ben Vershbow est le directeur du NYPL Labs, le laboratoire d’expérimentations de la New York Public Library, qui lança en 2010 un nouveau projet éditorial : Candide 2.0.

Candide 2.0 se présente comme un dispositif d’annotation de texte, qui repose techniquement sur l’architecture de Digress.it, un plugin pour WordPress présenté comme une déclinaison de CommentPress, le logiciel développé par l’équipe de Bob Stein (identifié comme un Maître occasionnel* pour qui les livres sont des “conversations”, rappelons-le). Il permet de découper le texte de Voltaire en chapitre que les lecteurs sont appelés à commenter dans les marges. Avant d’analyser le dispositif, je m’attarderai sur le texte de présentation du projet (voir Figure ci-dessous), pour savoir si nous avons affaire à une autre communauté de discours.

Une altération du programme de Tim O’Reilly (1)

Ce petit texte témoigne d’une altération (Jeanneret, 2014) du programme de vérité d’O’Reilly : il ne s’agit en effet plus d’ouvrir le texte au tout venant mais d’en préparer la circulation sociale (“preparing the ground for a fertile public conversation”), en s’appuyant sur un fonctionnement vertical, contraire à l’horizontalité du “Web 2.0”. Ainsi, différents professionnels (universitaires, traducteurs, entre autres) ont été réquisitionnés pour faire ce travail préparatoire.

L’énonciateur fait appel à une métaphore, classique dans l’histoire de la lecture et des textes religieux, pour qualifier cette entreprise (voir Figure ci-dessous) : les lecteurs sont comparés à des jardiniers (“gardeners”) qui cultivent la terre du livre en plantant des graines (“seeds”). L’annotation remplit ici une fonction d’encadrement de l’interprétation : la lecture ne peut s’épanouir que dans la médiation. Nous sommes ici loin de la transparence promise par le “Web 2.0” et bien en présence d’une nouvelle communauté de discours qui définit d’autres normes et règles. Pour autant, le programme d’O’Reilly et des autres Maîtres est bien présent : ainsi dans l’à propos du site on retrouve bien l’idée que les marges sont des espaces publics qui favorisent la communication (“margins themselves as a way to communicate with other readers in this public forum.”). Indice d’un passage d’un programme dans un nouvel espace discursif.

Voltaire Candide 2.0 numérique web

Le programme de vérité de cette communauté s’appuie sur trois éléments (Jeanneret, 2014) pour asseoir son autorité :

  • le piège, d’abord, qui consiste à capter la mémoire des formes pour s’approprier les valeurs attachées aux propriétés nobles du support matériel, comme cette illustration de Candide de 1922 (voir Figure ci-dessus).
  • Déplacée de son contexte énonciatif initial, cette illustration devient un nouveau signe : c’est un avatar qui ne sert plus seulement à illustrer une sentence de Voltaire (“Lets us cultivate our garden”) mais à inscrire le projet dans une continuité herméneutique.
  • De ces transformations naît enfin une chimère, un assemblage de signes ou, dans notre cas, un assemblage contradictoire de plusieurs programmes de vérité, soit une ligne programmatique divergente* qui se distingue de l’axe programmatique* (convergence consensuelle). La ligne programmatique divergente du projet est la suivante : marges comme conversations [Tools of Change]/encadrées par des autorités [Candide 2.0].

Une altération du programme de Tim O’Reilly (2)

Comment ces différents programmes s’articulent-ils dans le dispositif ? Comment est mise en signe la confiance ? Quelles compétences sont valorisées ? Pour répondre à ces questions, je propose de mener maintenant une analyse dite “sémiotechnique” du logiciel d’annotation :

Candide 2.0 voltaire numérique

Le premier chapitre de Voltaire est découpé en paragraphes qui forment chacun une unité à commenter dans un “cadre-document” (Souchier, 1999) au centre. À côté de chacun d’eux, un signe (phylactère) indique le nombre de commentaires produits par les personnes. Il sémiotise l’ambition dialogique du dispositif, typique du “web 2.0”. Le cadre-document à droite permet d’accéder aux commentaires, répartis par paragraphe. Il est continuellement présent à l’écran, malgré la longueur du texte. Ainsi, ce dernier ne peut pas être lu sans que le lecteur ne soit incité à activer les commentaires : ils forment une unité visuelle et technique indissociable. L’activation du signe “+” déplie l’ensemble des commentaires de chaque paragraphe (il est également possible de commenter le chapitre sans cibler un paragraphe en particulier) :

Candide 2.0 voltaire numérique commentaire

Chaque annotateur est identifié par un nom (l’anonymat est possible) et peut préciser sa fonction. Dans ce cas, le directeur de la Fondation Voltaire a par exemple écrit un commentaire sur le premier chapitre. Le logiciel met en forme son énoncé, d’un point de vue graphique et énonciatif : il ajoute en effet automatiquement le verbe “says” dans une stratégie de délégation énonciative. Chaque annotation s’inscrit une nouvelle fois dans un régime dialogique. En activant le lien, j’accède à l’ensemble des commentaires et des commentateurs du texte, à une liste de “jardiniers”, dont certains sont présentés sur une page à part. Décorrélés du texte, les commentaires peuvent être retrouvés en contexte en cliquant sur  “go to thread” (en bas) :

Candide 2.0 voltaire numérique commentaire 2

Ces allers-retours permanents ne sont pas anodins : ils créent du sens (c’est pourquoi on préfèrera l’appellation “signe passeur” à “lien hypertexte”). C’est comme si l’entièreté du texte était contenu dans une seule annotation, dans la mesure où elle renvoie techniquement à lui et qu’elle donne accès à l’ensemble des commentaires.

Ce dispositif répond au programme énoncé en introduction : pour reprendre la métaphore végétale, l’annotation contient en germe le dispositif entier. Les technologies de navigation le confirment. Chaque fois qu’un commentaire était produit dans un chapitre, l’état chromatique de ce dernier se modifiait :

Candide 2.0 voltaire numérique commentaire chapitre

Les annotateurs avaient donc une fonction directe sur le dispositif. À partir de leurs “actèmes” (Bouchardon, 2011), soit le résultat d’un geste avec une interface, ils en modifiaient l’apparence. Gestuellement et énonciativement, ils ratifiaient le programme de vérité de Candide 2.0. Certes, on trouve bien des traces programmatiques* de Tools of Change, comme des marques énonciatives (“says”) et des simulacres de conversation (phylactère). Mais ce programme a été négocié pour satisfaire les exigences d’une nouvelle communauté de discours, plus universitaire, dont les critères de légitimation passent par une validation entre pairs. Pour le dire autrement : le programme initiale d’O’Reilly été ajusté-corrigé*.

Bilan partiel : un “outil de vérité”

Candide 2.0 s’appuie ainsi sur des technologies dites “2.0” mais les articule à des attentes de verticalité : si le dispositif finit par s’ouvrir à un plus large public, c’est après avoir été investi par des professionnels du savoir, parmi lesquels des membres de la Fondation Voltaire. Ces gardiens de vérité* des communautés de discours contrôlent l’interprétation des matières textuelles. Cela dit, ils sont en prise avec un logiciel qui a sa propre logique et qui structure en partie leur programme et leur vérité. La phrase de Voltaire (“Il faut cultiver notre jardin”) se trouve ainsi écartelée entre plusieurs programmes de vérité, dont on peut entendre les bruissements au sein des artefacts techniques.

Bien évidemment, le dispositif ne porte aucune trace explicite de ces débats : il se présente dans l’évidence d’un “outil de vérité” (Robert, 2010), alors que nous avons bien vu qu’il configurait techniquement le statut des personnes, leurs gestes et leur parole. Cette évidence produit un curieux effet. En effet, Voltaire nous invite à nous tourner vers le quotidien, en nous défaisant des spéculations métaphysiques pour trouver la vérité en nous. Or, le dispositif renoue paradoxalement avec cette activité spéculative en encadrant toute prise de parole qui ne viendrait pas d’un gardien de vérité (un universitaire, un traducteur).

Conclusion partielle : l’art rigoureux de faire des mondes

L’entreprise de Tim O’Reilly et, plus globlement, de sa communauté de discours s’apparente à un monde fabriqué, dans le sens donné par le philosophe Nelson Goodman à ce terme (1992 [1978]). Un monde fabriqué est un ensemble de signes, de normes, de valeurs, de personnes, de catégories articulé de manière pertinente et correcte*.

Nous avons en effet bien vu que le Maître et sa communauté s’ajustaient en permanence : ils émergent d’un processus de co-constitution, qui s’appuie sur des configurations antérieures réactualisées. Ainsi, la fabrication n’a absolument rien de péjoratif : elle indique simplement la dimension processuelle de l’émergence des mondes. La pertinence et la correction* d’un monde fabriqué se juge à partir de critères endogènes : nous ne pouvons pas l’évaluer au moyen d’une théorie cohérentiste, pour laquelle une vérité existerait indépendamment des critères dont nous nous doterions pour l’appréhender. Les mondes se jugent à partir des mondes.

Qu’on veuille bien accepter d’innombrables versions concurrentes du monde, vraies ou correctes, ne veut pas dire que tout va bien, que les longs récits valent mieux que les courts, qu’on ne distingue plus les vérités des faussetés, mais seulement que la vérité doit être concçue autrement que comme correspondance avec un monde déjà fait.” (Goodman, 1992[1978], p. 135)

Est-ce dire, pour autant, que n’importe qui peut créer un monde et faire valoir sa vérité ? Tout se vaut-il ? La théorie de Goodman est-elle relativiste, post-moderne et déconstructiviste, comme le prétendent certaines lectures polémiques8C’est d’autant plus étonnant de la part de Jacques Bouveresse, qui est l’un de nos philosophes contemporains les plus intéressants. Dans un livre d’entretiens parus en 1998 (Bouveresse, 1998, p. 46), il reconnaît à la fois son admiration pour Goodman et déclare son hostilité pour sa notion de “monde”, dont il semble faire un parangon des théories phénoménologiques et relativistes. ? Certainement pas : comme nous l’avons déjà vu, les mondes sont auto-contraints et ajustés. Leurs créateurs cherchent à maximiser leur convenabilité et leur correction* en s’appuyant sur des programmes passés et en cherchant à se faire socialement, institutionnellement et ontologiquement admettre. Bref, tout le monde ne peut pas faire de mondes : ils exigent une grande rigueur d’exécution.

Plus précisément, Goodman identifie au moins cinq procédés nécessaires à la fabrication d’un monde :

  • Composition et décomposition : les faiseurs de monde recourent à des catégories, des étiquettes, des parties et des sous-classes pour rassembler ou dissocier des entités, de manière à en faire des ensembles plus vastes, grâce à un travail de distinctions, de définitions, de connexions. Ainsi, écrit Goodman, “des événements temporellement distincts peuvent être réunis par un seul nom propre ou identifiés comme constituant un “objet” ou “une personne”” (p. 24).
  • Pondération : la singularité ou l’originalité d’un monde tient moins à la présence de certaines entités (par exemple, deux syllabes similaires dans deux langues différentes) qu’à l’intensité qui leur est donnée (la manière d’accentuer chacune de ces syllabes). Au sein d’un monde, des hiéarchies sont organisées pour donner une place à certains éléments et pour en minimiser d’autres.
  • Agencement : pour comprendre ce qu’est l’agencement, il suffit de mettre les épisodes d’une série dans le désordre (l’exemple n’est pas de Goodman) ou de changer la place d’un épisode au sein d’une saison. Le mode d’articulation d’une entité donnée (un épisode ici) à d’autres entités (d’autres épisodes) est déterminant dans son appréhension : nous ne prêtons pas les mêmes significations aux entités en fonction de leur agencement.
  • Suppression et supplémentation : un monde ne naît jamais ex nihilo. Il est toujours articulé à d’autres mondes ou à d’anciennes configurations de monde. Goodman distingue deux opérations de correction : la suppression (coupe d’un autre monde ou d’une ancienne configuration) et la supplémentation (comblement d’un trou).
  • Déformation : les faiseurs de monde se livrent à des déformations qui “peuvent être considérées soit comme des corrections, soit comme des distorsions”. Le premier cas relève de la suppression et de la supplémentation. Le second consiste à déformer une entité (une image, par exemple) pour lui faire prendre de nouvelles formes, comme dans le morphing.

Tim O’Reilly et sa communauté de discours ne procèdent pas autrement : en choisissant le terme “Web 2.0”, il a rassemblé, de son propre aveu, des réalités différentes sous une même classe. Il s’est ensuite livré à un travail de pondération en établissant des hiérarchies entre les entités de sa recomposition : ainsi, l’intelligence collective, les technologies (XML, AJAX) et le marketing y tiennent une place fondamentale. On les retrouve dans d’autres programmes (celui de Caterina Fake, par exemple, la fondatrice de Flickr) mais dans des proportions moindres. O’Reilly s’est également appuyé sur d’anciennes configurations et d’anciens mondes pour bâtir son programme, en mettant de côté tout ce qui aurait pu empêcher son implantation : certes, la contre-culture américaine a sans doute influencé l’élaboration de son monde mais la plupart des thèses  de cette dernière serait inapplicable telle quelle. C’est pourquoi son programme se livre à des déformations, comme sait parfaitement le faire le capitalisme du web contemporain (Bouquillion et Matthews, 2010) : dans sa perspective, l’intelligence collective sert avant tout des objectifs marchands.

Encore, une fois, rien ne permet de conclure à des stratégies de falsification ou à une “idéologie” : nous avons affaire à une déformation d’un programme de vérité antérieur, qui peut être nourri par des ambitions sincères, même si elles sont parfaitement contestables. Nous-mêmes pouvons y adhérer un moment (pour poser une question sur Facebook) et être contestataires à un autre (dans un cours, dans une conférence). L’efficacité des programmes de vérité tient précisément à leur capacité à susciter la mauvaise foi.

Au terme de ce (long, trop long) parcours, je ne peux pas encore tout à fait conclure : il nous reste à affronter des questions difficiles, avant de rassembler la matière théorique et empirique dans une proposition ou un concept à mettre au travail (les “communautés de vérité”), afin d’en éprouver l’efficacité sur d’autres corpus ou “terrain”.

Cinq problèmes avant de conclure

Réalistes et nominalistes : l’éternel débat…

Le premier problème, impossible à traiter exhaustivement ici, est celui de la vérité et de ses conditions d’exercice (voir Brague et al., 2004) : plus de 2000 ans de littérature opposent ici les “réalistes” (Benoist, 2017) et les “nominalistes” (Panaccio, 2012) avec des querelles importantes et passionnantes entre scolastiques médiévaux (Libera, 2014) ou contemporains (Armstrong, 2010) autour des “universaux”.

Pour le dire très grossièrement et schématiquement, les premiers estiment que le monde existe indépendamment de notre perception, de nos valeurs, de nos usages ou de nos catégories, tandis que les seconds pensent qu’il n’y a pas de monde en dehors de ces perceptions, de ces valeurs, de ces catégories et de ces usages ; ils n’ont aucune existence transcendante9Pour être plus précis, “les [nominalistes] n’acceptent dans le monde extérieur que des entités singulières, — cet homme, ce cheval, cette plage de rouge — et veulent expliquer par le fonctionnement du langage ou celui de l’esprit les phénomènes de catégorisation, d’abstraction ou de conceptualisation générale ; [les réalistes], au contraire, pensent qu’il y a dans la réalité, indépendamment de nous, des unités autres qu’individuelles, des genres et des espèces par exemple, des propriétés générales ou ds entités abstraites comme des nombres, des ensembles, des natures communes ou des valeurs.” (Panaccio, 2012, p. 10–11.. Le post-modernisme, la déconstruction et les thèses relativistes, dans leurs versions caricaturales ou caricaturées, sont des illustrations célèbres du “nominalisme”. Jacques Bouveresse (1998) résume très bien la première position :

Comme beaucoup de réalistes, j’ai tendance à penser que la réalité, la réalité physique en tout cas ne nous a pas attendus pour exister et que, même si nous n’existions pas, elle aurait encore exactement les propriétés qu’elle a. Je crois aussi que ce sont bien ces propriétés que la science réussit, au moins jusqu’à un certain point, à connaître.

Ces débats, très techniques, sont éminemment politiques : ainsi les journalistes rappellent souvent que les “faits sont têtus” à un personnel politique enclin à parler de “point de vue” ou de “manipulation” ; en dépit des interprétations, il existerait donc un monde stable qu’il suffirait d’interroger pour connaître la vérité (Les Décodeurs du Monde reposent sur cet impensé épistémologique). Le réalisme est nécessaire dans un monde soumis à l’instabilité. C’est pourquoi il est aujourd’hui retravaillé (Benoist, 2017) à tel point que certains parlent d’un “nouveau réalisme” (Ferraris, 2014).

…des gammes intermédiaires

Cette distinction, apparamment rigide, reconnaît cependant des gammes intermédiaires. Ainsi, le “réalisme” n’est pas un ensemble de thèses consensuelles, loin de là : non seulement il est critiqué depuis l’Antiquité mais il admet lui-même des postures nuancées, sinon contradictoires. En 1978, le philosophe analytique Putnam a imaginé une expérience de pensée (“le cerveau dans une cuve”), reprise dans les films eXistenZ ou Matrix, pour illustrer et finalement mettre à mal la version la plus radicale du “réalisme” métaphysique et transcendant, après y avoir pourtant souscrit. En adhérant finalement à un “réalisme interne” puis pragmatiste (Tiercelin, 2013), Putnam illustre merveilleusement le caractère circonstancié de ses positions, qui fluctuent temporellement et sans doute en fonction d’événements personnels et politiques.

De la même manière, Nelson Goodman, auquel j’ai eu recours tout au long de ce billet, n’est pas un affreux relativiste, comme ses caricatures le suggèrent parfois : c’est un “nominaliste” rigoureux, qui n’admet la “construction” ou la “fabrique” des mondes qu’au prix de critères redoutables (composition, pondération, etc.). Ainsi, tout le monde ne peut pas fabriquer “son” monde ou “sa” vérité (essayez, vous y renoncerez rapidement : dire n’importe quoi ne s’improvise pas). Elle nécessite tout un processus complexe d’ajustement et de correction* au cours duquel se co-constituent, dans ma perspective, les Maîtres de vérité, les programmes de vérité et les communautés de discours à partir d’anciens mondes, d’anciennes configurations, ou d’anciens programmes. On est loin d’une fabrique ex nihilo par l’esprit !

…des conceptions différentes de la vérité 

Toutes ces positions relèvent grosso modo de trois conceptions classiques de la vérité (Pouivet, 2008) :

  • la théorie de la vérité correspondance : une proposition est vraie si elle correspond aux faits, c’est-à-dire aux propriétés du monde (exemple typique : Les Décodeurs du Monde ou l’exemple canonique de la philosophie logique de Tarski : ““La neige est blanche” si et seulement si la neige est blanche”) ;
  • la théorie de la vérité cohérence : une proposition est vraie si elle appartient à un système de croyances reliées de manière cohérente les unes aux autres composant une “structure néotique” (par exemple, “Google Analytics” n’est pas vrai en soi : les chiffres et les audiences mesurées ne sont vrais que dans le système — médiatique, journalistique, universitaire, etc. — qui les reconnaît comme tels) ;
  • la théorie pragmatiste de la vérité : une proposition est vraie si elle permet à une personne de s’orienter utilement dans le monde, en dépit de sa cohérence ou de sa correspondance (ce n’est qu’en partie le cas des programmes de vérité).

On pourrait sans doute rajouter une quatrième position à partir du livre de Benoist (2017), de thèses bien connues de Wittgenstein (tantôt brandi par les réalistes, tantôt par les nominalistes), des des sociologues de l’action dite “située” (Formel et Quéré, 1999) ou l’anthropologie interprétative (Geertz, 2012) :

  • la théorie contextuelle ou située de la vérité : la vérité dépend du contexte dans lequel nous sommes insérés et à partir duquel nous pouvons alors statuer. Ainsi, l’énoncé célèbre ““la neige est blanche”” si et seulement si la neige est blanche” ne peut être pensé que de manière contextuelle ; sa blancheur n’a pas d’existence absolue, en dehors des conditions dans lesquelles nous pouvons la constater et de la personne qui fait le constat (le scientifique ne regarde pas la neige de la même manière que le pêcheur). Pour autant, cette théorie ne sombre pas dans un relativisme radical des “points de vue” : au sein de chaque classe de points de vue existe des critères et des cadres relativement stables qui permettent de statuer sur un phénomène donné malgré son caractère situé et de limiter “la multiplication des descriptions” (Ogien et Quéré, 2005b)

De l’ensemble de ces distinctions, distinctions et oppositions je retiendrai plusieurs leçons : d’abord, la vérité est liée à un discours, qu’il soit porté sur un état du monde, sur un réseau interne de croyances ou sur les intérêts propres d’un individu. Elle implique toujours une énonciation et un positionnement : dire quelque chose qui coïncide avec les faits (première définition), ne pas se contredire (deuxième définition), être sincère (troisième définition), reconnaître potentiellement la validité d’un point de vue (quatrième définition). Pour autant, cette énonciation est contrainte : elle doit chaque fois satisfaire des critères auquel un individu doit se soumettre, quelle que soit sa conception de la vérité, pour voir son discours légitimé. Autrement dit : la vérité implique des procédures, qui peuvent être endogènes ou exogènes. Ces critères sont ceux dont se dotent une communauté à un moment donné, qu’elle pense être les meilleurs, pour statuer sur un ensemble de phénomènes. 

Pourquoi tient-on à la vérité ? Parce qu’on tient à la justice. (…)  Pour qu’il y ait un monde humain il faut qu’il y ait une confiance dans les faits, dans les procédures d’établissement mais surtout dans les hommes. (…) Si vous ne comptez que sur l’aspect du réel, comme le font aujourd’hui certains réalistes (…) ça ne suffira pas (…) entre les deux, il y a le discours humain et la confiance (…) (Worms, 2018)

La deuxième leçon à tirer — sans doute la plus importante — est la suivante : le réel, même souverain, ne suffit pas. Certes, il résiste (“les faits sont têtus” disent les journalistes) et malgré des tentatives pour le déformer, pour le conformer à un programme donné, il continue de se présenter dans sa vérité. Alors pourquoi des personnes le suivent, en dépit de sa non conformité aux propriétés du monde ? Parce que tout programme implique la confiance et la légitimité que nous avons en un Maître qui le porte (un individu, une institution, etc.). Autrement dit : nous devons d’abord garantir un certain type de relations entre les hommes avant de prétendre pouvoir fonder un discours sur la vérité. La confiance, la sincérité et la légitimité sont au coeur des programmes de vérité.

…des programmes de vérité

C’est pourquoi l’adhésion en un programme est si fluctuante : comme les philosophes, nous changeons de régime de vérité selon les moments, les lieux, les occasions en fonction du degré de confiance, de sincérité et de légitimité que nous attribuons aux autres et que nous avons envers nous-mêmes. Nous ne devons pas conclure, sur cette base, que tout se vaudrait et que la vérité serait hors de notre portée : ces allers-retours sont l’indice d’une recherche pour établir les critères de sa validité.

Mais pourquoi devrait-on garder la tête sur les épaules ? Pourquoi traîner ce cadavre qu’est votre mémoire, de crainte de contredire ce que vous avez affirmé publiquement en telle ou telle occasion ? Supposez que vous deviez vous contredire ; et alors ? (Emerson, Compter sur soi, Allia, 2018[1847], p. 23)

Changer de position, passer d’une solution à une autre, est l’indice que nous faisons l’expérience du monde : nous vivons. Je souscris à l’argument du philosophe américain Emerson (1847), selon lequel la contradiction n’est pas problématique : nous devons au contraire l’assumer et l’accepter comme un instrument de la confiance. En faisant la cartographie de nos positions dynamiques, nous prendrions davantage conscience que la vérité est une recherche : elle exige de l’effort de notre part. Dans cette perspective, nous devons voir les querelles qu’elle suscite comme l’indice de cet effort.

C’est pourquoi je ne suis pas toujours favorable aux déclinaisons contemporaines de la théorie de la vérité correspondance (voir plus haut) : si des outils comme Les Décodeurs du Monde sont évidemment nécessaires (voire indispensables dans certains cas : nous avons besoin de stabilité institutionnelle et cognitive ; nous avons besoin de croire que le monde existe), ils ont également tendance à réifier notre expérience de la vérité en la pensant de manière transcendante ; ils nous dénient la possibilité d’avoir une expérience de la vérité, même troublante. À l’inverse, penser de manière processuelle, dynamique, identifier des personnes, des mondes, permet de faire la cartographie et l’expérience du trouble généré par la recherche de la vérité. Des outils concurrents peuvent sans doute coexister ; c’est l’hégémonie d’un modèle conceptuel de la vérité qui me pose problème.

la vérité est un serviteur docile et obéissant”

Nelson Goodman, nous l’avons déjà vu, offre quelques pistes précieuses pour penser la recherche de la vérité à partir d’autres prismes méthodologiques et épistémologiques ; je crois en avoir fait la démonstration. Allons plus loin et posons avec lui l’argument suivant :

Loin d’être un maître solennel et sévère, la vérité est un serviteur docile et obéissant.10Un grand merci à Milad Doueihi qui a porté à ma connaissance cette phrase, lors d’une de nos nombreuses rencontres dans un petit café parisien.

L’intérêt de la notion de “monde” (concurrent) ou de “programme” (concurrent) est de nous permettre de penser la vérité de manière complexe, à partir d’un tressage fin de personnes, signes, institutions, formes qui s’ajustent, se corrigent, s’opposent aussi parfois pour définir les critères de validité de la vérité. En condamnant les thèses d’un programme, en le qualifiant par exemple de “complotiste”, nous perdons l’occasion de montrer comment, à une époque donnée, se sont mis en place des “énoncés éternels” (Quine, 1993) et comment la recherche et le brandissement d’une vérité naturalisée, présentée comme évidente, a pu servir des objectifs politiques, dans la tradition d’une sémiologie critique (Barthes, 1957) cependant revisitée.

Les cadres de l’action collective

Cette question (la concurrence entre des programmes de vérité divergents) a bien été travaillée par les philosophes-sociologues (Céfaï, 2001 ; Céfaï et Terzi, 2012) et les chercheu.r.seuse.s en communication (Badouard et Mabi, 2015), qui offrent des outils souvent pertinents pour en saisir la complexité. La métaphore de l’ ”arène”, qu’on peut cependant contester (voir plus bas), sert généralement de cadrage théorique à la compréhension de l’action collective, notamment dans ses dimensions polémiques : la sociologie des “problèmes publics” nous invite à étudier l’agrégation progressive de personnes en “collectif” (Kauffman et Trom, 2010) à partir de la notion d’ ”enquête” (Karsenti et  Quéré, 2005). Chez les philosophes pragmatistes, comme Peirce ou Dewey, elle désigne le processus par lequel un ensemble de personnes établissent progressivement un diagnostic sur une situation problématique qu’ils rencontrent : en rassemblant des “indices de problématicité” (par exemple : “je me sens mal au travail”, “tu te sens mal au travail”, etc.), ils constituent très lentement un simple trouble (“nous nous sentons mal au travail”) en problème public (“les conditions de travail dans cette entreprise ne répond pas au cadrage juridique”).

La définition de situations problématiques conduit les personnes et collectifs de personnes à s’organiser pour recruter des adhérents, neutraliser des opposants, configurer les perceptions du public, susceptibles de rallier leur cause. Ainsi, des collectifs opposés s’organisent généralement autour de paires catégorielles asymétriques (“eux” d’un côté, “nous” de l’autre) et dans des arènes publiques où ils mobilisent toute une gamme de techniques dramaturgiques, rhétoriques, identitaires, narratives pour faire valoir leur programme de vérité, servir leurs intérêts, s’imposer aux yeux de leurs concurrents. Par exemple, dans une arène que j’ai pu étudier (Jahjah, 2016), des collectifs de lecteurs et d’auteurs se sont opposés pendant des années sur un réseau “social” du livre (Goodreads) : ils ont progressivement mis en place et produit des matières textuelles (sites, statuts Facebook, tweets, blogs, etc.) pour configurer la perception des médias (l’affaire a été relayée par le Huffington Post)  afin de valider leurs thèses respectives, après avoir constaté de premiers troubles (“en tant qu’auteur, je ne suis pas à l’aise que des lecteurs donnent leur avis sur mes livres”, “en tant que lecteur”, etc.) qu’ils ont transformés en problème audible au-delà de leurs propres frontières.

On ne comprend cependant rien à ces actions publiques (ou à la formation des programmes de vérité) en les jugeant à l’aune de nos propres critères de vérité : les étudier suppose de se mettre à leur hauteur, en tentant, souvent avec beaucoup de difficultés, de démêler les positions et les arguments. Car nous ne sommes jamais en dehors d’un problème public ou d’un programme de vérité ; nous ne pouvons pas le surplomber : la manière dont nous en prenons conscience est déjà l’indice d’un trouble qui a été transformé pour être porté à la connaissance du public (Jahjah, 2016). Par conséquent, nous ne sommes jamais “face” à des programmes de vérité que nous pourrions étudier : nous sommes toujours pris dans le flux de ces programmes, dont nous ne pouvons situer modestement qu’un aspect ou un moment pour comprendre comment les personnes les vivent et vivent leurs mondes.

L’autre intérêt de la socio-philosophie de l’action collective est de penser l’émergence des phénomènes sociaux de manière raisonnée ou contenue : le recours aux “cadres de l’expérience” de Goffman (1974) sert souvent à tempérer “cet excès de plasticité du monde social en repérant des procédés de cadrage qui limitent les performances des acteurs” (Céfaï et Trom, 2001, p. 16). Nous n’avons rien dit d’autre jusque-là, en recourant à d’autres sources épistémologiques (Goffman était cependant lecteur de Wittgenstein) : si du “déjà là” existe — anciens programmes de vérité, anciennes configurations, etc. — il est toujours rejoué, actualisé, dans et par les interactions des personnes qui retrouvent les cadres à partir desquels elles se mettent d’accord de manière convenable pour être mutuellement audibles.

Cette socio-philosophie invite ainsi à comprendre (Céfaï, 2001) — je reformule à partir de mes préoccupations — comment des personnes adhèrent à des programmes de vérité, redéfinissent et revitalisent leur identité autour d’eux, s’ajustent et s’alignent en recourant à des cadres interprétatifs plus ou moins stabilisés (d’anciens programmes, d’anciennes configurations) lorsqu’elles ne parviennent plus à doter une situation nouvelle d’une signification collective, campent un décor, disposent des équipements, distribuent des rôles, produisent des récits chargés d’ordonner des programmes épars (Abbott, 2001), les font résonner avec d’autres programmes pour élargir leur base, s’entendent au moins un temps, de manière parfois opportuniste, à partir d’une série de troubles qu’elles actualisent en problème à résoudre sur une scène en formulant des diagnostics, en pointant du doigt des victimes et des coupables, en proposant des solutions d’intervention, en jouant sur la tessiture émotionnelle des publics dont elles analysent les réactions pour reconstruire leur éthos, dans et à partir d’une arène langagière, institutionnelle, normative, technique, communicationnelle (Badouart et Mabi, 2015) qui limite leurs propres actions singulières.

De la vérité au doute : dynamiques de l’expérience des programmes

L’expérience d’une arène, de ses cadres et d’un programme de vérité est mouvante : nous pouvons y adhérer un moment et nous en extraire à un autre ; nous-mêmes faisons des diagnostics contradictoires sur la situation que les membres d’une arène ou d’un programme ont cherché à porter sur la place publique. Par exemple, au moment de relayer la querelle citée, un journaliste du Huffington Post, orienté par une communauté de discours et son Maître, a contribué à ériger au rang de victimes cette communauté, alors même qu’elle était très probablement dans une position inverse. Le journaliste s’est excusé, après avoir fait le récit des multiples cadrages de ses jugements.

Pas question de statuer ici sur la vérité de ce programme à partir de standards rationnels, normatifs ou logiques qui seraient extérieurs à cette communauté : l’important est de comprendre qu’un programme, qu’un Maître, qu’une communauté et leurs relais se configurent et configurent le champ perceptif des publics de manière dynamique. S’ils se structurent en établissant des diagnostics (Tim O’Reilly essaie de comprendre ce qui a dysfonctionné chez Netscape), leurs adhérents ne le sont que partiellement et provisoirement : ils sont eux-mêmes en situation d’ ”enquête”.

L’étude des conditions de naturalisation des énoncés, explorée jusque-là, se double ainsi de l’étude des dynamiques de la perception et du jugement (Chauviré, Ogien et Quéré, 2009) qui participe du programme d’une “éthique perceptive”, c’est-à-dire d’une élucidation des moyens par lesquels un outil ou une époque médiatisent notre accès aux phénomènes (Ivan Illich).

L’analyse des querelles ou des programmes de vérité concurrents manque trop souvent cette part mouvante des adhésions et des rejets, plus ou moins radicaux, plus ou moins relatifs : en tant que personnes, nous sommes pourtant capables (voir note 2 et 3) de réviser nos jugements qui fluctuent en fonction de la dynamique des cadres de l’expérience (Goffman, 1991) et à l’intérieur d’une arène sociale.

Matérialité, membres et formes de vie de la culture numérique

La notion d’ ”arène” a légitimement été critiquée par les Sciences de l’Information et de la Communication (Le Marec et Babou, 2015) dans l’étude des “controverses”, des “querelles” ou (dans mon cas) des programmes de vérité :

[la notion d’arène donne] l’illusion qu’il existerait une sorte d’espace médiatique ouvert (…) où les acteurs s’exprimeraient en coprésence selon le modèle parlementaire de manière visible et observable par un public. Les médias ne sont pas seulement des espaces de déploiement de stratégies d’enrôlement ou de mise en visibilité  d’arguments, de positions ou d’acteurs. Ce sont aussi des espaces fortement structurés par des enjeux professionnels, économiques, politiques et cognitifs autonomes (…) [ils construisent] une manière d’être public”

En effet, à lire les sociologues de l’action collective, on a parfois l’impression que les matières textuelles produites (affiches, bandeaux, statuts Facebook, etc.) viennent uniquement rendre visible un problème public. Or, elles ont une action propre ; elles ne sont pas que des traces ou des témoins des positionnements des uns et des autres ; elles structurent littéralement l’action publique ; ce sont des matières textuelles territorialisantes*. Dans une querelle que j’ai pu étudier (“L“affaire Goodreads” : une arène littéraire sur Internet”, Jahjah, 2016), le rôle de l’ ”énonciation éditoriale” (Souchier, 2007) est considérable : à travers leurs articles et la présentation de cette querelle (ou de programmes concurrents), la création de liens et de biographies, les médias ont largement contribué à la structurer, à lui donner une portée inédite et à la rendre perceptible selon un régime spécifique du visible.

C’est dire qu’un ensemble d’entités participe à l’élaboration des programmes de vérité, qui peuvent prendre des formes très variées : humains, évidemment, mais aussi inscriptions, textes, médias, tags, liens. Ces matières sont actives, même si elles semblent matériellement figées : loin d’être inertes, elle sont littéralement possédées par l’action. Elle participe à la structuration des programmes de vérité, à leur affirmation ; elles ne sont pas que des traces, dans lesquelles on pourrait lire l’activité des membres d’une communauté de discours. Comme l’écrit Tim Ingold :

Pour l’alchimiste (…) le matériau est connu non pas par ce qu’il est mais par ce qu’il fait, en particulier lorsqu’il est mélangé avec d’autres matériaux et utilisé d’une manière particulière ou placé dans une situation particulière. (2017, p. 74–75)

Dans les études numériques, l’un des chercheurs qui a le mieux pris au sérieux cette dimension est Milad Doueihi. Sa définition de la culture numérique est édifiante :

ensemble de technologies conjuguées, ayant produit et continuant de produire des pratiques sociales qui, du moins pour l’instant, menacent ou contestent la viabilité, ou même la légitimité, de certaines normes socioculturelles établies et des cadres juridiques qui leur sont liés. […] la culture numérique est faite de mode de communication et d’échange d’informations qui déplacent, redéfinissent, et remodèlent le savoir dans des formes et formats nouveaux, et de méthodes pour l’acquérir et le transmettre. (2011, p. 37)

En effet, la notion d’ ”agentivité” est implicitement au centre de cette définition : elle permet de doter les “technologies conjugées” d’une forme d’action autonome et singulière ; elle leur reconnaît un pouvoir de transformation, qu’on pourrait définir à la suite des sémioticiens comme un “vacillement du sens” (Colas-Blaise et Beyaert-Geslin, 2009) d’autant plus puissant qu’il est discret et touche toutes les dimensions des savoirs (économie, droit, etc.). C’est pourquoi Milad Doueihi insiste souvent sur le “processus civilisateur” de la culture numérique qui passe littéralement par une “domestication” lente (2013) voire un “dressage” (au sens de Wittgenstein) de l’humain par le truchement de l’apprentissage de ses jeux de langage (code informatique, geste interfacé, règles et normes, etc.) :

le code, dans son déploiement actuel au sein des environnements numériques, réinvente l’habitus.

La conception de ces machines pensantes procède par une transformation radicale du monde : le monde est bel est bien un jeu, mais il est surtout une interface soumise aux exigences des machines

Une culture qui produit un tout nouveau contexte : entre le principe de la vie biologique (survie, reproduction, évolution) et l’intelligence du contexte historique. S’adapter, adapter et faire adapter, tels sont les mots d’ordre du nouveau contexte. Dans cette évolution, c’est le monde qui se transforme lentement mais sûrement en interface généralisée au numérique. (2013)

Pour le dire autrement et dans ma perspective : les membres11La terminologie universitaire fluctue pour qualifier les êtres différents avec lesquels nous interagissons. Certains, comme Denis Vidal (2014), parlent de “personnes” au sujet des robots. Sur ces débats dans les études numériques et au-delà, voir Paveau (2017). Après avoir recouru à la notion d’actant (Jahjah, 2017), je me rapproche désormais de la notion de “membre” parce qu’elle est plus proche de mon programme actuel. Pour les ethnométhodologues, un membre est une personne “dotée d’un ensemble de procédures, de méthodes, d’activités, de savoir-faire, qui la rendent capable d’inventer des dispositifs d’adaptation pour donner sens au monde qui l’entoure. […] [le membre] exhibe “naturellement” la compétence sociale qui l’agrège à ce groupe et qui lui permet de se faire reconnaître et accepter.” (Coulon, 2014) Cette définition est très proche de la conception de Milad Doueihi des machines et du code informatiques qui sont pensés comme des êtres capables de s’adapter et d’adapter d’autres membres à leurs prérogatives, par tout un jeu d’ajustement et de naturalisation.d’une communauté de discours, comme les machines, le code informatique12On trouve une conception similaire du code informatique chez les tenants des Critical Code Studies : il porte des valeurs, a sa propre autonomie agentive et contribue à structurer nos pratiques sociales. Voir Marin, 2006 et un ancien de mes billets qui faisait le point sur la question., les textes ou les humains, ajustent-corrigent* leur forme de vie réciproque, dans leurs dimensions culturelles (institution, normes, valeurs, langages, etc.) mais également cognitives et biologiques (survie, reproduction, adaptation) ; ils et elles co-définissent un programme de vérité commun, capable de plus ou moins satisfaire tous les membres, sans qu’ils n’aient individuellement de prises sur sa définition, afin d’étendre la validité endogène de ces mêmes programmes ; ils créent des matières textuelles territorialisantes*.

Je me rallie ainsi à une conception structurale du holisme, même si j’admets l’intérêt d’autres positionnements (comme l’ ”ontologie distribuée” de Ricoeur ou “les intentions collectives” de Searle ; voir Vultur, 2017) : le tout (humains, machines, code, texte, etc.) est “un système de parties qui dépendent les unes des autres en vertu des relations qui les définissent” (Descombes, 1996, p. 121). On est très proche des notions de “coordination” ou d’ ”expression” chez Spinoza, Leibniz et Wittgenstein (Plaud, 2018) ou des théories méréologiques contemporaines (systémisme, énaction) : la modification d’un membre entraîne celle de tous ceux qui lui sont liés, actualisant et déplaçant du même coup le cadre de leur expression. C’est bien ce mouvement discret mais continu de membres qui contribue au re-membre-ment de notre civilisation par un “processus graduel de métamorphose” (Andrew Abbott).

Dans cette perspective, l“environnement” (Doueihi, 2017 ; Ingold, 2013), le “milieu” (Leroi-Gourhan, 1945)  ou le “monde” (Goodman, 1992) ne désigne pas un espace figé, déjà là, mais la définition continue d’un rythme, mouvement d’oscillation entre répétition et renouveau où se rencontrent et s’indéterminent des membres, des gestes, des formes, des textes, des catégories et des matériaux dans une communauté de vérité pour définir des programmes à partir des éléments d’anciens programmes diagnostiqués (des déjà-à-venir*).

C’est pourquoi la conférence internationale Tools of Change for Publishing, déclinaison du “Web 2.0” dans l’édition numérique, préconisait d’adapter les interfaces de lecture nouvelles aux systèmes de pertinence (normes, valeurs, habitudes) des lecteurs potentiels. À sa façon, elle participait à la transformation continue des formes de vie de ces derniers, c’est-à-dire à l’adaptation de leur seuil social, anthropologique, institutionnel, perceptif, biologique, par le truchement de l’apprentissage des règles du programme d’O’Reilly, relayés et actualisés dans une matière textuelle (le logiciel).

Politique de l’accord, du commun et de la fragilité

Le dernier problème que j’aimerais évoquer découle naturellement de tous les autres. Nous l’avons vu : les membres d’un programme de vérité, qui peuvent être très variés (humains, textes, code informatique, etc.), s’auto-contraignent, définissent lentement des “contraintes d’acceptabilité” pour se mettre d’accord dans le langage et dans leur forme de vie. Le remembrement de nos savoirs procède d’un processus graduel de transformations auquel participent tous les membres d’un programme de vérité à tel point qu’il n’est plus possible de déterminer à qui revient telle transformation (ce que j’ai choisi d’appeler, avec ma collègue et amie Clémence Jacquot, l’ ”autorité distribuée”). Les Maîtres de vérité, comme Tim O’Reilly, ne sont que la figure visible de ce processus.

Passer du temps ensemble : l’art de la conversation

La communauté est à la fois ce qui me donne une voix politique, et qui peut aussi bien me la retirer, ou me décevoir, me trahir au point que je ne veuille plus parler pour elle, ou la laisser parler pour moi, en mon nom. (Laugier, 2014, p. 197)

Pour autant (j’ai souvent insisté sur ce point, à la suite de la philosophie américaine ; voir Laugier, 2014, 2008) : rien n’est socialement joué d’avance. Les accords et les programmes de vérité sont extrêmement précaires : à tout moment, ils menacent de rompre, quand bien même ils seraient consensuels et orientés structurellement par d’anciens programmes repris et retravaillés, quand bien même ils donneraient l’impression d’être immuables, naturels et convenables, même si notre participation n’est jamais un acte décisionnel (nous sommes pris par l’action, possédés par elle).

Dit autrement : nous avons la possibilité, même si c’est difficile, de sortir d’un accord en contestant la prétention d’un Maître, d’un membre ou d’un programme à nous représenter.

Que signifie la conversation ? Cela veut dire le plaisir de passer du temps ensemble. (Laugier, 2011)

La rupture d’un accord (d’un programme de vérité) est précisément le moment où nous décrivons qui le constitue : des membres dont certains peuvent être fragiles, prêts à rompre à tout moment (Chrétien, 2017). Une communauté de vérité en accord avec ses membres, respectueuse de leurs formes de vie, se reconnaît à sa capacité à donner à chacun une “voix” (Laugier, 2011), c’est-à-dire — dans mon cas — la possibilité d’exprimer sa fragilité à partir d’une conversation continue13Cette idée est très proche de la philosophie politique : “[une communauté] ne reste libre qu’à proportion de la discussion infinie qu’elle tolère ou exige sur chaque proposition.” Voir Tenzer, 2006 autour de l’adhésion à son programme de vérité. Les conversations deviennent des querelles ou des controverses lorsqu’elles oublient de donner à chacun le temps, l’attention, l’espace dont il a besoin pour découvrir l’ordinaire de sa voix.

La conversation, lorsqu’elle n’est pas dévoyée par le paradigme participatif et le capitalisme contemporain du web (dit) 2.0 (“exprimez-vous”, “donnez votre avis”), est un modèle puissant de redistribution des positions qui permit, dans certains espaces du XVIIIème siècle mondain, d’inventer un modèle social où la voix des hommes et des femmes étaient pareillement audibles (Craverri, 2005).

Le tisserand et le diplomate 

Comment procédèrons-nous pour récupérer nos mots (“conversation”, “interactif”, etc.), dont nous avons été dépossédés par des programmes de vérité ? Comment accueillerons-nous chacun des membres d’une communauté de vérité dans sa spécificité et l’attention qu’il mérite afin de nous assurer que les termes de nos accords ne soient jamais que provisoires ?

Deux figures me semblent fructueuses pour penser ces questions : le tisserand et le diplomate. Dans le Politique, Platon célèbre un modèle gouvernemental qui repose sur l’assemblage d’une communauté d’opinions, de tempéraments, de statuts “pour fabriquer à partir d’eux un tissu lisse”. Si le philosophe découpe, tranche, distingue les parties du discours, à l’instar de la mort, il a également la possibilité, comme le tisserand, de démailler ce qui a été abusivement tissé, de reconstruire un vêtement adéquat qui permette à chacun de se réchauffer. Puisqu’un Maître de vérité, comme Tim O’Reilly, a composé son monde en agençant des phénomènes divers sous une même classe conceptuelle (“Web 2.0”), nous avons le droit d’y opposer notre texte et de revivifier des parties abandonnées sous une autre classe conceptuelle.

Ce travail relève d’une “éthique de l’ordinaire” (Laugier, 2014), c’est-à-dire d’une attention portée à ce que nous disons et aux manières de le dire en examinant nos mots, en se souciant de la manière dont ils sont tissés et dont ils participent au tissage de nos existences. Nous avons la responsabilité de ne pas les laisser tomber au sein de programme de vérité avec lesquels nous ne sommes pas en accord.

Au sein d’une communauté de vérité accordée, nous avons également la responsabilité d’accueillir la possibilité d’une rupture de l’accord : chacun de ses membres (humains, textes, code, etc.) a le droit d’exprimer sa fragilité en menaçant de rompre. Ce sont ces membres — les plus fragiles — qui permettent à un programme de vérité de rester visible, c’est-à-dire de ne pas se soustraire aux débats en invisibilisant progressivement les conditions de sa formation. Dans cette perspective, la figure du diplomate (Morizot, 2017) est fondamentale : si l’être fragile est à deux doigts de se casser en deux, son corollaire, le diplomate, se plie en deux pour faire co-exister des membres qui menacent de rompre. Non qu’il tente d’aplanir leurs désaccords, en trouvant une solution molle : au contraire, il assure que chacun des membres d’une communauté de vérité puisse exprimer sa forme de vie en délimitant les frontières de son expression.

Ethique de l’invu 

Mais comment verrons-nous les membres qui participent à un programme de vérité ?  Pour le dire autrement : pourquoi ai-je choisi de considérer que les textes (comme les articles produits lors de l’ ”affaire Goodreads”, décrite plus haut) sont, à leur manière, des êtres vivants, des membres d’une communauté de vérité ? Parce qu’ils ont leur logique et leur agentivité propres : par exemple, le texte produit par le journaliste du Huffington post (voir plus haut), qui a démultiplié les effets de la controverse entre auteurs et lecteurs, lui a totalement échappé, comme les “petites phrases” échappent souvent aux hommes politiques. C’est dire qu’au sein d’une société donnée, des phénomènes acquièrent des propriétés singulières, du fait de l’interaction extrêmement complexe entre un ensemble de membres (médias, institutions, journalistes, citoyens, etc.). Pour autant, nous minimisons toujours leur rôle : nous continuons à les penser comme des objets inanimés derrière lesquels se cacherait une marionnette humaine.

La philosophie de l’ordinaire (Wittgenstein, Cavell) procède autrement : elle ne cherche pas l’invisible derrière les phénomènes ; elle considère, au contraire, que tout est là, sous nos yeux, à notre portée, pour peu que nous nous en donnions la peine et les moyens. Elle prête de l’attention à ce qui a été invisibilisé du fait de sa naturalisation sociale : elle examinerait les termes d’un programme de vérité et chercherait, précisément, à en réinterroger les présupposés pour commencer à le démailler. Elle reconnaîtrait à chacun des membres d’un programme une voix qui compte, même si elle n’est pas audible ; d’autant plus précieuse qu’elle ne veut pas être entendue. Bref, elle nous apprend à voir l’invu14Ce mot m’a été proposé par mon psychothérapeute d’inspiration phénoménologiste et gestaltiste, à la suite d’une discussion sur le visible et l’invisible. Ce mot n’existait pas encore : il a émergé de notre interaction ; il est littéralement apparu et nous l’avons accueilli. : ce qui est potentiellement visible ou en train d’être visibilisé mais dont l’apparition reste fragile, risque à tout moment de céder si nous n’y prêtons pas garde. 

Pour finir : qu’est-ce qu’une communauté de vérité ?

Je suis désormais en mesure de définir une communauté de vérité : mais je ne serai qu’un temps en accord avec moi-même, sans doute le temps de l’énoncer (“et alors ?” dirait Emerson).

***

Une communauté de vérité est une forme de regroupement ontologiquement varié (humains, textes, matières, code, machine, etc.) qui se dote d’un programme de vérité processuel, en redéfinition permanente, auxquels ses membres adhèrent un temps par conviction, mauvaise foi ou opportunisme, parce qu’ils ont plus ou moins confiance en la parole d’un Maître de vérité investi d’autorité et visible socialement.

Maître et communauté définissent conjointement et lentement un programme, qui mêle normes, valeurs, confiances, postures, en s’auto-contraignant et en établissant des diagnostics sur une situation problématique, débattue puis naturalisée, à mesure qu’elle acquiert un statut convenable.

Maître et membres s’indéterminent dans une communauté de vérité pour définir des programmes.

***

Les communautés de vérité sont l’indice d’une recherche d’un monde ajusté et rythmé, en accord avec les formes de vie de ses membres.

Elles contribuent modestement au re-membre-ment discret de leurs savoirs, de leurs institutions, de leurs catégories par un processus graduel de transformations.

***

Les programmes de vérité sont toujours élaborés à partir d’anciens programmes ou d’anciennes configurations ; ils ne naissent pas ex nihilo mais aboutissent cependant à de nouveaux mondes après un examen critique et rigoureux.

Plus précisément, ils font l’objet de compositions-décompositions (choix de classes et de sous-classes conceptuelles pour nommer et rassembler des éléments épars) de pondérations (intensité donné à un élément particulier), d’agencements (inscription des éléments dans un ordre), de corrections (suppression d’anciens éléments, comblements des blancs), de déformations (certains éléments prennent un sens qu’ils n’avaient originellement pas).

Tout le monde ne peut donc pas concevoir son programme, son monde ou sa vérité.

Exemple :  en choisissant le terme “Web 2.0”, Tim O’Reilly a rassemblé, de son propre aveu, des réalités différentes sous une même classe (composition). Il s’est ensuite livré à un travail de pondération en établissant des hiérarchies entre les entités de sa recomposition : ainsi, l’intelligence collective, les technologies (XML, AJAX) et le marketing y tiennent une place fondamentale. On les retrouve dans d’autres programmes (celui de Caterina Fake, par exemple, la fondatrice de Flickr) mais dans des proportions moindres. O’Reilly s’est également appuyé sur d’anciennes configurations et d’anciens mondes pour bâtir son programme, en mettant de côté tout ce qui aurait pu empêcher son implantation (corrections) : certes, la contre-culture américaine a sans doute influencé l’élaboration de son monde mais la plupart des thèses  de cette dernière serait inapplicable telle quelle. C’est pourquoi son programme se livre à des déformations, comme sait parfaitement le faire le capitalisme du web contemporain : dans sa perspective, l’intelligence collective sert avant tout des objectifs marchands.

***

Les programmes de vérité sont défendus par des communautés de vérité, par leurs différents Maîtres (principaux, occasionnels, archaïques), leurs relayeurs, passeurs, généalogistes et gardiens qui peuvent prendre des formes variées selon les membres y prenant part (humains, textes, code informatique, etc.).

Elles peuvent être en concurrence, voire en conflit : elles mobilisent alors toute une gamme de répertoires rhétoriques, dramaturgiques, rhétoriques, narratifs, identitaires qui s’incarnent dans des matières textuelles territorialisantes* (logiciels, sites, bandeaux, tweets, liens, captures d’écran, etc.) ayant pour but de rallier des partisans, d’écarter des opposants, de proposer des solutions, de créer des frontières entre les membres de communauté de vérité dont les programmes sont en désaccord. Ces querelles s’inscrivent au sein d’espaces médiatiques dont les propriétés contribuent à la configuration du champ d’expérience des publics.

Elles sont révélatrices d’une tentative pour étendre la validité d’un programme  (son jeu de langage) au-delà du seul espace social capable d’en reconnaître la validité.

***

Fabriqués, les programmes peuvent également être défaits, même s’ils se présentent toujours sous l’apparence de l’immuable, de l’éternel, de l’impensé : nous ne sommes pas obligés d’en accepter la validité ; nous devons prêter attention aux termes qui les composent ; n’abandonnons pas notre langage et fabriquons, à l’instar du tisserand, d’autres tissus, c’est-à-dire d’autres textes.

***

Si elles recherchent l’accord de ses membres, les communautés de vérité ne sont pas pour autant accordées. Est accordée une communauté de vérité capable d’engager une conversation continue autour de l’adhésion de son programme.

L’accordement est le contraire de la naturalisation et du processus décitationnel, qui consiste à soustraire un programme du débat public à partir d’énoncés éternels. L’accordement laisse la possibilité aux membres d’une communauté de vérité de changer de positions, de faire la cartographie de leurs revirements, pour les aider à découvrir l’ordinaire de leur voix.

Ainsi, une communauté accordée inscrit tous ses membres dans un processus de visibilisation ; ils sont invus : en train d’être vus. Les diplomates facilitent ce travail.

Ajustement/correction : un Maître de vérité et sa communauté s’auto-contraignent pour élaborer “[des] normes, croyances, confiances et postures” (Jeanneret, 2014, p. 87) dans la durée, c’est-à-dire des programmes de vérité*. L’ajustement consiste ainsi à trouver un espace d’entente entre parties à partir de l’ordre de l’interaction (Goffman, 1967) ou de la convenabilité (Austin, 1962). Autrement dit : l’autorité des Maîtres est bien relative ; ils s’ajustent à ce qu’une communauté de discours est disposée à accepter. L’ajustement suppose des opérations de correction (Goodman, 1992[1978]) : la suppression et la supplémentation, soit pour couper des éléments d’un programme de vérité, soit pour en combler les vides.

Déjà-à-venir : un programme de vérité ou un monde n’est jamais fabriqué à partir de rien. Pour autant, ce sur quoi il s’appuie (d’anciens programmes, d’anciens mondes) n’est pas repris tel quel : il fait l’objet d’un examen critique qui métamorphose, au moment où ils sont mobilisés dans un nouveau programme, les éléments déjà-à-venir d’un programme antérieur.

Invu : membre d’une communauté de vérité en train d’être rendu visible par tout un processus de reconnaissance. Ce processus est fragile : à tout moment, un membre risque de ne pas apparaître ; à tout moment, un programme de vérité risque de ne pas être accordé.

Maître de vérité : dans la Grèce antique, les Maîtres de vérité sont des figures tutélaires (le roi, le devin, le poète) qui professent une vérité assertorique, jamais questionnée ou remise en question ; elle énonce “ce qui a été, ce qui est, ce qui sera” (Detienne, 2006). C’est que leur discours est auto-ajusté et cadré : il respecte respectivement la Justice, la Mantique, la Muse. Leur parole est donc convenable, elle respecte ce qu’une communauté de vérité est disposée à entendre. Tim O’Reilly est un Maître de vérité qui s’est ajusté à sa propre communauté : son discours (“Web 2.0”) a progressivement été impensé, soustrait au début public, à mesure qu’il se corrigeait. Les Maîtres de vérité d’une communauté donnée peuvent également être archaïques ou occasionnels : ce sont soit des figures tutélaires anciennes (comme Wiener ou McLuhan, par exemple) qui permettent aux programmes de faire la démonstration de leur assise intellectuelle, soit des figures tutélaires contemporaines, sur lesquels s’appuie un Maître de vérité.

  • Devenir décitationnel : la “décitation” (Quine, 1993, 2011) est une opération de transformation. Elle consiste à retrancher les guillemets d’un énoncé, une fois qu’il a acquis le statut de proposition vraie. Le “devenir décitationnel” désigne le processus qui consiste à transformer les énoncés guillemetés d’un Maître de vérité en proposition vraie. Dans le cas de Tim O’Reilly, par exemple, un certain nombre de ses formulations ont été reprises sans citer son auteur : elles sont progressivement devenues des énoncés gnomiques (ou “énoncés éternels” chez Quine, 1993, p. 114), ces petites formules et sentences qui circulent au présent de vérité générale avec la force de l’évidence.
  • Relayeur/Passeur/Généalogiste/Gardien de vérité : un programme et un Maître de vérité bénéficient d’appuis qui assurent leur ajustement et leur convenabilité. Les relayeurs de vérité font circuler un programme de manière synchronique : ce sont les “petites mains” des Maîtres de vérité ; ils matérialisent leur programme, les incarnent. Les passeurs de vérité élaborent des articulations entre des programmes de vérité divergents ou compatibles pour aboutir à des axes programmatiques (programme consensuel ou convenable). Les généalogistes de vérité font circuler les programmes de manière diachronique : ils trouvent des filiations entre des programmes historiques et les lient à des programmes contemporains. Ainsi, Steward Brand a tissé un lien entre le programme de la contre-culture américaine et le web 2.0. Enfin, les gardiens de vérité contrôlent l’interprétation des programmes de vérité : ils veillent à leur application correcte et convenable auprès des apprenants de vérité.

Matière textuelle territorialisante : les communautés de vérité créent un ensemble de “matière textuelle” (Krippendorff, 2012) pour assurer la matérialisation de leur programme de vérité. Ces matières créent du territoire en définissant des frontières entre les communautés de vérité au sein desquelles elles établissent leur Maître, leur programme bref, leur identité. Cette notion est proche de la “ritournelle” de Deleuze et Guattari (1980) : “tout ensemble de matière d’expression qui trace un territoire et qui s’y développe en motifs territoriaux, en paysages territoriaux” (p. 397) Ces matières construisent des frontières qui sont, pour reprendre la sociologie d’Andrew Abbott, “le lieu premier de la constitution des entités sociales (…) ils sont le produit d’un travail des frontières, c’est-à-dire d’un travail permanent d’ajustements et de différenciations entre des acteurs défendant des territoires d’activité.” (Demazière et Jouvenet, 2016, p. 20)

Programme de vérité : ensemble de postures, de croyances, de normes, de valeurs élaboré dans la durée par une communauté de vérité et un Maître de vérité, auquel ils adhèrent de manière alternée, opportuniste ou sincère, selon le degré de confiance qu’ils s’accordent mutuellement et les espaces sociaux où ils officient. Les programmes de vérité ne naissent pas ex nihilo des sables sociaux : ils sont généralement élaborés à partir d’anciens programmes qui ont fait l’objet de correction* (suppression de certaines parties ou comblement des espaces vides). Ces assemblements ajustés et corrigés constituent un axe programmatique de vérité, défendu dans les espaces médiatiques d’une même communauté de discours. Le passage d’un espace ou d’une forme programmatique à l’autre (de Tools of Change à Candide 2.0) peut conduire à de nouvelles corrections* d’un programme de vérité consensuel (ou axe programmatique) : des lignes programmatiques divergentes émergent parfois et font l’objet d’un ajustement* ou d’une co-existence conflictuelle. Les matières textuelles (logiciels, bandeaux, sites, discours, etc.) créées pour incarner matériellement les programmes de vérité portent la trace programmatique de cette élaboration continue. Enfin, les programmes ne sont vrais qu’à l’intérieur de l’espace social qui en reconnaît la validité. C’est pourquoi ils peuvent faire l’objet de luttes dans le but d’étendre cette validité à d’autres espaces et ainsi limiter leur charge relative. Ce processus mène à la naturalisation progressive des programmes de vérité : ils deviennent impensés, évidents pour tout le monde, notamment grâce aux “outils de vérité” (Robert, 2010), comme les logiciels de saisie, qui présentent un monde figé, matériellement réglé, auquel il est impossible de demander des comptes.

Règles et apprentissages d’un programme de vérité : un programme de vérité fait l’objet d’un certain nombre de règles qu’une communauté est appelée à suivre. Mais il ne suffit pas de formuler des énoncés prescriptifs pour qu’ils soient suivis ou suivis de la bonne manière.  Ainsi, les règles de Tim O’Reilly (“don’t treat software as an artifact”, “open your data”, etc) ont trouvé leur matérialisation dans les “exercices pratiques” (ateliers, workshops, etc.) de la conférence internationale Tools of Change (2007–2013), déclinaison dans l’édition numérique du “Web 2.0”. On y apprenait à appliquer convenablement le programme d’O’Reilly, c’est-à-dire à l’adapter à son contexte social, institutionnel, cognitif. Ainsi, “suivre une règle” signifie : mobiliser convenablement un énoncé prescriptif dans une situation sociale donnée par le truchement d’un apprentissage dont le but est de corriger ou de gratifier les apprenants de vérité. Dans le cadre de Tools of Change, par exemple, ces derniers pouvaient apprendre à créer des signes “affordants” pour que les interfaces numériques “parlent” aux lecteurs en articulant leurs systèmes de pertinence (perception, normes, valeurs, etc.) à un nouvel objet (le “livre social”). C’est dire que les programmes de vérité, en instituant des règles et en s’assurant de leur applicabilité, participent de la réaffirmation des “formes de vie” (Wittgenstein) des membres d’une communauté de vérité.

Ambroise Bruno et Laugier Sandra, Philosophie du langage, t. 2, Sens, usage et contexte, Vrin, 2011.

Armstrong David. M, Les Universaux : une introduction partisane, Les Éditions d’Ithaque, 2010.

Austin J. L., Quand dire c’est faire, Seuil, 1970 [1962].

Badouard Romain et Mabi Clément (dir.), Controverses et communication, Hermès, 75, 2015.

Barthes Roland, Mythologies, Seuil, 1957.

Béguin-Verbrugge Annette, Images en texte, images du texte. Dispositifs graphiques et communication écrite, Presses Universitaires du Septentrion, 2006.

Benoist Jocelyn, L’Adresse du réel, Vrin, 2017.

Bouquillion Philippe et Matthews T. Jacob, Le Web collaboratif. Mutations des industries de la culture et de la communication, Grenoble, PUG, 2010.

Bouchardon Serge, “Des figures de manipulation dans la création numérique”, Protée (39), p. 37–46, 2010.

Bouveresse Jacques, Le philosophe et le réel. Entretiens avec Jean-Jacques Rosat, Hachette, 1998.

Brague et al., “Vérité” dans Barbara Cassin (dir.), Vocabulaire européen des philosophes, Seuil/Le Robert, 2004.

Cefaï Daniel, “Les cadres de l’action collective. Définitions et problèmes” dans Daniel Cefaï et Danny Trom, Les Formes de l’action collective. Mobilisations dans des arènes publiques, Paris, Éditions de l’EHESS, 2001, p. 51–98.

Chauviré Christiane et Ogien Albert (dir), La Régularité. Habitude, disposition et savoir-faire dans l’explication de l’action, Éditions de l’École des Hautes Études en Sciences Sociales. coll. “Raisons pratiques”, 2002.

Chauviré Christiane, Ogien Albert et Quéré Louis (dir.), Dynamiques de l’erreur, Éditions de l’École des Hautes Études en Sciences Sociales. coll. “Raisons pratiques”, 2009.

Chrétien Jean-Louis, La Fragilité, Éditions de Minuit, 2017.

Colas-Blaise Marion, Beyaert-Geslin Anne (dir.) Le Sens de la métamorphose, Pulim, 2009, p. 7–19.

Colomb Cléo, “Faire compter les machines”, Communication, 2017, 34(2).

Compagnon Antoine, La Seconde main ou le travail de la citation, Seuil, 1979.

Coulon Alain, Ethnométhodologie, PUF, coll. “Que sais-je ?”, 2014.

Craverri Benedetta, L’Âge de la conversation, Gallimard, 2005.

Deleuze Gilles et Félix Guattari, Mille plateaux, t. 2, Capitalisme et schizophrénies, Éditions de Minuit, 1980, p. 397.

Demazière  Didier et Jouvenet Morgan, Abbott Andrew et l’héritage de l’école de Chicago, t. 1 et 2, 2016.

Deniau Guy, Qu’est-ce que comprendre ?, Vrin, 2008.

  • Qu’est-ce qu’interpréter ?, Vrin, 2015.

Descombes Vincent, Les Institutions du sens, Les Éditions de Minuit, 1996.

Detienne Marcel, Les Maîtres de Vérité dans la Grèce archaïque, Paris, Le Livre de proche, 2006.

Doueihi Milad, Du matérialisme numérique, Hermann, 2017.

  • Qu’est-ce que le numérique ?, PUF, 2013.
  • Pour un humanisme numérique, Seuil, 2011.
  • La grande conversion numérique, Seuil, 2008.

Emerson Ralph, Compter sur soi, Allia, 2018 [1847].

Ferraris Maurizio, Manifeste du nouveau réalisme, Hermann, 2014.

Formel Michel de et Quéré Louis (dir.), La Logique des situations. Nouveaux regards sur l’écologie des activités sociales, Éditions de l’EHESS. 1999.

Foucault Michel, “La fonction politique de l’intellectuel”, Politique-Hebdo, 20 novembre-5 décembre 1976.

  • L’Archéologie du savoir, Gallimard, 1969.

Garfinkel Harold, Recherches en ethnométhodologie, PUF, 2007 [1967].

Geertz Clifford C., Savoir local, savoir global. Les lieux du savoir, PUF, 2012 [1983].

Goffman Ervin, Les Cadres de l’expérience, Éditions de Minuit, 1991.

  • La Mise en scène de la vie quotidienne, t. 1, La présentation de soi, Éditions de Minuit, 1973.

Goodman Nelson, Manières de faire des mondes, Gallimard, 1996.

Ingold Tim, Faire. Anthropologie, Archéologie, Art et Architecture, Zones Sensibles Editions, 2017.

  • Marcher avec les dragons, Zones Sensibles Editions, 2013.

Jahjah Marc, “Stop the Goodreads Bullies : une arène littéraire sur Internet”, Revue d’histoire littéraire de la France, 2016, p. 653–676.

Jeanneret Yves, Critique de la trivialité, Paris, Éditions Non Standard, 2014.

Karsenti Bruno et Quéré Louis (dir.), La Croyance et l’enquête : aux sources du pragmatismue, Éditions de l’EHESS, 2005.

Kaufmann Laurence et Trom Danny, “Présentation” dans Qu’est-ce qu’un collectif ? Du commun à la politique, Paris, Éditions de l’EHESS, 2013, p. 9–24, 2010.

Krippendorff Klaus, “Le discours et la matérialité de ses artefacts”, Communication & Langages, 173, p. 17–42, 2012.

Lambert Frédéric, Je sais bien mais quand même. Essai pour une sémiotique des croyances, Éditions non Standard, 2014.

Laugier Sandra

Lemieux Cyril, La Sociologie pragmatique, La Découverte, 2018

Leroi-Gourhan André, Milieu et techniques, Albin Michel, 1954.

Libera Alain de, La Querelle des universaux. De Platon à la fin du Moyen Âge, Seuil, 2014.

Marec Joëlle Le et Babou Igor, “La dimension communicationnelle des controverses”, Hermès, La Revue, 2015, no 73, p. 111‑121.

Marin Louis, Le Portrait du roi, Paris, Les Éditions de Minuit, 1981.

Marin Marc C., 2006, “Critical Code Studies”, consulté le 31/10/2018.

Morizot Baptiste, Les Diplomates. Cohabiter avec les loups sur une nouvelle carte du vivant, Wildproject, 2016.

Morizot Jacques, “Vérité” dans Bener C. et Thouard D. (dir.), L’Interprétation. Un dictionnaire philosophique, Vrin, 2015.

Nietzsche Friederich, Vérité et mensonge au sens extra-moral, 1873.

Ogien Albert et Quéré Louis, “Contraintes d’acceptabilité” dans Le Vocabulaire de la sociologie de l’action, Ellipses, 2005a.

  • Pluralité des mondes”, idem, 2005b.
  • Ordre”, idem, 2005c.

Paveau Marie-Anne, L’analyse du discours numérique : dictionnaire des formes et des pratiques, Hermann, 2017.

Pouivet Roger, Philosophie contemporaine, PUF, 2008.

Souchier Emmanuel, “Formes et pouvoirs de l’énonciation éditoriale”, Communication & Langages, 2007, 54, p. 23–38.

  • Souchier Emmanuel, “Histoires de page et pages d’histoire” dans Anne Zali (dir.), L’aventure des écritures, t. 3, La page, Paris, Éditions de la BnF, p. 19–55, 1999.

Quéré Louis (dir.), L’Enquête sur les catégories. De Dhurkeim à Sacks, Éditions de l’EHESS, coll. “Raisons pratiques”, 1994.

Quine W. V., “Vérité et décitation” dans W. V. Quine, Les Voies du paradoxe et autres essais, Vrin, 2011, p. 505–524.

  • La Poursuite de la vérité, Éditions du Seuil, Paris, 1993[1990].

Rébillard Franck, “Du Web 2.0 au Web : fortunes et infortunes des discours d’accompagnement des réseaux socionumériques”, Hermès, 59, p. 25–31, 2011.

Robert Pascal, L’Impensé numérique, t.1, Des années 1980 aux réseaux sociaux, Editions des archives contemporaines, 2016.

  • Mnémotechnologies, pour une théorie générale critique des technologies intellectuelles, Hermès, 2010.

Schütz Alfred, Le Chercheur et le quotidien : phénoménologie des sciences sociales, Klincksieck, 2008.

Tenzer Nicolas, “Idéologie” dans Dictionnaire des sciences humaines, PUF, 2006.

Tiercelin Claudine, “Qu’est-ce que la philosophie analytique ? (3/4) Sommes-nous des cerveaux dans des cuves ?”, France Culture, Les Chemins de la philosophie, 2013.

Turner Fred, Aux sources de l’utopie numérique, Caen, C&F éditions, 2010.

Veyne Paul, Les Grecs ont-ils cru à leurs mythes ? Essai sur l’imagination constituante, Paris, Seuil, 1983.

Vidal Denis et Gaussier Philippe, “Un robot comme personne. Ontologies comparées et expérimentales au musée du Quai Branly”, Terrain, 2014, 62.

Vultur Ioana, Comprendre. L’herméneutique et les sciences humaines, Gallimard, 2017.

Wittgenstein Ludgwig, Recherches philosophiques, Tel Gallimard, 2014 [1954].

Worms Frédéric, Faut-il renoncer à la vérité ?, débat avec Jean-Claude Ameisen sur France Culture, 12 octobre 2018.

Huit œuvres de science-fiction pour réfléchir au transhumanisme

A l’issue de six jours de festival, les Utopiales de Nantes, événement annuel consacré à la science-fiction, ferment leurs portes lundi 5 novembre. L’édition 2018 avait pour thème central le corps. Le transhumanisme, soit l’amélioration du corps humain grâce à la technologie, a donc naturellement occupé une bonne partie des discussions. Pixels a sélectionné huit œuvres incontournables sur la question.

Dans « Transmetropolitan », on bidouille l’ADN.
DR

LES CHOIX DE LA MATINALE

A l’issue de six jours de festival, les Utopiales de Nantes, événement annuel consacré à la science-fiction, ferment leurs portes lundi 5 novembre. L’édition 2018 avait pour thème central le corps. Le transhumanisme, soit l’amélioration du corps humain grâce à la technologie, a donc naturellement occupé une bonne partie des discussions. Pixels a sélectionné huit œuvres incontournables sur la question.

Roman : « La musique du sang »

Ce court roman de Greg Bear, publié en 1983, propose une vision à la fois idéale et cauchemardesque de « l’amélioration » de l’être humain. Il suit Vergil Ulam, un jeune généticien talentueux qui travaille, à l’insu du laboratoire qui l’emploie, sur un projet de micro-ordinateurs biologiques de la taille d’une cellule humaine. Lorsque l’existence de son projet est découverte, Vergil Ulam est licencié, et s’injecte ses cellules de test pour pouvoir les sortir discrètement du laboratoire.

la suite après cette publicité

Dans les semaines qui suivent, sa myopie disparaît, il se sent plus fort, plus vif, au fur et à mesure que ses créations remplacent les cellules de son corps. Mais quand elles commencent à se transmettre à d’autres, à une vitesse exponentielle, c’est la nature même de l’humanité qui se retrouve menacée… Grand classique au rythme impeccable, La musique du sang a remporté le prix Hugo et le prix Nebula à sa sortie.

Manga & anime : « Ghost in the Shell »

[embedded content]

Pilier de la SF japonaise, le manga de Masamune Shirow, puis la série animée Ghost in the shell a posé dès 1989 une marque indélébile sur les réalisateurs cyberpunks à venir, à l’image des Wachowski via leur trilogie Matrix. Ghost in the Shell relate, dans une société où les corps humains sont « boostés » aux nouvelles technologies, la traque d’un pirate informatique de haute volée, le Puppet Master, par la major Motoko Kusanagi, une femme cyborg.

Si l’on y dézingue à tout-va, la série doit se lire également comme une fable existentialiste. Dans Ghost in the Shell, ce qui distingue les robots des humains est précisément que ces derniers recèlent un « ghost ». Sans forcément parler d’une âme, on peut l’appréhender comme l’esprit, la conscience. Ainsi l’héroïne Motoko Kusanagi, hybride faite de cellules humaines et d’un corps mécanique, ne cesse de s’interroger sur son existence, l’authenticité de son « ghost » et sa part d’humanité.

Roman : « Dune »

Et s’il fallait dépasser les limites de la perception et de l’intelligence humaine pour que nous puissions explorer l’espace ? Dans Dune (1965), la saga épique de Frank Herbert qui décrit l’évolution de l’humanité sur plusieurs siècles, tout est bon pour repousser ce dont est capable le corps humain.

A commencer par ceux des navigateurs, capables de guider les vaisseaux voyageant plus vite que la lumière en évitant les obstacles grâce à la puissance de l’Epice, la drogue miraculeuse qui permet de « voir » dans l’avenir et colore en bleu le blanc des yeux de ceux qui la prennent. Mais aussi ceux des femmes du Bene Gesserit, ordre mi-religieux, mi-guerrier, dont les membres apprennent à contrôler leur corps et leur métabolisme à un degré inouï par la seule force de leur volonté, et développent des capacités surhumaines. Comme « la voix », à laquelle on ne peut qu’obéir…

Film : « Robocop »

[embedded content]

Le classique de Paul Verhoeven, sorti en 1987, pose les grandes questions du transhumanisme sous ses dehors de film d’action ultraviolent et bas du front. Alex Murphy, le policier qui survit gravement amputé après une tentative d’assassinat, se retrouve transformé en un être « 50 % homme, 50 % machine, 100 % flic ». Mais ce policier impitoyable et incroyablement efficace est-il encore le Alex Murphy aimant et dévoué que connaît sa femme ? En « l’améliorant », la sinistre corporation OCP a-t-elle détruit sa personnalité ?

la suite après cette publicité

Les allergiques à l’esthétique des années 1980 pourront se rabattre sur le très correct reboot sorti en 2014, qui n’apporte pas de grande amélioration à l’histoire mais bénéficie de moyens techniques conséquents.

Jeu vidéo : « Deus ex : Human Revolution »

[embedded content]

Il n’a jamais demandé ça : victime d’un attentat perpétré au siège de Sarif Industries, l’agent de sécurité Adam Jensen a vu la mort de près. Sa vie, il la doit à son employeur, le Apple de la prothèse bionique. Doté de nouveaux bras, de nouvelles jambes, d’un nouveau corps, il ne fait pas que survivre : il est désormais augmenté. Plus fort, plus rapide, plus résistant, le voilà certes ressuscité, mais aussi, désormais, la « chose » de Sarif, qui le lance à la poursuite des terroristes, des opposants radicaux au transhumanisme.

Mais qui en veut vraiment à Sarif Industries ? Que cache la neuropozyne, cette drogue que les millions, les milliards de clients de Sarif consomment tous les jours pour ne pas rejeter leurs implants ? Et que se passerait-il si le code embarqué par toutes ces prothèses bioniques tombait entre les mains de gens mal intentionnés ? Autant de questions avec lesquelles joue le jeu d’action, d’infiltration et d’anticipation Deus Ex : Human Revolution, ainsi que sa suite, Human Divided.

Roman : « La Sonate Hydrogène » de Iain Banks

Comment archiver sa mémoire lorsqu’on vit plusieurs dizaines de milliers d’années, et que notre cerveau ne dispose que d’un espace limité ? Le roman La Sonate Hydrogène, paru en 2012 et écrit par l’écossais Iain Banks dans le cadre de son ambitieux cycle de la Culture, apporte une solution.

Le livre se déroule dans une civilisation qui a développé des capacités technologiques et un système politique intergalactique extrêmement abouti et contrôlé par des intelligences artificielles.

Parmi les nombreuses intrigues : la recherche d’un dénommé QiRia, et des souvenirs qu’il pourrait avoir des discussions diplomatiques qui se sont tenues 10 000 ans auparavant. Au détour d’un passage, le personnage explique que pour garder des souvenirs si anciens à disposition, il ne dispose pas d’un « ordinateur dans la tête », mais « d’une capacité de stockage supplémentaire » :

« Il est en moi. A travers moi. Il y a énormément de place dans le corps humain pour stocker des données, une fois qu’on sait coder les bases nécessaires et installer un système de lecture à nanofil à travers les hélices. J’ai commencé par les tissus conjonctifs, ensuite les os, et maintenant, même les organes les plus vitaux ont un stockage incorporé. Ça ne les empêche pas de fonctionner, et ça apporte même certaines améliorations en terme de solidité des os. »

Problème pour l’héroïne Vyr Cossont, les souvenirs concernés étaient situés dans les yeux de QiRia, dont il s’était débarassé pour les remplacer par d’autres organes… Une anecdote savoureuse et bien sûr encore irréaliste dans notre société actuelle, mais qui pourrait préfigurer des questions à venir en cas de modifications des capacités du corps humain, et de la gestion à réaliser du « poids » de nos souvenirs. Profitez bien de vos clés USB.

la suite après cette publicité

Comics : « Transmetropolitan »

Dans « Transmetropolitan », on bidouille l’ADN.
DR

Dans les soixante numéros de cette mini-série, on colle aux talons d’un journaliste déjanté, camé à des substances inquiétantes, qui déambule au pas de course dans un univers où tous nos repères sont bousculés. On y croise des humains augmentés bardés d’implants technologiques qui leur confèrent des qualités étranges.

On y découvre surtout des « transités » à l’ADN mutant, parqués dans un quartier réservé, qui revendiquent le droit à la différence et la liberté de travailler. Leur apparence troublante n’est plus tout à fait celle d’un membre de l’espèce humaine.

D’autres habitants de cet immense continuum urbain décident plus radicalement de couper avec leur enveloppe corporelle pour charger leur âme dans le nuage, et y vivre librement dans un univers numérique et immatériel. Publiée autour des années 2000 par un scénariste anglais, Warren Ellis, Transmetropolitan est une BD profonde, captivante, haletante, devenue une référence pour les passionnés qui bricolent l’ADN de plantes ou de bactéries en amateur.

Série : « Black Mirror »

Daniel Kaluuya et Hayley Atwell dans « Black Mirror ».
CHANNEL 4 / NETFLIX

Série phare des amateurs de dystopies, Black Mirror propose des épisodes totalement indépendants les uns des autres, qui évoquent chacun le dérapage d’une technologie. Parmi les nombreux thèmes abordés, celui du transhumanisme revient dans chacune des quatre saisons que compte, pour l’instant, cette série née au Royaume-Uni.

Dans Retour sur image, (saison 1, épisode 3), les humains sont équipés d’un système leur permettant d’enregistrer et de rediffuser tous leurs souvenirs – une technologie qui mettra un couple en difficulté, confronté à des soupçons d’adultère.

la suite après cette publicité

Dans Archange (saison 4, épisode 2), une petite fille se voit implanter une puce permettant de la surveiller à distance, mais aussi de filtrer ce qu’elle voit, afin de lui éviter des images choquantes. L’expérience va déraper.

Black Mirror s’intéresse aussi, dans deux épisodes remarqués, à l’immortalité que pourrait offrir la technologie. Dans Bientôt de retour (saison 2, épisode 1), une entreprise fabrique des humanoïdes à l’image de personnes décédées, en se basant sur leurs données personnelles. San Junipero (saison 3, épisode 4) aborde aussi la question de l’immortalité, à travers l’épisode le plus joyeux de cette sombre série.

Le mauvais procès fait aux fonctionnaires déconstruit en 6 points

Même au-delà de l’arène politique, l’idée domine largement aujourd’hui les débats que les employés du secteur public seraient un fardeau qui empêcherait le secteur privé, seul véritable créateur de richesses et d’emplois, de se développer. Cette vision a toujours été fausse, mais elle le devient de plus en plus.

Haro sur les fonctionnaires ! A l’automne dernier, la primaire de la droite avait tourné au concours de celui qui proposerait de supprimer le plus d’emplois publics. Hier encore, lors du débat entre les onze candidats à la présidentielle organisé par BFMTV, le sort des agents de la fonction publique a été au centre des joutes oratoires. Même au-delà de l’arène politique, l’idée domine largement aujourd’hui les débats que les employés du secteur public seraient un fardeau qui empêcherait le secteur privé, seul véritable créateur de richesses et d’emplois, de se développer. Cette vision a toujours été fausse, mais elle le devient de plus en plus.

Nécessaires aux entreprises

Aucune entreprise privée ne peut en effet produire de richesses avec succès si elle ne trouve pas dans son environnement immédiat des personnes bien formées, qui soient en bonne santé et soignées correctement si elles tombent malades, qui trouvent à se loger à des prix abordables dans un environnement suffisamment agréable, qui puissent se déplacer aisément, qui se sentent suffisamment sécurisées pour l’avenir pour se concentrer à 100 % sur leurs tâches… Il faut aussi à toute entreprise une justice qui fonctionne vite et bien pour régler ses litiges éventuels, ainsi que la certitude de disposer en permanence de courant électrique, d’accès à Internet…

Le débat devrait porter sur l’efficacité de l’action publique plutôt que sur le nombre de fonctionnaires

Bref, les entreprises ont absolument besoin de « biens publics » de qualité pour prospérer. Et ces biens publics, on ne sait les produire que par une action publique mise en oeuvre le plus souvent par des employés du secteur public. Au fur et à mesure que la division du travail s’approfondit et que des personnes et des organisations plus nombreuses interviennent pour la production du moindre bien ou service, les entreprises ont même de plus en plus besoin de ces fameux biens publics : une organisation économique aussi sophistiquée nécessite en effet un environnement de plus en plus stable, prévisible, optimisé…

Besoins

Cela ne signifie évidemment pas que « plus il y a de fonctionnaires, mieux c’est ». Encore faut-il que l’action de ces employés du secteur public corresponde aux besoins réels de la société. Et sur ce plan, en France, nous avons à coup sûr d’importants progrès à réaliser, si on en juge par exemple par les résultats très insatisfaisants de l’école publique en matière de lutte contre les inégalités ou encore par les déséquilibres territoriaux persistants. C’est bien davantage sur cette question de l’efficacité de l’action publique que le débat devrait se concentrer, plutôt que sur celle du nombre de fonctionnaires. Cette recherche d’une meilleure efficacité du secteur public implique qu’on s’interroge sur les statuts, les modes de recrutement et de rémunération ou encore la gestion des carrières des employés du public. Ils sont souvent très différents dans d’autres pays et nous aurions certainement des leçons à tirer de l’expérience de nos voisins, même si, bien entendu, la gestion des emplois publics doit s’inscrire dans l’histoire singulière de chaque pays.

Guillaume Duval

1/ Y A-T-IL DE PLUS EN PLUS DE FONCTIONNAIRES EN FRANCE ?

Sous son apparente unité, la fonction publique recouvre en réalité trois entités distinctes. La fonction publique d’Etat regroupe les agents des ministères et ceux des établissements publics administratifs (Pôle emploi, CNRS, Musée du Louvre…). La fonction publique territoriale rassemble, elle, le personnel des collectivités locales (régions, départements, communes), ainsi que celui des établissements publics administratifs locaux. Relève, enfin, de la fonction publique hospitalière le personnel des hôpitaux publics, des établissements publics d’hébergement pour personnes âgées dépendantes (Ehpad) et des établissements médico-sociaux (aide sociale à l’enfance, par exemple).

Fin 2014, la fonction publique dans son ensemble employait 5,4 millions de personnes, hors contrats aidés, soit 20 % de l’emploi total

Fin 2014, la fonction publique dans son ensemble employait 5,4 millions de personnes, hors contrats aidés (voir ci-après), soit 20 % de l’emploi total. C’est 220 000 agents de plus qu’en 2004, mais la population française a augmenté, elle aussi, de 3,8 millions dans le même temps. Sur cette période, la fonction publique d’Etat (44 % des effectifs globaux), a perdu plus de 250 000 postes. Cela s’explique en partie par le transfert, entre 2006 et 2010, de 135 000 agents vers les collectivités territoriales, suite aux lois de 2004 sur la décentralisation (personnel d’accueil, de restauration et d’hébergement des collèges et lycées, personnel des anciennes Directions départementales de l’équipement). La politique de non-renouvellement d’un retraité sur deux, appliquées de 2007 à 2012 dans la fonction publique d’Etat et la baisse des budgets des ministères ont également contribué à faire diminuer les effectifs.

Hausse dans les collectivités

A l’inverse, les effectifs de la fonction publique territoriale ont fortement augmenté , et ceux de la fonction publique hospitalière plus modérément. Dans cette dernière branche, ce sont les effectifs des Ehpad, structures en fort développement, qui se sont particulièrement accrus : + 3,1 % par an en moyenne. Il n’en reste pas moins que, dans leur ensemble, les effectifs de la fonction publique n’ont pas évolué plus vite que l’emploi total.

Mais attention, progression de l’emploi public ne veut pas nécessairement dire progression du nombre de fonctionnaires : seuls sept agents publics sur dix ont ce statut. Les autres, quand ils ne sont pas militaires (5,6 %), sont le plus souvent contractuels, c’est-à-dire employés avec un contrat de droit privé (CDI ou CDD). La part de ces contractuels dans l’emploi public a progressé de trois points en dix ans, pour atteindre 17,3 %. Par ailleurs, les organismes publics peuvent recourir à des contrats aidés (contrat d’accompagnement dans l’emploi depuis 2010, contrats d’avenir depuis 2012) pour embaucher des personnes ayant des difficultés d’insertion. 191 000 de ces contrats avaient cours dans la fonction publique fin 2014 (3,4 % des effectifs).

Inversement, le fait que le nombre de fonctionnaires statutaires augmente ne veut pas nécessairement dire que les effectifs totaux augmentent. En 2014 par exemple, environ 78 000 fonctionnaires statutaires sont entrés dans la fonction publique et 150 000 en sont sortis. Pourtant le nombre total de fonctionnaires statutaires a augmenté de 26 000 cette année-là par rapport à 2013. Pourquoi ? Parce qu’en 2014 (comme d’ailleurs en 2013), un peu moins de 100 000 contractuels, déjà présents dans les effectifs de l’emploi public, ont été titularisés en application des plans de résorption de la précarité dans la fonction publique (loi Sauvadet de 2012). Des subtilités qu’ont rarement en tête ceux qui dénoncent le « toujours plus de fonctionnaires ».

Xavier Molénat

2/ LA FRANCE COMPTE-T-ELLE PLUS DE FONCTIONNAIRES QUE LES AUTRES PAYS D’EUROPE ?

Les autres grands pays industrialisés ont-ils besoin de moins d’agents publics qu’en France pour offrir les mêmes services ? La réponse est clairement négative.

Afin d’effectuer cette comparaison, on peut commencer par ramener le nombre de fonctionnaires au nombre d’habitants. En effet, lorsque les partisans de la baisse de 500 000 agents mettent en avant l’idée que l’on reviendrait alors au niveau de l’année 2000 (pas franchement une France de déserts des services publics), ils oublient qu’entre 2000 et 2016, nous avons gagné 6 millions d’habitants. Et que l’accroissement régulier de notre démographie réclamera, a priori, plus d’emplois et d’investissements publics, pas moins ! 

 Le périmètre de mesure du nombre de fonctionnaires n’est pas identique d’un pays à l’autre

Ramené à la population, l’emploi public français se situe aujourd’hui dans la moyenne haute des pays de l’OCDE avec 86 personnes pour 1 000 habitants. C’est loin derrière les pays nordiques (Suède, Finlande, Danemark), mais c’est plus que le Portugal (68) et bien plus que l’Allemagne (60).

Pas de surpoids français

Mais cette comparaison est biaisée par le fait que le périmètre de mesure du nombre de fonctionnaires n’est pas identique d’un pays à l’autre. Par exemple, tandis que les jeunes Allemands commencent l’école à 6 ans, c’est 3 ans en France, ce qui implique forcément plus d’enseignants. Et les personnels des hôpitaux allemands, bien que financés par l’argent public, ne sont pas comptabilisés dans les effectifs de la fonction publique, etc.

Si l’on regarde de près les chiffres sur l’éducation, notre pays semble avoir fait « le choix délibéré de dépenser moins pour éduquer moins »

C’est pourquoi Xavier Timbeau, directeur principal à l’OFCE, propose de comparer le nombre total de personnes offrant des services non marchands (santé, éducation et administrations), toujours ramené au nombre d’habitants. Les pays nordiques ressortent encore largement en tête. La France se situe au même niveau que les autres grands pays industrialisés et même derrière les Etats-Unis. Ce qui n’est pas forcément une bonne nouvelle. Par exemple, si l’on regarde de près les chiffres sur l’éducation, notre pays semble avoir fait « le choix délibéré de dépenser moins pour éduquer moins », souligne Xavier Timbeau.

Un dernier point mérite d’être souligné. Les partisans de la baisse du nombre de fonctionnaires mettent en avant le fait que d’autres pays, en particulier la Suède, le Danemark, le Canada ou le Royaume-Uni, ont engagé ce type de politique avec succès. Mais les statistiques de l’OCDE montrent que l’effet est temporaire : aujourd’hui, dans tous ces pays, la part des fonctionnaires dans l’emploi total est plus élevée qu’en France !

Christian Chavagneux

3/ LES FONCTIONNAIRES SONT-ILS MIEUX PROTÉGÉS QUE LES SALARIÉS DU PRIVÉ ?

Qui dit fonction publique suggère emploi à vie. Les fonctionnaires bénéficiant d’un tel statut sont cependant loin d’être les seuls agents publics : ils représentent 72 % de ces effectifs. 17 % sont des contractuels soumis à un régime dérogatoire de droit public, 4 % sont en contrats aidés et 7 % ont un statut encore différent (médecins hospitaliers, enseignants et documentalistes des établissements privés sous contrat).

En 2013, les contractuels ont représenté 54 % des embauches et les emplois aidés 23 %

A côté du stock, les flux donnent à voir un autre visage de l’emploi public : en 2013 (dernière année dont les chiffres sont disponibles), les contractuels ont représenté 54 % des embauches et les emplois aidés 23 %. Le reste se répartissant entre 16 % de fonctionnaires et 7 % de personnels sous un autre statut. Les personnels non statutaires ont toujours existé dans la fonction publique mais, depuis le début des années 2000, le nombre d’établissements qui fonctionnent comme des agences de l’Etat sur le modèle anglo-saxon a crû fortement. Leurs modalités de gestion leur permettent de recruter plus aisément de nombreux contractuels, notamment dans l’enseignement supérieur et la recherche (les universités depuis la loi LRU), la culture ou la santé (agences régionales de santé).

Tensions avec le public

Certes, parmi les non-fonctionnaires, tous ne sont pas précaires : les médecins des hôpitaux publics ou les enseignants du privé le sont rarement. Mais comme dans le privé, la précarité se conjugue surtout au féminin et rime avec temps partiel. Dans la fonction publique territoriale, les femmes représentent 61 % des agents, mais 68 % des contractuels. Les plans de résorption de la précarité n’ont pas remédié à cette situation. Depuis 2005, une réforme limite certes à six ans la durée maximale d’un CDD, mais les employeurs publics s’arrangent le plus souvent pour ne pas la franchir. Et cette limite reste très supérieure à ce qu’elle est dans le privé : un CDD ne peut y être renouvelé que deux fois dans une limite de dix-huit mois.

La garantie de l’emploi ne prémunit pas contre de mauvaises conditions de travail

Quant aux titulaires, une fois entrés dans la fonction publique, ils en sont en effet rarement exclus : sur les 3 200 sanctions disciplinaires prises en 2015, on n’a décompté qu’une centaine de révocations (l’équivalent d’un licenciement pour faute lourde).

Cette garantie de l’emploi ne prémunit cependant pas contre de mauvaises conditions de travail. Les contraintes physiques sont certes moins fortes dans la fonction publique d’Etat que dans le privé, mais ce n’est pas le cas dans la territoriale, et surtout dans la fonction publique hospitalière, qui subit de plus massivement des horaires de travail atypiques. Les fonctionnaires travaillent dans l’ensemble plus souvent le dimanche et la nuit que les salariés du privé. Ils se plaignent aussi davantage de manquer d’informations claires sur leurs tâches ou d’être jugés par des personnes qui connaissent mal leur travail. Ils sont aussi et surtout beaucoup plus souvent confrontés à des situations de tension avec le public. L’affectation des fonctionnaires ne tient pas non plus toujours compte de leur situation personnelle. De plus, l’emploi à vie est assorti de contraintes en matière de liberté d’expression ou de droit de grève pour les militaires.

Céline Mouzon

4/ LES COLLECTIVITÉS LOCALES ONT-ELLES FAIT EXPLOSER LE NOMBRE DE FONCTIONNAIRES ?

Employés dans les communes, communautés de communes, départements, régions et quelques autres structures publiques locales, les fonctionnaires territoriaux sont presque deux millions, soit un gros tiers de la fonction publique. Est-ce trop ?

La Cour des comptes tranche régulièrement le débat en accusant les collectivités d’avoir exagérément recruté. De 2002 à 2013, les effectifs de la fonction publique territoriale ont en effet augmenté de 27,5 %, soit 405 000 agents supplémentaires. Cette forte hausse s’explique certes par le fait que l’Etat a transféré des compétences aux collectivités territoriales dans le cadre de la décentralisation. Mais comme l’explique la Cour, l’argument ne tient qu’en partie. Sur les 405 000 agents supplémentaires, 243 000 l’ont été dans les communes et les intercommunalités, alors qu’elles n’ont pas reçu de nouvelles compétences.

L’emploi à la hausse surtout en régions

De même, le rythme annuel d’embauches a certes été beaucoup plus faible dans les communes (+ 0,9 % par an) que dans les départements (+ 4,7 %) et les régions (+ 18,8 %), mais il reste supérieur à la croissance de la population française (+ 0,6 %). Et il aurait logiquement dû être plus limité dans la mesure où les communes se sont regroupées en communauté de communes, qui ont elles aussi beaucoup embauché (+ 7,2 %) pour fournir les services transférés au niveau intercommunal (collecte des déchets, petite enfance…)

+7900 nouveaux emplois dans les communes en 2014 du seul fait de la réforme des rythmes scolaires

Assiste-t-on donc à une dérive incontrôlée de l’emploi dans les collectivités locales ? Il faut y regarder dans le détail. En 2014 par exemple, l’emploi dans les communes a augmenté de 7 900 postes. Mais c’est uniquement le fait de la réforme des rythmes scolaires. Sans elle, le nombre d’agents y aurait baissé au contraire de 1 400 postes. Les réformes décidées au niveau de l’Etat peuvent aussi jouer sans qu’il y ait transfert de compétences formel.

Temps partiel

Autre limite : le développement du temps partiel. En 2014, le nombre d’agents de la ville du Creusot par exemple, a augmenté de 26 %. Mais ramenée en « équivalent temps plein annuel travaillé », cette hausse n’est plus que de 8 %. La fonction publique territoriale est en effet celle où les postes sont le plus souvent à temps partiel et précaires : en 2009, 20 % de ses agents n’étaient pas titulaires, contre moins de 14 % dans les autres fonctions publiques.

Pour ces raisons, l’évolution des dépenses de personnel est un indicateur plus pertinent que celle du nombre de postes. Elles ont cependant elles aussi augmenté assez rapidement, de 3 % par an de 2009 à 2014, contre 1,1 % pour l’Etat central, et 2,2 % pour les administrations de sécurité sociale. Il y a sans doute eu en effet une certaine dérive des effectifs au niveau du bloc communal. Philippe Laurent, maire UDI de Sceaux et président du Conseil supérieur de la fonction publique territoriale, nuance cependant : « L’approche comptable de la Cour des comptes est utile, mais il faut aussi regarder les services qui sont rendus en face.Ces trente dernières années, les collectivités ont notablement élargi la palette des services rendus à la population, notamment en matière de crèches et de centres de loisirs, permettant ainsi l’entrée rapide des femmes sur le marché du travail. »

Vincent Grimault

5/ LES FONCTIONNAIRES SONT-ILS MIEUX PAYÉS QUE LES SALARIÉS DU PRIVÉ ?

A question simple, réponse malaisée. Si on compare l’éventail des salaires nets, ceux du secteur public sont plus élevés à quasiment tous les niveaux : en 2014, le salaire médian était de 1 957 euros par mois, contre 1 783 euros dans le privé. Pour les 10 % des salaires les plus élevés, les salaires du privé sont cependant supérieurs à 3 609 euros, contre 3 228 euros dans le public.

 Le public compte une proportion plus grande de cadres et les agents y sont globalement plus âgés

La comparaison globale n’a cependant pas grand sens, car la structure des emplois n’est pas la même dans les deux secteurs. Le public compte en particulier une proportion plus grande de cadres et les agents y sont globalement plus âgés. Deux caractéristiques qui expliquent l’essentiel des écarts salariaux. Les employés de l’Etat central sont certes mieux payés que ceux du privé mais ce n’est pas le cas dans la territoriale ni dans les hôpitaux. Quant aux cadres du public ils sont nettement moins bien payés que ceux du privé surtout au niveau de l’Etat central.

Le gel du point d’indice* entre 2010 et 2016 a entraîné une stagnation de la rémunération des fonctionnaires au cours des dernières années : leurs salaires ont augmenté moins vite que l’inflation entre 2006 et 2015. Une garantie individuelle du pouvoir d’achat (Gipa) a certes été mise en place en 2008 pour combler l’écart entre l’évolution du traitement indiciaire et l’inflation sur les quatre années précédentes. Mais elle n’est versée qu’à 150 000 personnes environ dans chacune des branches de la fonction publique.

Le développement des primes a permis de limiter les dégâts : elles représentent en moyenne 23 % de la rémunération des fonctionnaires. Mais ce taux est très variable : 45 % pour les emplois de direction de la fonction publique d’Etat, 5,3 % pour les professeurs des écoles, par exemple. Ont également aidé, l’exonération de charges sociales sur les heures supplémentaires (en place entre 2007 et 2012), le rachat de jour de RTT (1 150 euros par agent en moyenne en 2015), ainsi que des mesures catégorielles de reclassement (passage des infirmières en catégorie A), de revalorisation des débuts de carrière (enseignants) ou de révision des corps (police nationale). La prime à la performance instaurée en 2009 est, elle, restée anecdotique : son montant global n’a jamais représenté plus de 0,5 % de l’ensemble des dépenses de personnel.

Stagnation

Malgré toutes ces mesures, le salaire annuel moyen du secteur public, en euros constants, était identique en 2014 à ce qu’il était en 2002 : 22 410 euros, alors qu’il a augmenté de 6,5 % dans le secteur privé sur la même période. Les bas salaires ont certes été revalorisés (indexation du minimum de traitement sur le Smic), mais ils ne progressent désormais que très lentement. Et le resserrement des écarts en début de carrière, du fait de cette revalorisation, produit un sentiment de déclassement chez les plus qualifiés. La valeur du point d’indice va cependant augmenter de 0,6 % en février 2017, après une hausse d’autant en juillet dernier. Après six ans de blocage, pas de quoi pavoiser pour autant.

X.M.

6/ LES FONCTIONNAIRES TRAVAILLENT-ILS MOINS ET MOINS LONGTEMPS ?

Eternels tire-au-flanc les fonctionnaires ? Sur le papier, ils doivent effectuer 35 heures hebdomadaires, comme dans le privé, soit 1 607 heures par an. Mais un récent rapport de Philippe Laurent, maire UDI de Sceaux et président du Conseil supérieur de la fonction publique territoriale, pointe que les agents ne réalisent en moyenne que 1 584 heures par an, soit 1,4 % de moins que la durée réglementaire. La différence s’explique surtout, selon le rapport, par les astreintes et des horaires plus souvent atypiques que dans le privé. Près de 37 % des fonctionnaires travaillent de nuit, contre 26 % des salariés du privé, et 18 % des agents travaillent le dimanche, contre 15 % dans le privé. Les compensations pour faire tourner certains services jour et nuit prennent plus souvent la forme de temps de travail en moins que d’une rémunération supplémentaire.

Distorsions

Par ailleurs, au-delà des strictes moyennes horaires hebdomadaires (la majorité des agents a choisi de travailler 38 heures 30 avec des jours de RTT), il existe des distorsions entre les différentes administrations. Ces écarts résultent de la mise en place des 35 heures dans une certaine précipitation et d’une « faiblesse du management public » qui n’a pas profité de l’occasion pour revoir l’organisation du travail, note le rapport.

Comme dans le privé, certains fonctionnaires connaissent des horaires à rallonge, connectés à leurs outils numériques

La possibilité de conserver à cette occasion certains usages antérieurs (jours de congés supplémentaires), voire de maintenir des régimes plus favorables que les 35 heures dans certains métiers de la fonction publique territoriale, ont créé des inégalités entre services. Comme dans le privé, certains fonctionnaires connaissent des horaires à rallonge, connectés à leurs outils numériques. Sous la pression du management, ces heures supplémentaires ne sont cependant pas toutes déclarées et l’intensification du travail n’épargne pas les agents. La proportion des employés administratifs dont le poste exige une réponse immédiate à un usager a doublé en vingt ans, analyse la statisticienne Danièle Guillemot.

In fine, les fonctionnaires pas mieux lotis

Qu’en est-il en matière de retraite ? Un agent classé en catégorie « active », dont les tâches présentent un risque ou une fatigue exceptionnelle, peut faire valoir plus tôt ses droits à la retraite (52 ans pour un policier, 57 pour une infirmière). En 2013, un fonctionnaire sur cinq partant en retraite faisait partie de ces catégories. Certains agents bénéficiant de régimes spéciaux (SNCF, RATP…) peuvent eux aussi partir plus tôt que les salariés du privé. Mais pour la majorité des autres agents publics, les règles ont été alignées sur celles du privé depuis la réforme des retraites de 2010, qui fixe l’âge de départ à 62 ans à partir de la génération 1955.

Dans le secteur privé, les 25 meilleures années de carrière sont prises en compte pour le calcul de la pension. Les fonctionnaires bénéficient en théorie d’un mode de calcul plus avantageux, basé sur les six derniers mois d’activité. Pour autant, in fine, ces derniers ne sont pas mieux lotis, du fait notamment de la faible prise en compte des primes dans ce calcul. Selon le Conseil d’orientation des retraites, si on appliquait les règles du privé aux fonctionnaires (majoration de deux années par enfant contre une seule dans le public par exemple), plus de la moitié des agents nés en 1958 y gagneraient.

S.F.

ALTShift festival, pour des plateformes au service du bien commun

Dans ce contexte, il semble primordial d’aborder dès à présent les impacts de cette évolution. Son intensité sera en effet certainement bien supérieure en Egypte à la France par exemple, où les gouvernements locaux négocient l’utilisation des données et la taxation des services et où surtout la tradition politique favorisera la protection des travailleurs et des consommateurs. À cet égard, on peut saluer les très bons ateliers animés par Alicia Trepas Pont et Claudia Gross sur les opportunités que représentent les organisations ouvertes, où le pouvoir de décision est distribué et où on cherche à inclure fournisseurs, clients dans les mouvements importants. On y comprend notamment qu’il existe un écart important entre l’image d’ouverture qui est véhiculé par les plateformes collaboratives les plus répandues et la réalité : prédation de la valeur générée par les transactions, opacité des algorithmes utilisés, appropriation des données des usagers et contournement des règle de protection


ALTShift festival, pour des plateformes au service du bien commun

Du 19 au 21 octobre 2018, j’ai eu la chance de participer au ALTShift festival, au Caire. La conférence rassemblait une cinquantaine d’intervenants pour discuter de l’avènement des plateformes numériques et de leurs impacts économiques et sociaux dans le contexte égyptien. J’y intervenais notamment pour présenter la nécessité de construire une alternative collective au modèle entrepreneurial dominant, inspiré des mythes de la Silicon Valley.

Alexandre Bigot-Verdier — CC BY NC

L’organisateur principal de la conférence, Ehab Elia, est un connecteur de ouishare. Ayant participé au succès de nombreux événements, notamment le OuiShare fest, POC21 et l’éco2fest, il a savamment répliqué une recette qui fonctionne bien : faciliter dans un cadre chaleureux la rencontre entre intervenants internationaux et acteurs locaux. Le résultat attendu est bien au rendez-vous : les sujets sont abordés dans toute leur complexité et confrontés à l’expérience locale. Ici, la KMT House, tiers-lieux d’innovation sociale cairote emblématique, a permis un très bon équilibre entre prises de parole de cadrage et ateliers participatifs plus complets permettant aux entrepreneurs, étudiants et curieux de travailler au contact des experts qui avaient fait le déplacement.

1*EMQlqPETkmnSCxrbn61Azg.jpeg

Alexandre Bigot-Verdier — CC BY NC

Proposer une meilleure compréhension des impacts des plateformes numériques et des alternatives possibles
Les sujets abordés lors d’ALTShift étaient articulés autour du thème des « plateformes », ces outils numériques qui permettent la mise en relations d’individus ou d’organisations pour faciliter l’échange ou l’achat de biens et services. Au Caire, les 30 millions d’habitants sont habitués à pallier des infrastructures publiques insuffisantes par une culture informelle exacerbée. Le développement rapide des plateformes, permise par la bonne pénétration de l’internet mobile peut donc avoir un impact majeur sur les citadins. J’ai d’ailleurs pu constater que des applications comme Uber, ou Careeem sont déjà largement préférées au réseau de transport public.

Dans ce contexte, il semble primordial d’aborder dès à présent les impacts de cette évolution. Son intensité sera en effet certainement bien supérieure en Egypte à la France par exemple, où les gouvernements locaux négocient l’utilisation des données et la taxation des services et où surtout la tradition politique favorisera la protection des travailleurs et des consommateurs. À cet égard, on peut saluer les très bons ateliers animés par Alicia Trepas Pont et Claudia Gross sur les opportunités que représentent les organisations ouvertes, où le pouvoir de décision est distribué et où on cherche à inclure fournisseurs, clients dans les mouvements importants. On y comprend notamment qu’il existe un écart important entre l’image d’ouverture qui est véhiculé par les plateformes collaboratives les plus répandues et la réalité : prédation de la valeur générée par les transactions, opacité des algorithmes utilisés, appropriation des données des usagers et contournement des règle de protection du travail. L’actualité a d’ailleurs voulu que les livreurs deliveroo se mettent en grève pendant l’événement, une belle illustration des déséquilibres dénoncés.

De la même façon, la relative maturité des technologies de décentralisation du web (blockchain, Holochain) et le mouvement des plateformes coopératives, peuvent permettre aux égyptiens de gagner du temps dans l’élaboration de leurs propres modèles alternatifs. Sur ce sujet, Joachim Lohkamp, de Jolocom et Matthew Schutte, co-fondateur de Holochain ont collaboré avec Ibrahim Zaghw, journaliste, à l’animation d’un parcours très réussi de vulgarisation des enjeux de la blockchain. Les participants ont très facilement imaginé des applications concrètes dont je retiendrai particulièrement l’idée de faire élire certains fonctionnaires par les citoyens (pompiers, policiers de circulation, etc.) et surtout de pouvoir de les destituer en cas d’abus (sur le modèle de la démocratie liquide).

1*4JTyibdVAbAmqxOymXnuJQ.jpeg

Alexandre Bigot-Verdier — CC BY NC

J’ai à mon tour eu la chance de participer aux conférences afin de remettre en question le modèle dominant de développement de projet : la recherche de la licorne à tout prix, (pitch — incubation — MVP — pitch — levée de fond — accélération — levée de fonds — exit) basé sur des levée de fonds faramineuses et des impératifs de retour sur investissement incompatibles avec le financement de projets coopératifs locaux pourtant rentables. J’y ai notamment mis en avant l’expérience de Numérique en Commun(s) et du mouvement des plateformes coopératives qui constituent des modèles alternatifs d’innovation par le collectif et l’open-source. Je succédais sur ce sujet à Yuki Liu, de Open Motors, designer et constructeur de voitures entièrement modulables et réparables ainsi qu’à Mauricio Cordova, qui développe la faircap, filtre à eau portable et extrêmement abordable (1$) qui illustrent parfaitement les grands espoirs à placer dans les projet manufacturiers en licence ouverte (open-hardware).

La conférence a finalement été l’occasion de rencontrer des projets égyptiens qui œuvrent déjà dans cet état d’esprit, comme l’équipe de RedCab, qui doit permettre de proposer un service de type Uber sur une plateforme décentralisée et en partie détenue par les chauffeurs, dont le lancement est attendu en 2019.

1*-RXX7akqQSCpD0D1crrxDQ.jpeg

Crédit : Alexandre Bigot-Verdier — CC BY NC

Comme toujours, le défi de l’inclusion persiste
Même si le programme proposait quelques ateliers en arabe, sur l’entrepreneuriat féminin en Égypte par exemple, la maitrise de l’anglais était nécessaire pour participer à ALTShift. Certains on déploré cette barrière, restreignant l’accès à une minorité privilégiée d’Égyptiens. Ce commentaire revient souvent dans les événements internationaux de ouishare dont l’objectif est plutôt de connecter certains pionniers et questionner les tendances mondiales qui génèrent un enthousiasme trop unanime pour n’être pas suspect. La vulgarisation pour le plus grand nombre se fait plutôt dans des petits événements réguliers, sur le modèle de l’école du collaboratif de la communauté Québécoise dont l’histoire semble proche de la jeune communauté cairote.

L’objectif d’ALTShift était avant tout d’ouvrir les horizons de ses participants sur des scenarios de développement de l’économie numérique à contre-courant des modèles classiques de plateformes d’économies collaboratives mondiales. Mission accomplie, par une communauté chaleureuse à qui nous souhaitons le meilleur développement possible et bonne chance pour l’édition 2019.

Les formats traditionnels d’information réinventés sur Twitter, la communauté en plus

Journalistes et producteurs s’inspirent des formats journalistiques traditionnels pour créer de nouveaux formats sur Twitter. L’objectif : sortir l’internaute de la torpeur du snacking pour l’inciter à prendre le temps de s’informer en profondeur. Un usage contre-intuitif de la plateforme qui revalorise l’échange de qualité. Décryptage.

Par Laure Delmoly, journaliste indépendante. Billet invité.

Journalistes et producteurs s’inspirent des formats journalistiques traditionnels pour créer de nouveaux formats sur Twitter. L’objectif : sortir l’internaute de la torpeur du snacking pour l’inciter à prendre le temps de s’informer en profondeur. Un usage contre-intuitif de la plateforme qui revalorise l’échange de qualité. Décryptage.

 L’Analyse via le #thread

Utilisé en mai 2014 par le cofondateur de Netscape Marc Andreessen, le thread (ancien « tweetstorm ») est un enchainement de tweets successifs qui, pris dans leur ensemble, développent une idée.

L’ingénieur, souhaitant s’affranchir de la limite de caractère imposée par la plateforme, a d’abord utilisé les balises html >/THREAD>. En décembre 2017, le thread est devenu une fonctionnalité officielle de Twitter permettant à chaque utilisateur de publier en une seul fois un fil de tweets.

Identifiable en un instant, le thread suscite la furieuse envie de dérouler pour poursuivre la lecture. Il s’impose vite comme le format idéal pour traiter des sujets qui nécessitent un temps long : l’affirmation d’une pensée politique, l’analyse d’un document vidéo ou le décryptage d’une situation géopolitique. Subtile mélange entre précision et art du storystelling, le thread associe l’urgence et le point de vue. Il séduit d’abord les esprits politiques. Pour la journaliste américaine de Politico Virginia Hefferman, le thread a l’avantage de donner au lecteur la satisfaction d’un long-format de magazine tout en pouvant être lu rapidement.

Les thread ne sont pas seulement factuels. Ils suscitent un débat. L’internaute a l’impression d’avoir eu un nouvel éclairage sur un sujet via un expert ou un provocateur.

L’épique thread d’Eric Garland en décembre 2016 présente la “théorie du jeu”. En 127 tweets, l’analyste politique développe sa théorie en abordant des sujets aussi variés que le KGB, Wikileaks, la guerre en Irak, les Médias conservateurs et les relations de Barack Obama avec la Russie.

Le thread permet également à des insiders d’affirmer un point de vue. C’est le cas de l’agent du FBI Asha Rangappa qui s’inquiète en décembre 2017 du possible départ du procureur général adjoint des Etats-Unis Rod Rosenstein.

Cet enchaînement de tweets offre l’espace nécessaire pour analyser des vidéos virales. Le thread de la BBC sur les exactions de l’armée dans le Nord du Cameroun permet d’authentifier la vidéo virale et de dénoncer la position du gouvernement qui la qualifiait de fakes news, à l’aide de formats aussi variés que pédagogique (infographie, podcast, videos, photos…), faisant de ce fil un reportage à part entière. 

THREAD

In July 2018, a horrifying video began to circulate on social media.

2 women & 2 young children are led away by a group of soldiers. They are blindfolded, forced to the ground, and shot 22 times. #BBCAfricaEye investigated this atrocity. This is what we found… pic.twitter.com/oFEYnTLT6z

— BBC News Africa (@BBCAfrica) 24 septembre 2018

Si le thread réintroduit le temps long nécessaire à l’analyse, il continue de bénéficier des avantages de la plateforme : la spontanéité. Les internautes réagissent à chaud : ils remercient, partagent et expriment leur point de vue.

Le thread de Jules Grandin, journaliste aux Echos, analysant les problèmes frontaliers entre le Soudan et l’Égypte, obtient ainsi plus de 1000 likes et 700 retweets.

« C’est le grand avantage de construire un fil de tweets : lorsqu’il fonctionne, c’est gratifiant. Ça m’a permis de comprendre que les gens aimaient beaucoup les cartes”.

Le rendez-vous d’information 

Créé en mars 2015 par la journaliste française Emmanuelle Leneuf pour remédier à l’infobésité, le flashtweet propose chaque matin dix tweets sur la transformation numérique.

« Je me suis rendu compte qu’il y avait beaucoup d’infos sur Twitter et que si on les détectait rapidement on pouvait avoir un temps d’avance sur les autres médias » affirme la journaliste.

Le format fait penser à une matinale : des informations sélectionnées, hiérarchisées et éditorialisées publiées chaque matin à 7h30.

Le flashtweet est construit comme un vrai journal : les informations “chaudes” sont présentées en ouverture renvoyant les sujets d’analyse à la fin. Organisé autour de rubriques régulières (Tech, Start-up, Réseaux Sociaux, Blockchain, Infographie, Marketing, TransfoNum, Intelligence Artificielle), le flashtweet fournit l’essentiel de l’actualité aux professionnels du digital.

« Je fais en sorte que l’information soit présente dans le tweet lui-même afin que l’internaute n’ait pas à se rendre sur le site source » explique Emmanuelle Leneuf.

Chaque tweet du flash adopte la structure suivante : [émoticone],[rubrique],[source],[flashtweet],[photo] .

Le flashtweet réintroduit une logique de rendez-vous d’information. Le flash est programmé, récurrent mais aussi conversationnel.

« Je veux maintenir un ton de proximité avec mes followers. Ils se connectent, disent bonjour et remercient à la fin. » raconte la journaliste qui utilise des émoticones et LOLCATs pour animer son rendez-vous matinal.

Un pari réussi. Dès le début les internautes se sont mobilisés pour jouer le rôle d’éclaireurs et d’ambassadeurs de ce nouveau format. Chaque flashtweet est retweeté entre 20 et 100 fois. Le succès du format est dû à la qualité de sa communauté qui comprend des chief digital officers, des directeurs d’entreprise, de journalistes et des experts. « Certains professionnels sont plus experts que moi, ils réagissent à chaud et enrichissent l’information en apportant leur propre éclairage ».

Le format répond à une demande d’information spécialisée le matin avant de se rendre au travail. Au fil du temps, la communauté de professionnels du digital s’est consolidée grâce à un flash info conversationnel accordant une grande valeur à l’expertise et la spontanéité.

Depuis, d’autres rendez-vous ont vu le jour sur Twitter, souvent sous forme de curation de contenus à destination d’une communauté précise, comme la #tweetsrevue de Patrice Hillaire, la sélection de Eficiens Tweet’Café ou celle en 3 étoiles de Méta-Média. Enfin, on trouve aussi des rendez-vous autour de hashtags que tout à chacun peut s’approprier, tel que #MardiConseil.

Le direct (vidéo ou audio) interactif

Dernière fonctionnalité proposée par Twitter, le live audio permet depuis septembre 2018 de prendre l’antenne avec un simple smartphone. Un terrain de jeu que journalistes et producteurs se sont empressés de tester.

Pierre Philippe Cormeraie (aka @PPC), « chief digital evangelist » du Groupe BPCE, a crée fin septembre un podcast interactif. Les ingrédients de ce format : un sujet envoyé dans la « conversation room » et un rendez-vous en direct sur Twitter. L’animateur prend l’antenne tous les matins sur la plateforme à 7h35 et 7h58. Plus besoin de hashtag pour commenter l’émission en direct : audio et conversation se rejoignent dans une seule interface.

Le thème est choisi la veille en totale collaboration avec les auditeurs. Les sujets traités, sur un ton proche de la libre-antenne, incluent le darkweb, l’industrie 4.0, les Fakenews, la Foodtech et l’ASMR.

Le podcast interactif permet une réelle interaction entre la « conversation room » et l’animateur. Les auditeurs-internautes font bien plus qu’enrichir le débat. En intervenant massivement en live, ils co-construisent l’émission.

Un format qui plait puisque le podcast de #PPC cumule 20 000 écoutes un mois après son lancement. Il est disponible en réécoute sur Twitter mais également sur iTunes, Google play et Spotify.

Plus facile à produire que le live vidéo, le podcast interactif est idéal pour couvrir des événements, faire des interviews ou même créer un talk-show improvisé avec des spécialistes. Le journaliste Damien Douani profite ainsi du MIPCOM à Cannes pour créer un plateau d’experts sur les série TV en invitant Romain Nigita et Alain Caraset à répondre en live aux questions des internautes.

 

 

Analyse, Flash info, live interactif, Twitter se renouvelle via l’inventivité et le savoir-faire de ses utilisateurs. On retrouve ce qui a fait le succès de la plateforme dès 2006 : l’échange. Désormais c’est la qualité de la communauté qui permet d’enrichir le format initial. Un mariage prometteur rendu possible par des moyens de production de plus en plus léger et une plus grande maturité des usages.

 

Crédit Une : Photo de Marten Bjork via Unsplash

Non, l’innovation n’a rien à voir avec les idées

Ne vous leurrez pas. L’innovation n’a rien à voir avec les idées : il s’agit de régler des problèmes ! La vérité est que tout le monde se fout de vos idées, on ne prête attention qu’aux problèmes que vous parvenez à résoudre. La raison pour laquelle la plupart des gens n’arrivent pas à innover n’est pas qu’ils n’ont pas d’idée mais qu’ils manquent de persévérance pour surmonter un vrai gros problème jusqu’à ce qu’ils n’en soit plus un.

L’article Non, l’innovation n’a rien à voir avec les idées est apparu en premier sur Maddyness – Le Magazine sur l’actualité des Startups Françaises.

Le Bouillon c’est une soupe de liens sur la connaissance et le numérique recommandés avec amour par nos cuisiniers!

inscrits au Bouillon par courriel, et vous ?

Contactez-nous ou demandez à rejoindre le Bouillon