(Re)découverte
Révolution numérique et économie de l’attention
Un nouvel âge du capitalisme ?
Au regard de la façon dont le numérique est en train de bouleverser l’ordonnancement de nos vies, non seulement en reconfigurant l’architecture des savoirs, mais aussi tous les domaines de notre existence quotidienne, il est devenu courant d’y voir une révolution dont on peut dire qu’elle a déjà des conséquences qui pourraient être sans commune mesure avec les grandes révolutions techniques qui ont jalonné l’histoire de l’humanité. Pour l’instant, l’on ne peut en prendre l’exacte mesure, d’une part parce que, témoins contemporains, nous manquons de suffisamment de recul historique pour juger, et d’autre part parce qu’elle n’a pas encore fini de dérouler tous ses effets. Mais l’on peut voir déjà de grandes lignes se dessiner, en particulier celles d’une économie nouvelle articulée autour de la découverte d’une nouvelle rareté – l’attention – qui se met en place, et dont on voit déjà qu’elle est en train de reconfigurer nos modes de production, d’échanges et de communication.
Je voudrais faire voir dans ce qui suit que ce qu’il est désormais convenu d’appeler « économie de l’attention » marque une étape nouvelle dans l’évolution du capitalisme, lequel, dans sa frénésie de quête de nouveaux territoires, se tourne désormais vers nos ressources psychiques. Pour cela, je procéderai en un double mouvement : je montrerai d’abord en quoi consiste la radicale nouveauté du numérique, en faisant la généalogie et en faisant voir de quelle histoire et de quelle épistémologie il procède ; ensuite je caractériserai l’économie de l’attention, en montrant en quoi elle constitue une nouvelle phase du développement du capitalisme, ce qui revient à dégager les stratégies par lesquelles elle s’est instituée comme modèle économique, avant de faire voir les dangers potentiels qu’elle implique.
Mots-clés
Économie de l’attention, révolution numérique, capitalisme
Plan de l'article
Introduction
De la grammatisation
Historique
Une nouvelle phase du capitalisme ?
Conclusion
Introduction
L’histoire des techniques montre à profusion que les innovations majeures ne sont pas celles qui prolongent une tradition établie qu’elles contribuent à renforcer, mais celles qui sont porteuses de ruptures, lesquelles bouleversent l’infrastructure des sociétés en générant des problématiques nouvelles qui ne peuvent plus être comprises selon les termes et les canons de la culture ambiante. Quand de telles ruptures se produisent, l’histoire change de régime et la radicale nouveauté des enjeux exige alors une reprise critique des outils et des concepts par lesquels le réel était jusque-là appréhendé.
Au regard de la façon dont le numérique est en train de bouleverser l’ordonnancement de nos vies, non seulement en reconfigurant l’architecture des savoirs, mais aussi tous les domaines de notre existence quotidienne, il est devenu courant d’y voir une révolution dont on peut dire qu’elle a déjà des conséquences qui pourraient être sans commune mesure avec les grandes révolutions techniques qui ont jalonné l’histoire de l’humanité. Pour l’instant, l’on ne peut en prendre l’exacte mesure, d’une part parce que, témoins contemporains, nous manquons de suffisamment de recul historique pour juger, et d’autre part parce qu’elle n’a pas encore fini de dérouler tous ses effets. Mais l’on peut voir déjà de grandes lignes se dessiner, en particulier celles d’une économie nouvelle articulée autour de la découverte d’une nouvelle rareté – l’attention – qui se met en place, et dont on voit déjà qu’elle est en train de reconfigurer nos modes de production, d’échanges et de communication.
Je voudrais faire voir dans ce qui suit que ce qu’il est désormais convenu d’appeler « économie de l’attention » marque une étape nouvelle dans l’évolution du capitalisme, lequel, dans sa frénésie de quête de nouveaux territoires, se tourne désormais vers nos ressources psychiques. Pour cela, je procéderai en un double mouvement : je montrerai d’abord en quoi consiste la radicale nouveauté du numérique, en faisant la généalogie et en faisant voir de quelle histoire et de quelle épistémologie il procède ; ensuite je caractériserai l’économie de l’attention, en montrant en quoi elle constitue une nouvelle phase du développement du capitalisme, ce qui revient à dégager les stratégies par lesquelles elle s’est instituée comme modèle économique, avant de faire voir les dangers potentiels qu’elle implique.
De la grammatisation
Il peut paraître curieux, de prime abord, de voir dans l’usage de l’ordinateur et des usages qui lui sont associés une pratique révolutionnaire qui plus est, impliquerait un nouvel âge du capitalisme[1]. Il devrait pourtant être clair que par définition, l’objet technique, par essence, est pluriel, au sens où, au-delà de sa fonction utilitaire stricte, il se définit aussi par sa capacité à reconfigurer les rapports sociaux et à les redistribuer selon de nouvelles perspectives, ainsi que nous le montrerons plus loin. C’est dans cette perspective qu’il sera possible de faire un sort à l’hypothèse centrale de ce travail, à savoir que le numérique, comme toutes les avancées technologiques majeures, mais peut-être plus que celles qui l’ont devancé, se donne avant tout comme un « constituant anthropologique » au sens où, par l’interaction de la machine et du cerveau qu’il établit, inaugure une nouvelle phase dans le processus d’hominisation. Pour établir cela, nous proposons, à la suite de Bernard Stiegler[2] et Sylvain Auroux, de le définir comme une nouvelle étape dans le processus de grammatisation, du fait de l’intelligence collective extrêmement dynamique qu’il met en œuvre, et dont on voit à quel point elle est en train de transformer complètement la physionomie de la culture contemporaine. Que faut-il entendre par grammatisation ? Pour Sylvain Auroux, la grammatisation est à l’origine de l’invention de l’écriture. Elle se définit comme un processus d’externalisation des contenus mentaux et comportementaux de l’homme, en des unités discrètes étalées dans l’espace[3]. En d’autres termes, il s’agit plus généralement d’un processus par lequel l’on spatialise du mouvement, en isolant ses différentes parties par des procédés techniques de discrétisation, de sorte à le rendre visible et donc reproductible, ce qui le rend plus facilement manipulable puisqu’on l’a ainsi automatisé de fait. Pour le dire d’un mot, la grammatisation est un processus d’externalisation de la vie de l’esprit consistant à matérialiser la pensée, le langage ou des comportements dans des symboles manipulables. Par cette objectivation, il s’agit de construire un objet de connaissance qui, sans cela, ne pourrait exister comme tel. C’est ainsi que Sylvain Auroux démontre que dans la mesure où l’écriture manifeste la langue en la rendant pour ainsi dire visible sur un support matériel, requérant alors le regard et non plus l’audition, elle permet de nous rendre visibles les structures qui l’organisent et qui ne peuvent être perceptibles du seul fait des vertus de la parole orale. C’est cette spatialisation de la langue sur un support matériel que permet l’écriture qui est au principe de l’invention de la grammaire, puisque celle-ci dispose ainsi d’un moyen d’observation des structures de la langue qu’elle se donne dès lors comme objet. Ce que permet l’objectivation, c’est donc la constitution d’un objet de science qui désormais se prête à la pratique de la manipulation. A l’ordre cognitif, qui est celui du sens, vient alors se superposer un ordre matériel qui le reproduit pour ainsi dire, et rend possible la manipulation par des outils techniques.
Or, le numérique est la dernière étape dans ce processus d’externalisation de nos structures cognitives, qu’il clôt aussi d’une certaine manière. Ce qui veut dire que l’on ne peut en saisir toute la portée que si l’on arrive à le situer dans l’histoire des techniques, précisément celle qui va de l’apparition de l’écriture à l’invention des ordinateurs. Pour cette raison, il importera de le définir, dans une première approximation, comme une écriture dont la principale caractéristique est son automaticité. En effet, le numérique est une écriture automatique qui fait appel à de puissants algorithmes et à des ressources computationnelles, une écriture effectuée et transmissible en réseaux, et dont la principale caractéristique consiste à convertir des informations d’un support – texte, audio, vidéo ou image – ou d’un signal électrique en données numériques que des dispositifs informatiques se chargent par la suite de traiter. Ces données se présentent comme une suite de caractères et de chiffres qui représentent ou symbolisent les informations en question. Plus que l’écriture alphabétique, le numérique apparaît ainsi comme une prothèse cognitive et mémorielle aux possibilités de reproduction et de stockage quasi infinies. Au regard des possibilités inouïes en termes de stockage, de reproductibilité et de traitement et d’accès aux données, il inaugure un nouveau paradigme où la totalité des savoirs est en train de se reconfigurer selon des dynamiques qu’il serait fastidieux d’analyser ici.
Poser la question du numérique dans le cadre général de l’histoire des innovations techniques, histoire qui est à la fois celle des différentes grammatisations, c’est faire l’histoire de l’hominisation par laquelle l’humanité se sépare de plus en plus de son origine naturelle par un processus d’artificialisation de sa vie. Ce que cette approche devrait permettre de faire voir, c’est que les grandes ruptures qui ont marqué l’histoire intellectuelle de l’humanité ont été rendues possibles pour une grande part par des innovations techniques. On pourrait dire, pour résumer, que quand l’humanité invente l’écriture, la géométrie apparaît ; quand elle invente l’imprimerie, les sciences expérimentales naissent avec Galilée. Dans les deux cas, ce qui a rendu l’invention possible, c’est le fait que l’esprit humain, déchargé de ses tâches de mémorisation parce que disposant de prothèses pour cela, s’est rendu disponible pour créer une science nouvelle, ce qui, à chaque fois, reconfigure l’économie des savoirs. Aujourd’hui que toutes nos fonctions cognitives ont été complètement externalisées et objectivées dans des machines, on peut penser que notre esprit est à nouveau disponible pour créer du nouveau, ce qui veut dire que nous serions au seuil d’une grande bifurcation qui pourrait désajuster le système technique et les systèmes sociaux[4].
A ce propos, il faudrait prendre au sérieux la thèse de Bertrand Gille[5] selon laquelle toute société est fondée sur un couplage plus ou moins stable entre l’individu, le système socioculturel et le système technique, lequel évolue en permanence, parfois à des rythmes prodigieusement rapides, en procédant souvent par des sauts et des bifurcations inattendus, ce qui produit des désajustements qui peuvent détruire les systèmes sociaux qui évoluent comme chacun sait à des rythmes extrêmement lents. Cela est particulièrement vrai à partir de la révolution industrielle, époque au cours de laquelle l’accélération du rythme des changements techniques prend des proportions jusque-là inconnues. On ne peut cependant prendre toute la mesure de ces désajustements entre systèmes techniques et systèmes sociaux que si l’on se donne les trois moments de l’histoire des techniques que sont le passage de l’oralité à l’écriture qui remonte à 4 000 ans, l’invention de l’imprimerie par Gutenberg à la Renaissance et l’avènement du numérique au XXe siècle. En effet, nous avons là trois révolutions qui ont chacune bouleversé de fond en comble l’économie des savoirs et les modes de transmission culturelle, c'est-à-dire, en un mot, les habitudes de pensée et les manières d’être qui, au fil du temps, se sont codifiées en lois, coutumes et règles par lesquelles les hommes se comprennent eux-mêmes et définissent leur rapport au monde.
Historique
Commençons par le passage de l’oralité à l’écrit. Avant l’apparition de l’écriture, c’est le corps humain lui-même qui sert de support à la pensée. Les fonctions cognitives fondamentales que sont la production, le traitement, le stockage et la transmission de l’information sont exclusivement le fait du cerveau. Dans un tel écosystème, on comprend parfaitement la place tout à fait centrale que doit occuper une fonction aussi stratégique que la mémoire. Le type de cognition qui caractérise cet écosystème est la mémorisation, parce que l’on se soucie plus de conservation que d’innovation. On sait par exemple que quand Albert Le Grand, au Moyen Âge, faisait ses cours de cosmologie et de physique aristotéliciennes à La Sorbonne, ses étudiants ne prenaient pas de notes et se contentaient de l’écouter, car même si l’écriture existait depuis des millénaires, les parchemins étaient encore extrêmement rares. Ils étaient capables de restituer la quasi-totalité de l’enseignement reçu des années plus tard, à la virgule près. Il en est de même pour toutes les sociétés restées traditionnelles, notamment africaines, où le vieillard et le griot sont des personnages emblématiques, précisément du fait qu’ils sont la mémoire vivante de leurs sociétés[6].
En passant à l’écrit, la fonction de mémorisation dévolue au cerveau est externalisée sur un support matériel. Ce n’est plus le cerveau qui stocke l’information, mais la pierre, la peau de bête, le papyrus ou le parchemin. On assiste alors à la première extériorisation sur de la matière inerte, d’une fonction subjective qui jusque-là était dévolue à l’esprit humain. Ce passage du sujet à l’objet est gros de tous les changements qui vont transformer le mode d’être des hommes. Ce qui change, c’est tout ce que l’écriture va permettre comme inventions dérivées, et qui était rigoureusement impensable dans le stade de l’oralité. On peut citer l’apparition de la monnaie chez les Phéniciens, ce qui met fin à l’économie du troc, mais surtout la naissance de la géométrie, science de l’écrit par excellence[7].
Ces inventions, rendues possibles grâce au couplage de l’écrit et d’un support matériel, ont fait faire à l’humanité un bond incroyable en termes de progrès culturel, social et politique. La constante qui se dégage, à la lumière de ces différentes révolutions, c’est que lorsqu’une rupture de cette envergure se produit, elle suscite toujours des résistances. Prenons un dialogue célèbre de Platon, le Phèdre[8]. Alors que l’écriture était inventée depuis longtemps, on discute encore à Athènes de ce que l’on perd et de ce l’on gagne en passant de l’oralité à l’écriture. Socrate y développe la fameuse théorie selon laquelle non seulement l’écrit nous viderait la tête et nous ferait perdre la mémoire, mais qu’en plus elle pourrait saper les fondements de la Cité[9]. Socrate dans ce dialogue assimile l’écrit à un pharmakon, c'est-à-dire, à la fois un remède et un poison, autrement dit à ce qui guérit et qui tue. En d’autres termes, en même temps qu’elle est la raison de la constitution de la Cité, parce qu’elle a produit les savoirs positifs qui la fondent, elle pourrait aussi être ce qui la détruit. Voici les mots que Socrate met dans la bouche du dieu Thamous, qui s’en prend à Theuth, l’inventeur de l’écriture :
En effet, cet art produira l’oubli dans l’âme de ceux qui l’auront appris, parce qu’ils cesseront d’exercer leur mémoire : mettant, en effet, leur confiance dans l’écrit, c’est du dehors, grâce à des empreintes étrangères, et non du dedans, grâce à eux-mêmes, qu’ils feront acte de remémoration ; ce n’est donc pas de la mémoire, mais de la remémoration, que tu as trouvé le remède. Quant à la science, c’en est la semblance que tu procures à tes disciples, non la réalité. Lors donc que, grâce à toi, ils auront entendu parler de beaucoup de choses, sans avoir reçu d’enseignement, ils sembleront avoir beaucoup de science, alors que, dans la plupart des cas, ils n’auront aucune science ; de plus, ils seront insupportables dans leur commerce, parce qu’ils seront devenus des semblants de savants, au lieu d’être des savants[10].
Le paradoxe apparent ici, c’est que l’écriture qui est censée vaincre l’oubli parce qu’elle permet de tout archiver, va produire justement la perte de la mémoire, puisque celle-ci cesse de passer désormais dans l’objet. Il faut toutefois préciser que la mémoire dont parle Socrate, n’est évidemment pas cette mnémotechnique grâce à laquelle les étudiants au Moyen Âge pouvaient restituer leurs cours des années plus tard , mais ce qu’il appelle dans le Phèdre et dans le Menon l’anamnesis, cette capacité à s’approprier un savoir, de sorte à pouvoir le reproduire pour son propre compte, parce qu’on le possède comme s’il était écrit sur son âme, et que, pour cette raison, l’on est en mesure d’en produire la critique[11]. Ce que dit Socrate, c’est que du fait de l’écriture, cette aptitude à reconstituer les circuits du savoir pourrait se perdre, au profit de la simple répétition de ce que l’on ne comprend pas. En un mot, ce qu’il reproche aux sophistes, c’est de développer des techniques de manipulation qui consistent à mettre des stéréotypes dans la tête des Athéniens, par le biais de cette science nouvelle que l’écriture a rendu possible, la rhétorique, au détriment des savoirs positifs qui fondent la Cité. Pour Socrate, la logographie pratiquée par les sophistes revient à court-circuiter la vie de l’esprit telle qu’elle devrait être fondée.
Avec le passage au numérique c’est une vieille utopie qui a longtemps hanté la philosophie, au moins depuis les recherches au Moyen Âge sur la langue parfaite et les moyens de dépasser ce qu’il était alors convenu d’appeler la « malédiction de Babel » qui se réalise. Il s’agissait de trouver une langue universelle univoque, susceptible de dissiper les quiproquos et les malentendus qui faussent l’usage correct des langues naturelles[12]. Mais c’est au XVIIe siècle, avec Leibniz et son projet de formalisation et de mécanisation des opérations de la pensée que ce programme de recherches va s’orienter de façon décisive vers sa phase de réalisation technique. Leibniz part du principe que lorsque nous raisonnons, nous combinons en fait des symboles[13]. Toute pensée peut donc être considérée comme une combinaison de symboles représentant des notions simples. Sur la base de cette conviction, il affirme que si nous pouvions arriver à dresser une table systématique des notions les plus simples et les plus élémentaires qui entrent dans nos pensées, nous pourrions alors concevoir des procédés de calcul permettant de découvrir toutes les combinaisons possibles et non-contradictoires, et donc toutes les pensées possibles. La conviction de Leibniz c’est que la pensée est en réalité un calcul, mais un calcul spontané et inconscient qui, de ce fait, peut être amené à errer, à tâtonner et à se fourvoyer. Il veut en faire un calcul conscient qui soit d’une rigueur parfaite, de sorte que l’on puisse le confier à une machine. C’est le tout premier projet de mécanisation de la pensée qui, en passant par la logique binaire de Boole a abouti à la fabrication des ordinateurs tels que nous les connaissons. Tels qu’ils existent aujourd’hui, les ordinateurs sont des machines de Turing. Le projet de Turing avait consisté à faire reproduire par une machine théorique des calculs mécaniques. C’est de ce projet qu’est née l’informatique et son corollaire, l’Intelligence Artificielle, qui vont donner naissance aux ordinateurs. En 1969 le Pentagone met en place un vaste réseau interconnecté structuré en rhizome, dénommé Advanced Research Project Network (ARPNET) dans le but de rendre plus fluide et plus rapide les communications au sein de l’armée américaine. Ce projet sera absorbé en 1986 par la National Science Foundation. Mais c’est en 1993, lorsque l’invention des protocoles HTTP (Hyper Transfer Protocol) et HTML (Hypertext Markup Language) permettant la création des sites et des adresses électroniques par des chercheurs du CERN est mise dans le domaine public que le réseau Internet est devenu une réalité accessible au grand public[14].
Comme toutes les grandes révolutions techniques qui ont marqué l’histoire des hommes, celle du numérique a soulevé toutes sortes de questions. Nous ne les aborderons pas ici. Nous montrerons cependant qu’avec l’automatisation de la production industrielle, nous entrons de plain-pied dans un nouvel âge du capitalisme ainsi que nous l’avons annoncé plus haut, ce qui pose des questions d’une très grande complexité que les sciences sociales en Afrique n’ont pas encore sérieusement commencé à investiguer. La nouveauté, c’est que les machines remplaceront progressivement les travailleurs dans la quasi-totalité des activités de production, ce que Marx avait prédit en 1857[15]. Il s’agit donc d’une tendance lourde, dans le sens de faire baisser les coûts du travail, et l’on peut présumer que dans un avenir pas très lointain, si les coûts de production des robots baissent – ce qui est inéluctable –, c’est toute la production industrielle qui va s’orienter dans cette direction. C’est dans cette perspective que le journal belge Le Soir du 19 juillet 2014 annonce, sur la base d’études prospectives américaines, que la France, la Belgique, l’Italie, les Etats Unis et la Pologne pourraient perdre entre 40 et 50% de leurs emplois dans les prochaines années. Dans la plupart des économies développées, cette tendance est déjà nettement perceptible. Sur cette question, Bernard Stiegler attire l’attention sur le fait que lorsque Marx parlait du processus de prolétarisation des ouvriers au XIX° siècle, il n’avait pas seulement en vue la paupérisation de ces derniers, mais le fait, plus grave, que les savoirs ancestraux des artisans passent dans les machines qui les captent et les automatisent, pour les reproduire à une échelle industrielle[16]. Certes, de nouveaux types d’emplois seront créés du fait des innovations technologiques elles-mêmes. De la même manière que la nouvelle économie du livre a fait disparaître des métiers et en a généré de nouveaux, de nouveaux métiers apparaîtront du fait du numérique. Mais nul ne sait pour le moment le temps que cela prendra, ni même s’ils pourront résorber le gap des emplois détruits. Conséquence économique immédiate : ce sera peut-être la fin du modèle consumériste fordo-keynésien, tel qu’il a été conçu et fondé sur l’idée que la croissance ne peut que s’appuyer sur la consommation, laquelle doit être soutenue par les gains de productivité distribués sous forme de salaires aux travailleurs. Or, il est clair que s’il y a de moins en moins de travailleurs, il y aura évidemment moins de consommation pour soutenir la croissance, et l’on ne voit pas comment le capitalisme pourrait ne pas s’effondrer dans une crise de surproduction de loin beaucoup plus grave que celle de 1929. Le génie de Henry Ford avait consisté à voir que pour faire face aux effets de la concurrence et relancer la machine de la production, il ne suffisait pas seulement de réorganiser le travail selon les fameux principes tayloriens. Il fallait aussi étendre le marché à tous ceux qui en étaient exclus, en l’occurrence les ouvriers en qui il voyait de potentiels consommateurs. Il fallait que ces derniers fussent suffisamment bien payés pour acheter – à crédit - les voitures qu’ils construisaient eux-mêmes. Ainsi, on arriverait de la sorte à juguler, ou à tout le moins à retarder la fameuse prédiction de Marx de la « baisse tendancielle des taux de profit », dont l’auteur du Capital a brillamment démontré qu’elle est inéluctable, et qu’à terme, elle condamne le capitalisme à une crise systémique dont il ne pourrait se relever. C’est à cette aporie que répond, selon nous, la nécessité de toujours trouver de nouveaux marchés, de coloniser de nouveaux espaces, en l’occurrence ici les espaces mentaux des consommateurs, c’est-à-dire leurs capacités attentionnelles pour que l’infernale dialectique de la production et de la consommation ne s’arrête jamais.
Une nouvelle phase du capitalisme ?
Il faudrait donc savoir lier l’automatisation de la production industrielle avec le développement des techniques modernes de captation et de manipulation de l’attention induites par les nouvelles techniques publicitaires. Le neuromarketing par exemple, cette technique commerciale qui consiste à submerger le consommateur de messages subliminaux, est une première figuration de cette mort annoncée du citoyen, et de son remplacement par le consommateur. En 2004, Patrick Le Lay, alors directeur de TF1 faisait cet aveu qui fit grand bruit : « Dans une perspective ‘’business’’, soyons réalistes : à la base, le métier de TF1, c’est d’aider Coca-Cola par exemple à vendre son produit. Or, pour qu’un message soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c'est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-cola c’est du temps de cerveau disponible »[17]. Cela veut dire que les programmes télé n’ont qu’une seule finalité : conditionner le cerveau du téléspectateur et le préparer à recevoir sans résistance les messages publicitaires. Aujourd’hui Internet va plus loin, et c’est tout l’écosystème des nouveaux écrans qui nous expose à cette publicité ubiquitaire devenue scientifique. Nous pensons que celle-ci détruit les processus traditionnels d’éducation qu’il court-circuite par le biais de techniques très sophistiquées dont le but est de rendre l’attention des citoyens étrangère à elle-même parce que faite marchandise. L’attention, devenue ainsi objet de convoitise, se retrouve au centre d’enjeux d’ordre commercial, politique et éducatif, ce qui témoigne d’une mutation sans précédent du capitalisme. Jusque-là, la rareté ne concernait que la production des ressources matérielles. Tout indique qu’il se serait produit une inversion qui l’aurait déplacée de la production des biens vers des formes nouvelles plus soft,[18] fondées pour une grande part sur la communication.
En effet, la question de savoir à quoi l’on accorde notre attention est devenue un enjeu si crucial que de nombreuses voies en appellent depuis quelques années à un dépassement des catégories héritées de l’économie classique pour penser cette réalité nouvelle que l’on subsume désormais sous le concept d’économie de l’attention. Voici comment Yves Citton résume cette situation :
La nouvelle rareté ne serait plus à situer du côté des biens matériels à produire, mais de l’attention nécessaire à les consommer. Avec cette conséquence pratique quelque peu déroutante, qui prend rapidement la forme d’une prophétie : mon éditeur a profité de votre naïveté et de notre idéologie économiste ancestrale pour vous vendre le livre que vous tenez en mains (ou le fichier numérique qui défile actuellement dans votre tablette de lecture), comme si c’était lui qui disposait de la ressource rare et précieuse (le livre et son contenu) ; en réalité, c’est vous, lecteurs et lectrices, qui tenez désormais le couteau par la manche, sans qu’on ose vous le dire et sans que vous ne vous en soyez encore aperçus, puisque, devant la pléthore d’ouvrages rédigés et diffusés chaque mois, c’est votre attention, celle que vous mobilisez en ce moment pour suivre le déroulement de cette phrase, qui est désormais la ressource la plus rare et la plus ardemment désirée. En toute justice et en toute logique, c’est moi, auteur de ces lignes, qui devrait non seulement vous remercier, mais vous payer pour la grâce que vous me faites de consacrer votre temps si précieux à la lecture de ce livre, plutôt qu’aux millions de textes, de chansons et de films qui vous sont offerts sur internet. D’où la prophétie : d’ici quelques années ou décennies, nous pourrons demander à être payés pour accorder notre attention à un bien culturel, au lieu d’avoir à payer le droit d’y accéder, comme on l’exige encore de nous en cette époque arriérée »[19].
Si nous avons longuement cité ce texte, c’est parce qu’il nous semble caractériser très clairement le paradoxe apparent de cette nouvelle économie dans laquelle la prophétie que fait l’auteur est déjà en voie de réalisation. Comme chacun sait, des moteurs de recherches et des plateformes comme Google et YouTube dépensent chaque année des millions de dollars pour pouvoir offrir gratuitement aux consommateurs toutes sortes de produits culturels (musique, livres, films etc.), en échange de leur seule attention. Parce que l’attention est devenue l’étalon de mesure qui permet d’évaluer la valeur que l’on accorde aux objets (mais aussi aux personnes), elle acquiert le statut de principal paramètre du nouvel ordre marchand. C’est pourquoi Citton peut écrire, quelques lignes plus loin : « si un produit est gratuit, alors le vrai produit, c’est vous ! »[20], autrement dit, l’attention que nous lui consacrons, et que les géants du Net, par le moyen d’algorithmes extrêmement sophistiqués, arrivent à capter pour la revendre aux annonceurs. En d’autres termes, c’est le « temps de cerveau disponible » des téléspectateurs de TF1 que l’on capte pour le revendre à Coca-Cola[21].
Il faut cependant signaler que si le numérique a conféré à l’économie de l’attention une dimension jusque-là insoupçonnée, celle-ci existait pourtant bien avant, au moins à partir des années 1920, avec l’invention de la radio, dans le contexte d’émergence du consumérisme. Il n’était plus alors seulement question de produire, mais surtout de gagner des parts de marché, dans un environnement marqué par une concurrence de plus en plus agressive. Plus que les autres médias, la radio, lieu de naissance de la publicité devenue scientifique, développe par la constitution des audiences de masse, des stratégies de captation de l’attention et de contrôle des comportements jusque-là inconnues, exposant les auditeurs à une sollicitation de plus en plus intense aux messages publicitaires. C’est à partir de ce contexte que les travaux d’Herbert Simon, après ceux, précurseurs de Gabriel Tarde au début du XXe siècle, ont pu jeter les bases de cette discipline. Dans une conférence publiée en 1971, Herbert Simon pose ce qui va être l’axiome de base de l’économie de l’attention en ces termes : « la richesse d’informations entraîne une pénurie d’autre chose, une rareté de ce que l’information consomme. Or ce que l’information consomme est assez évident : elle consomme l’attention de ceux qui la reçoivent »[22].
Mais c’est au milieu des années 1990, à la faveur de l’explosion des technologies du numérique, dont la puissance, infiniment plus grande que celle des médias traditionnels comme la radio et le cinéma, a unifié la planète, que l’économie de l’attention acquiert droit de cité, ce qui témoigne d’une mutation profonde du capitalisme vers une phase postindustrielle essentiellement axée sur la communication et l’information. Or, dans cette nouvelle « écologie de l’attention » où tout est marchandise, la vie culturelle au sens large est nécessairement parasitée par un discours publicitaire ubiquitaire. Ce que nous appelons ici écologie de l’attention renvoie à la façon dont notre environnement matériel actuel, largement déterminé par la publicité et la configuration des nouveaux médias, transforme les conditions d’exercice de l’attention, particulièrement chez les jeunes – mais aussi chez les adultes – dont on déplore de plus en plus les difficultés à se concentrer longuement. En effet, tout semble indiquer que c’est la configuration du médium qu’est Internet qui rend de plus en plus problématique l’éducation à l’attention et son corollaire, l’aptitude à la lecture profonde, ce qui ne va pas sans poser de graves problèmes pour l’école et plus généralement pour les démocraties.
Dans un article particulièrement éclairant, Katherine Hayles a tenté de prendre la mesure de cette situation, en montrant que nous vivons une époque particulièrement cruciale, caractérisée par ce qu’elle appelle une « mutation générationnelle » (generational shift) dans les modes de cognition, entre, d’une part, ceux que l’on désigne souvent comme les digital natives, et d’autre part les adultes dont l’éducation s’était faite par les livres[23]. Pour cet auteur, la rupture générationnelle, qu’il faut situer dans le passage de « l’attention profonde » à « l’hyper attention », se caractérise de la façon suivante : l’attention profonde se définit par la captation de notre intérêt par un seul objet, sur une longue durée, comme la lecture d’un roman ou d’un texte de philosophie, alors que l’hyper attention se caractérise au contraire par la dispersion de l’attention, ce qui se traduit par des fluctuations et des oscillations rapides entre plusieurs activités et plusieurs objets, à l’intérieur de plusieurs flux d’informations hétérogènes[24]. La thèse de Katherine Hayles, c’est que du fait de l’usage généralisé des outils numériques, nous sommes, jeunes comme adultes, en train de passer de l’attention profonde à l’hyper attention. Il importe de prendre la mesure de cette mutation parce qu’il y va de la façon dont le cerveau se laisse déterminer par les artefacts cognitifs qui prolongent notre esprit. Or, comme chacun sait, la caractéristique principale du cerveau est sa capacité à se reconfigurer en fonction des expériences vécues et de l’environnement matériel. Etant donné que les connexions synaptiques s’étoffent et évoluent en fonction de l’environnement matériel, on peut considérer que les enfants éduqués dans des environnements où dominent les outils numériques auront certainement des cerveaux connectés et configurés selon des modalités différentes de celles de leurs aînés (les reading brain) qui ont grandi et atteint la maturité dans des contextes où l’éducation était essentiellement fondée sur le paradigme de la deep attention.
La révolution cognitive dont parle Katherine Hayles est donc à prendre au sérieux d’autant plus que l’apprentissage qui jadis, passait par le livre, et donc par l’isolement et l’effort intellectuel est devenu une expérience visuelle ludique et appauvrie. Pour saisir toute la portée de ce contraste, il faudrait faire voir en quoi le livre a été un opérateur de progrès pour l’humanité. Pour Daniel Bougnoux, cela tient pour l’essentiel à l’austérité typographique du livre, qui contraste point par point avec l’exubérance du discours oral.
Le texte écrit noir sur blanc, avec ses lignes de caractères alphabétiques nettement justifiés, constitue peut-être le procédé le plus sensoriellement pauvre, le plus sévère que les hommes ont imaginé pour représenter le monde ou leur histoire. En ne retenant de la chaîne orale que sa mise en forme alphabétique, le livre élague la riche polyphonie de l’orateur, le théâtre de son corps et la chaleur relationnelle qui l’entoure ; il isole l’émetteur du message, et du même coup intériorise sa conscience en concentrant celle-ci sur le seul contenu de l’ouvrage et sur sa logique, au détriment de toute séduction extérieure[25].
Pour comprendre les ressorts par lesquels cette sévérité typographique du livre va produire la révolution épistémique de la graphosphère (Régis Debray), il faut comparer le texte écrit, comme Bougnoux nous y invite, au discours oral. Il n’est pas difficile de voir alors comment, face à un orateur doué, un tribun, les éléments externes ou les « bruits » qui n’ont cependant rien à voir avec le contenu intrinsèque du message en tant que tel, peuvent fausser et faussent effectivement la communication. Or, ces « bruits » sont nombreux : les mimiques de l’orateur, le timbre de sa voix et ses intonations, la façon dont il est habillé, l’endroit où il se trouve, un amphithéâtre par exemple qui peut ajouter de la solennité au discours, bref, tous ces éléments extérieurs qui n’ont pourtant aucune pertinence en termes stricts de contenu sémantique, agissent sur le destinataire du message et l’inclinent pour ainsi dire à acquiescer à ce qu’on lui dit. Tout cela disparaît dès qu’il s’agit de l’acte solitaire qu’est la lecture d’un livre. En effet, un texte se réduit à peu de choses, de simples signes que l’on décode patiemment. L’intérêt de ce dépouillement du livre qui réduit toute la floraison du discours oral à des signes austères, c’est de faire en sorte qu’il ne puisse délivrer que de la pensée, et rien d’autre qui pourrait offusquer celle-ci d’une façon ou d’une autre. On voit alors dans quelle mesure ce face à face avec le livre permet le développement de l’esprit critique, parce que lire, ce n’est jamais recevoir passivement des contenus de connaissance. Un tel exercice fortifie par conséquent l’autonomie, avec l’acquisition d’un savoir personnel, et développe l’attention et les capacités d’analyse et de synthèse, toutes choses qui constituent les conditions de possibilité de la libération morale et spirituelle de l’individu–citoyen. Bref, ce qui fait la force du livre, c’est que le lecteur n’est pas un consommateur passif, mais un sujet actif qui participe à l’élaboration du savoir au moment où il l’acquiert, ce qui veut dire qu’il se cultive et devient ainsi un sujet autonome capable de s’autodéterminer[26]. La lecture est donc sans doute l’invention culturelle la plus décisive de l’humanité, celle qui montre le mieux à quel point le processus d’hominisation, loin d’être naturel, relève plutôt d’une dynamique continue d’artificialisation de la vie par des moyens techniques. Si l’usage de la parole est en un certain sens inné parce qu’il est un produit de l’évolution, la lecture et l’écriture, acquisitions récentes, sont des inventions purement culturelles qui ne doivent rien à notre constitution naturelle. Le cerveau n’ayant pas eu le temps d’évoluer et d’acquérir naturellement ces compétences, il ne dispose donc pas de neurones naturellement destinés à celles-ci. Ces dernières doivent donc être acquises sur des systèmes du cerveau déjà existants, en particulier les modules visuel et auditif naturellement destinés au départ au traitement des sons et des formes. Cela veut dire que le cerveau a la capacité de recycler les neurones déjà spécialisés en les réorientant vers l’acquisition de nouvelles aptitudes. Cette théorie du « recyclage neuronal » est aujourd’hui largement acceptée par la communauté des biologistes du cerveau[27]. Pour comprendre en quoi consiste cette théorie, il faut voir comment interagissent les modules auditif et visuel pour rendre la lecture possible. Ces deux modules sont des zones de traitement dont la fonction consiste à traiter des informations provenant de sous- modules comme les images et les sons. Mais pour que les connexions nécessaires à la lecture apparaissent, il faut que s’établissent des circuits entre ces modules. Cette caractéristique est un cas assez spécial de ce qu’il est convenu d’appeler la plasticité cérébrale ou neuroplasticité, cette capacité prodigieuse par laquelle le cerveau se rend capable de se modifier et donc de se reconfigurer, ce qui veut dire que le « câblage » des circuits neuronaux, loin de se figer une bonne fois pour toutes dans une forme définitive, comme on l’a cru pendant longtemps, évolue constamment, en fonction des expériences et des apprentissages. En d’autres termes, tout se passe comme si le cerveau était programmé à se déprogrammer, c'est-à-dire à évoluer et à se transformer, non seulement en fonction de l’environnement psycho-social, mais surtout du fait de l’environnement technique. Or, ce que beaucoup de chercheurs en neurosciences soupçonnent aujourd’hui, c’est qu’il se pourrait qu’avec l’avènement du numérique nous assistions à une nouvelle phase de cette plasticité du cerveau, parce que la lecture sur ordinateur n’exciterait pas les mêmes neurones, ni les mêmes zones de notre cortex que la lecture livresque, ce qui laisse présager que nos enfants, ces digital natives dont les cerveaux ont été peut-être modelés à l’image des microprocesseurs seraient peut-être comme l’ébauche d’une nouvelle étape du processus d’hominisation[28].
Conclusion
Si nous avons élargi la focale pour nous aventurer dans des champs disciplinaires très éloignés de l’économie sur la carte des savoirs, c’est que la question de l’économie de l’attention n’est pas exclusivement économique. Par ses ramifications, elle est de fait une question de société qui implique des considérations qui ne peuvent être problématisées que par une approche holistique qui emprunte aussi bien à la philosophie de la technique qu’à la psychologie cognitive, à la pédagogie et à la littérature ainsi qu’à l’histoire des sciences et à la biologie du cerveau.
Que nous soyons au seuil d’une grande bifurcation, ainsi que nous avons tenté de le montrer est assez clair pour qui réfléchit aux conséquences potentiellement désastreuses que peuvent engendrer les techniques de manipulation mises au service de logiques industrielles toujours plus innovantes et toujours plus efficaces. Il faut cependant affirmer avec la plus grande force qu’il ne s’agit pas ici, en attirant l’attention sur les dangers de ces techniques et de la nouvelle économie ainsi induite de sombrer dans on ne sait quelle forme de technophobie. Que la technique soit un pharmakon tout comme l’écriture, c’est-à-dire, à la fois poison et remède, ainsi que nous l’avons signalé plus haut, devrait montrer à suffisance que notre propos est un examen critique au sens strict d’une réflexion qui cherche à faire la part des choses comme on dit familièrement, c’est-à-dire à dégager les enjeux politiques de cette nouvelle donne ainsi que le recommande l’exigence éthique de lucidité théorique.
Que nos ressources psychiques soient devenues par la force des choses le champ de bataille des logiques capitalistes qui se les disputent pour se les soumettre, cela ne peut signifier qu’une chose : nous sommes désormais les objets de convoitise du capitalisme nouveau. Impossible de ne pas (ré)entendre ici les antiques récriminations de Socrate contre les sophistes car, aujourd’hui comme hier, l’enjeu reste le même : quoi écrire sur les âmes ? Une science qui libère les citoyens, ou un savoir qui les manipule ? Nous sommes donc à la croisée des chemins.
Notes
[1] Bernard Stiegler a brillamment mis en lumière les raisons pour lesquelles la technique n’a pas eu jusqu’à présent les faveurs de la philosophie alors qu’elle est constitutive de l’objectivation de la « nature » humaine et pourquoi elle devrait être au cœur de leurs préoccupations. « Nous avons aujourd’hui besoin de comprendre le processus de l’évolution technique parce que nous éprouvons une forte opacité de la technique contemporaine : nous ne comprenons pas immédiatement ce qui s’y joue réellement et s’y transforme en profondeur, alors même que nous avons sans cesse à prendre des décisions, dont nous avons de plus en plus souvent le sentiment que les conséquences nous échappent. Et dans l’actualité technique quotidienne, nous ne pouvons distinguer spontanément des événements spectaculaires mais éphémères, les processus de transformations engagés pour une longue durée. (...) La question se pose de savoir si l’on peut prévoir et s’il est possible d’orienter l’évolution de la technique – c’est-à-dire de la puissance. (…) La confiance qui réglait cette question depuis au moins Descartes n’est plus de mise. Et cela tient aussi à ce que la partition originairement opérée par la philosophie entre tekhnè et épistémè fait problème. » Stiegler, B. (1994). La Technique et le temps I. Galilée.
[2] Stiegler, B. (1994). La technique et le temps I. Galilée.
[3] Auroux, S. (1994). La révolution technologique de la grammatisation. Mardaga.
[4] Voir à ce propos Floridi, L. (2014). The fourth revolution: how the infosphere is reshaping human reality. Oxford University Press. http://nfwopdf.tomtattoo.eu/the-fourth-revolution-how-the-luciano-53107176.pdf
[5] Gille, B. (1978). Histoire des techniques. Techniques et civilisations, techniques et sciences. Gallimard.
[6] Notons à ce propos que si les dialogues de Platon ont cette tonalité orale assez particulière, c’est parce qu’ils sont avant tout des dialogues racontés, que celui-ci reconstitue avec le génie littéraire qui lui est propre. Deux interlocuteurs se rencontrent, et l’un d’eux pose une question à propos de Socrate, des années après sa mort. Quand l’autre répond, il restitue fidèlement une conversation qui a eu lieu des années auparavant.
[7] Quant aux monothéismes issus d’Abraham, ces religions du Dieu unique qui se définissent comme religions du Livre (Ahl al Kitab), ils ne sont rigoureusement pas possibles sans l’écriture. Régis Debray qui situe la médiologie dans la tradition de pensée ouverte par Leroi-Gourhan, écrit que l’apparition du Dieu unique peut être comprise jusqu’à un certain point comme le résultat d’un conditionnement technique qui en a favorisé l’expansion et l’universalité. Ce que l’écriture permet, c’est, de libérer le Divin de son ancrage territorial, c'est-à-dire de son implantation sur un seul lieu. Pour cette raison, l’on peut dire du Dieu des religions révélées, comme l’affirme Régis Debray, que c’est « un Dieu portatif, dans la mesure où il n’est plus, comme dans l’antiquité païenne, inscrit dans des monuments, dans des autels en pierre, il est inscrit en lettres d’alphabet sur du papyrus – plus tard du parchemin. On roule ce papyrus et on part avec, d’autant mieux qu’on a un charriot avec des roues. Donc Dieu = alphabet + invention de la roue. J’admets que la formule est réductrice. Un médiologue étudie les conditionnements techniques de la culture et dans les deux sens : ce que la technique fait à la culture et ce que la culture fait à la technique. D’où le mot de médiation, d’interface, etc. Mais quand vous regardez historiquement la formation de Dieu et l’histoire du Dieu unique, vous butez sur le fait que la culture orale ne peut pas penser le Dieu unique parce qu’elle a du mal à produire de l’universel, elle n’a pas les outils de l’abstraction et Dieu : quoi de plus abstrait ? Les outils de l’abstraction sont la pensée analytique qui est la pensée écrite. Les sociétés orales n’ont pas de Dieu unique ; le Dieu unique est je ne dis pas produit mais en tout cas induit par les sociétés à écriture ». Il est clair qu’il y a quelque chose de péremptoire et d’excessif dans cette affirmation, et le contre-exemple le plus édifiant que l’on pourrait lui opposer est celui de l’écriture idéogrammatique chinoise qui n’a pas produit de monothéisme. On ne peut donc établir une relation de causalité stricte entre écriture et religion monothéiste. Mais il est tout aussi clair que sans les commodités qu’offre l’écriture, et qui sont sans commune mesure avec tout ce que l’on a connu jusque-là, les religions révélées n’auraient pas connu la diffusion qui en ont fait des religions universelles.
[8] On peut penser que c’est dans leur appréciation respective de l’écriture que Socrate et Platon s’opposent. Là où le premier préfère la parole vivante et se méfie de l’écriture qu’il accuse de pétrifier la pensée dans des signes morts, le second, sans doute parce qu’il est mathématicien, fonde une école de philosophie où la géométrie, science de l’écriture par excellence, joue un rôle crucial. Dans le Menon, Socrate n’arrive pas à conduire jusqu’au bout ses démonstrations mathématiques, et se voit obligé, à un moment donné, de tracer des figures sur le sol, comme pour garder en réserve des acquis qu’il aurait perdu sans cela. L’écriture comme support contre l’oubli et comme condition de possibilité de la transmission est la condition de la science.
[9] Dans la perspective ouverte par Leroi-Gourhan, cette perte est plutôt une bonne nouvelle, et doit être interprétée en termes de libération. La perte de la mémoire est une libération de l’esprit de la corvée de la mémorisation, ce qui fait qu’il se rend disponible pour de nouvelles tâches plus hautes et plus intelligentes. Elle se situe dans la lignée des autres pertes, celle de la main pour la locomotion notamment, qui ont produit les aptitudes par lesquelles l’homme s’est constitué comme tel.
[10] Théétète, 434a 435, GF- Flammarion, trad. franç. Luc Brisson, Gallimard. Suivi de Jacques Derrida, La pharmacie de Platon.
[11] On peut penser que si l’anamnèse est chez Platon la capacité à intérioriser et à s’approprier la connaissance, l’hypomnèse, quant à elle, est le support technique, par exemple l’écrit par quoi on l’extériorise, et dont Socrate dit dans le Phèdre qu’elle est la mort du savoir. C’est cette opposition qui structure encore aujourd’hui notre rapport aux technologies du savoir.
[12] Sur la question de ces programmes de recherches tout au long de l’histoire européenne, voir Eco, U. (1994). La recherche de la langue parfaite. Seuil.
[13] Voir Couturat, L. (1901). La logique de Leibniz d’après des documents inédits. Alcan.
[14] Pour de plus amples développements concernant l’histoire d’Internet, Hauben, R. (2003). À la recherche des pères fondateurs d’Internet. Multitudes, 11(1), 193-199. https://doi.org/10.3917/mult.011.0193. http://beq.ebooksgratuits.com/auteurs/Proust/Proust-lecture.pdf
[15]Marx (2011). Manuscrits de 1857 dits « Grundrisse ». Les éditions sociales.
[16]Stiegler, B. (2012). États de choc. Bêtise et savoir au xxie siècle. Fayard/Mille et une nuits.
[17]Télérama, n° 2852 - 9 septembre 2004
[18]Dans son livre remarquable, Jonathan Crary fait état d’expériences insolites en cours aux Etats-Unis sur les possibilités de réduire le besoin de sommeil des consommateurs, en vue de les exposer plus longtemps aux sollicitations de la publicité, d’une part, et de créer un soldat-consommateur qui ne dort presque jamais d’autre part. « Le sommeil est une interruption sans concession du vol de temps que le capitalisme commet à nos dépens. La plupart des nécessités apparemment irréductibles de la vie humaine – la faim, la soif, le désir sexuel et, récemment d’amitié – ont été converties en formes marchandes ou financiarisées. Le sommeil impose l’idée d’un besoin humain et d’un intervalle de temps qui ne peuvent être ni colonisés ni soumis à une opération de profitabilité massive – raison pour laquelle celui-ci demeure une anomalie et un lieu de crise dans la monde actuel », Crary, J. (2014). 24/7. Le capitalisme à l’assaut du sommeil. Éditions Zones, 14.
[19]Citton, Y. (2014). Pour une écologie de l’attention. Seuil, 25-26.
[20]Citton, Y. (2014). Pour une écologie de l’attention. Seuil, 25-26.
[21]Il faut signaler cependant que cette mutation vers l’économie de l’attention n’est pas un basculement total et définitif vers une nouvelle forme d’économie qui abolirait l’économie traditionnelle. Il est clair que la première ne pourrait exister sans la seconde qui lui permet d’ailleurs jusqu’à un certain point d’exister. Il s’agit plutôt d’un élargissement vers un domaine d’activités jusque-là exclu des échanges marchands, ce qui reconfigure complètement la discipline.
[22] Cité par Citton, Y. (2014, p. 21)
[23] « Hyper and deep attention : the generational divide in cognitive modes », article en ligne : http://www.mlajournals.org/doi/abs/10.1632/prof.2007.2007.1.187 . « (...) we are in the midst of a generational shift in cognitive styles that poses challenges to education at all levels, including colleges and universities. The younger the age group, the more pronounced the shift; it is already apparent in present-day college students, but its full effects are likely to be realized only when youngsters who are now twelve years old reach our institutions of higher education. To prepare, we need to become aware of the shift, understand its causes, and think creatively and innovatively about new educational strategies appropriate to the coming changes.”
[24]« Deep attention, the cognitive style traditionally associated with the humanities, is characterized by concentrating on a single object for long periods (say, a novel by Dickens), ignoring outside stimuli while so engaged, preferring a single information stream, and having a high tolerance for long focus times. Hyper attention is characterized by switching focus rapidly among different tasks, preferring multiple information streams, seeking a high level of stimulation, and having a low tolerance for boredom. », « Hyper and deep attention : the generational divide in cognitive modes », article en ligne : http://www.mlajournals.org/doi/abs/10.1632/prof.2007.2007.1.187
[25] Bougnoux, D. (1998). Introduction aux sciences de la communication. La Découverte, 92.
[26] Marcel Proust fait résider le miracle de la lecture dans le fait qu’elle nous donne à penser plus que ce qu’elle nous dit expressément, comme si chaque texte était habité par une ambigüité sémantique constitutive qui l’ouvrait à une pluralité de possibilités interprétatives que son auteur n’était pas en mesure de prévoir: «Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique de esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit. », Sur la lecture : http://beq.ebooksgratuits.com/auteurs/Proust/Proust-lecture.pdf
[27] Voir à ce sujet les travaux de Stanislas Dehaene, en particulier, Le code de la conscience, Odile Jacob, 2014 ; Apprendre à lire, Odile Jacob, 2011
[28] Sur la base de ces considérations, il semble que les natifs du numérique n’auraient pas la même structure cérébrale que les natifs du livre, d’où l’opposition entre « reading brain » et « digital brain ». Voir à ce sujet le magnifique livre de Wolf, M. (2007). Proust and the squid. The story and science of the reading brain. Harper.
Bibliographie
///
Pour citer l'article :
APA
Ndoye, B. (2024). Révolution numérique et économie de l’attention : un nouvel âge du capitalisme ? Global Africa, (8), pp. 48-58. https://doi.org/10.57832/d1s0-bg16
MLA
Ndoye, B. "Révolution numérique et économie de l’attention : un nouvel âge du capitalisme ?". Global Africa, no. 8, 2024, p. 48-58. doi.org/10.57832/d1s0-bg16
DOI
https://doi.org/10.57832/d1s0-bg16
© 2024 by author(s). This work is openly licensed via CC BY-NC 4.0