7 janvier 2013 1 07 /01 /janvier /2013 13:18

Michel Desmurget est docteur en neuropsychologie. A près avoir fréquenté plusieurs universités américaines, il est aujourd’hui directeur de recherche à l’Inserm en neurosciences cognitives.

 

Il s’intéresse particulièrement aux problèmes d’organisation et de plasticité cérébrale. Il est l’auteur d’un premier ouvrage, « Mad in U.S.A. » (éditions Max Milo, 2008), une enquête sur les ravages du « modèle américain », fruit de 8 ans de travail aux Etats-Unis.

  

Voici un colloque riche en humour et très pertinent:

      

 

  Son nouvel ouvrage, « TV lobotomie » (éditions Max Milo, 2011), est un texte qui trouve en partie sa source dans son histoire personnelle. Exaspéré de devoir sans cesse justifier le choix de ne pas avoir de télévision chez lui – et d’empêcher ses enfants d’y accéder, de passer pour un sociopathe aux yeux de son entourage, il a accompli un travail de titan afin d’argumenter le propos.

   

dessins-denfants1-copie-1.jpg

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
18 novembre 2012 7 18 /11 /novembre /2012 14:00

Le danger des écrans 3D !


le danger de la 3D


Alors que la 3D s’installe petit à petit dans notre quotidien à travers le cinéma, la télévision et maintenant les jeux vidéos, une étude met en garde contre l’utilisation de cette technologie qui peut s’avérer dangereuse, spécialement pour les enfants.

 

 Le cinéma 3D a été l’une des découvertes fortes dans l’industrie du 7ème art de ces dernières années. De plus en plus de films, après le succès d’Avatar, sortent maintenant dans des salles de projection 3D. Et après les salles noires, cette technologie s’installe petit à petit dans nos maisons avec les télévisions et les consoles en trois dimensions.

 

Seul problème, notre système de vision n’est pas adapté pour ça. La 3D n’est qu’un moyen de tromper notre cerveau pour lui faire croire à des effets de profondeur qui n’existent pas réellement. Et forcément, quand les premières études commencent à analyser ce problème, les résultats ne sont pas très positifs.

 

C’est Audioholics qui a lancé le premier la mise en garde. A travers une interview de Mark Pesce, chercheur et ingénieur dans les nouvelles technologies, le magazine met à jour différents problèmes liés à l’utilisation généralisées de la 3D.  Mark Pesce a travaillé notamment pour Sega sur le développement de la technologie 3D grâce au casque VR, dans les années 1990.

 

 
Rappelez vous, cela était présenté à l’époque comme le futur des jeux vidéos. On s’imaginait tous mettre un casque sur la tête et gambader gentiment dans un univers 3D virtuel. Mais si cette technologie n’a jamais vu le jour, c’est qu’elle a été jugée comme dangereuse… par les personnes la développant ! Mark Pesce explique qu’il avait mis en garde Sega contre les risques d’utilisation et la compagnie "a eu les résultats du test et les a enterrés" . 

 

Les industries des jeux vidéo semblent donc connaître depuis quelques années les dangers liés à ce genre de technologie. D’après Wayde Robson, cité par Numerama :  « la vérité est que l’exposition prolongée d’un individu devant une image en 3D peut causer davantage de dégâts que ce que veut bien dire l’industrie électronique sur le sujet ». Or, la 3D est de retour mais à la place d’avoir un casque sur la tête, nous portons désormais des lunettes.

 

Pour Mark pesce, « La 3D trompe notre cerveau. Quand vous enlevez les lunettes et que vous vous éloignez de l’écran, vous avez du mal à vous réadapter et pendant un moment, vous n’avez pas une bonne perception de la profondeur. (…) Il faut surtout se préoccuper des enfants. Leur système nerveux est encore en construction, et cela pourrait produire un dégât irréversible ».

 

Le problème pour les enfants réside dans le fait que leur système de vision est encore en cours d’apprentissage. D’après Audioholics «La vision stéréoscopique (…) est généralement considérée comme complète au moment où nous sommes environ six ans. C’est alors que les nerfs et les muscles minuscules derrière l’œil sont entièrement formés et ont appris à travailler de concert avec le cerveau pour répondre automatiquement à des repères visuels qui fournissent la profondeur de la vision parfaite». C’est pourquoi l’utilisation des jeux vidéos ou de la télévision en trois dimensions est d’autant plus dangereuse chez les enfants.

 

Il ne faut pas s’alarmer pour autant. Ce n’est pas en allant une fois par mois au cinéma que vous perdrez la notion de relief dans votre vie de tout les jours. Il reste néanmoins à garder en tête qu’une utilisation régulière et prolongée de cette technologie peut s’avérer problématique. Et nous n’en sommes qu’au premières études sur le sujet… d'autres troubles secondaires sur le cerveau sont à envisager.

 

www.Retoursurlactu.net

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
21 octobre 2012 7 21 /10 /octobre /2012 13:05

Le "devenir algorithmique" désigne le mécanisme inexorable qui est à l’oeuvre conjointement au processus de grammatisation, celui-là même qui nous pousse vers une numérisation de plus en plus importante de notre monde, et de notre pensée...

  

1326035070-algorithme-1-.GIF

- L’algorithme: une définition de la pensée unique ! -
  
L’algorithme, écrit Philippe Flajolet dans l’encyclopédie universalis, est
«un schéma de calcul, sous forme d’une suite d’opérations élémentaires obéissant à un enchaînement déterminé».
 
Parler d’algorithme aujourd’hui, au XXI siècle,  c’est évidemment faire référence à un des derniers visages de la grammatisation et de l’engrammage qu’est la programmation informatique. Pourtant, la programmation n’épuise pas la question de l’algorithme, en ce sens que l’on ne programme que ce qui relève déjà du champ de l’algorithme c'est à dire ce qui a déjà été engrammé par le processus de grammatisation décrit par Sylvain Auroux. La grammatisation appelle l'algorithme et inversement, l'un ne va pas sans l'autre.
  
A ce titre, ce qui relève de l’algorithme est plus vaste que la définition mathématico-informatique qui lui est de nos jours systématiquement accolée. Il y a un devenir algorithmique dans la mesure où celui-ci joue un rôle de plus en plus important et visible dans nos vies et nos cerveaux.
 
Ainsi, le devenir algorithmique s’inscrit jusque dans ces conversations commerciales que l’on nous impose au téléphone avec les télévendeurs ou téléconseillers :
  
« La conversation avec le client doit être rapidement référée à un « script », qui sera ensuite lu mot à mot par l’opérateur. Ce dernier peut-être sanctionné lorsqu’il « sort » du script, ne serait-ce que pour faire une réponse intelligente ou compationnelle à son client. Ainsi, les « amorces », réponses aux questions et autres formules de civilités sont prévues en amont de la conversation. Les phrases sont « déclenchées en fonction de l’attitude du client ou de ses questions. Finalement ces scripts sont des manières de « tayloriser » la conversation : celle-ci est découpée en unités de base et exécutée. » Marie-Anne Dujarier, Le travail du consommateur, Ed. La décourverte, 2008, p.27.
 
Ce devenir algorithmique ne va pas sans poser un certain nombre de questions, notamment lorsqu'il s'agit d'imposer des algorithmes à nos existences : nos organisations du travail, nos modes de consommation, nos systèmes financiers, etc., ne laissant plus de place à l'initiative et à toute forme de motivation...
Effaçant de fait toute possibilité d'individuation psychique et collective, par un processus de reconfiguration synaptique du cortex et de l'agencement des neurones (plasticité cérébrale).

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
6 octobre 2012 6 06 /10 /octobre /2012 17:57

"Une nouvelle étude montre une association entre la consommation de benzodiazépines et la survenue d'une démence chez les plus de 65 ans." 


Shutterstock/Kuzma

 

Il est recommandé de ne pas prolonger un traitement aux benzodiazépines, des molécules prescrites pour traiter l'insomnie et l'anxiété, au-delà de quelques semaines chez les personnes de plus de 65 ans.

 

Le 25 septembre dernier, la Haute autorité de santé a lancé une campagne d’information auprès des professionnels de santé visant à une utilisation raisonnée, chez les personnes âgées, des benzodiazépines, une classe de molécules prescrites contre l’anxiété et les troubles du sommeil. Une nouvelle étude épidémiologique vient renforcer ce message en montrant que parmi les personnes âgées de plus de 65 ans, le risque de développer une démence est supérieur d’environ 50 pour cent chez ceux qui consomment ces molécules.

 

Les benzodiazépines sont largement prescrites en France : près d’un tiers des plus de 65 ans et près de 40 pour cent des plus de 85 ans en consomment de façon régulière. Pourtant, la prise chronique de ces médicaments n’est pas anodine chez les personnes âgées, car elles sont victime de nombreux effets secondaires, du fait de leur résistance moindre et de leur métabolisme plus lent : chutes, troubles cognitifs, psychomoteurs ou du comportement, perte d’autonomie, dépendance, sans oublier les interactions éventuelles avec d’autres médicaments.

 

Depuis une dizaine d’années, en outre, une association possible entre l'usage chronique des benzodiazépines et le développement d’une démence fait débat au sein de la communauté scientifique. Plusieurs études épidémiologiques ont mis en évidence un risque accru de démence chez les consommateurs de benzodiazépines, tandis que d’autres n’observaient pas d’effet significatif, voire un effet protecteur. La présente étude est la première réalisée sur une période supérieure à huit années.

 

Des praticiens hospitaliers, pharmacologues et biologistes de trois unités Inserm et de l’Université de Bordeaux ont analysé un échantillon de 1063 personnes de la cohorte PAQUID, sans symptômes de démence au début du suivi. Depuis 1988, cette cohorte suit une population de 3777 personnes âgées de plus de 65 ans, vivant à domicile en Gironde et en Dordogne. Au sein de l’échantillon, 968 sujets n’ont jamais pris de benzodiazépines, ni avant ni pendant la durée de l’étude, et les 95 autres ont commencé à en prendre entre trois et cinq ans après le début de l’étude. Pendant les 15 ans de l’étude, 253 cas de démence ont été diagnostiqués, dont 30 parmi les consommateurs de benzodiazépines, soit 32 pour cent de cette population, contre 23 pour cent de ceux qui n’en prenaient pas. En outre, la démence se déclarait plus tôt chez les personnes ayant pris des benzodiazépines.

 

Même après la prise en compte des facteurs potentiels de démence tels l’âge, le sexe, le niveau d’études ou des symptômes de dépression, et quelle que soit l’année de début de traitement, les scientifiques ont observé un risque accru de démence chez les personnes qui prenaient des benzodiazépines. Si cette étude ne prouve pas qu’il existe un lien de cause à effet entre le traitement et la survenue de démence, elle incite à la prudence. Dans le doute, il est fortement recommandé de limiter les traitements à quelques semaines.

 

Marie-Neige Cordonnier pour www.cerveauetpsycho.fr

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
28 septembre 2012 5 28 /09 /septembre /2012 10:48

  Seconde partie de notre dossier "apprendre à maitriser le numérique". Après avoir constaté combien la question déclenchait de débats passionnés entre ceux qui viennent de la culture du livre et ceux qui vivent avec la culture du web, il est temps de nous mettre à comprendre l’impact des différences de support sur notre cerveau. Et notamment de nous demander si l’un des deux supports est capable de nous rendre plus intelligents... ou pas.


Le calme est bon pour l’esprit

La couverture de Proust and the Squid de Maryanne Wolf

 

La psychologue et neurologue Maryanne Wolf est la directrice du Centre de recherche pour la lecture et le langage de la Tufts University. Dans Proust and the Squid (Proust et le Calmar, en référence à la façon dont ces animaux développent leurs réseaux de neurones), qu’elle a écrit en 2007, elle explique comment l’espèce humaine a appris à lire et comment la lecture transforme nos fonctions cérébrales de l’enfance à l’âge adulte. “L’acte de lecture n’est pas naturel”, rappelle-t-elle : elle a eu une influence sur l’évolution de nos circuits neuronaux et certaines zones du cerveau se sont spécialisées dans la reconnaissance de caractères et dans la lecture. La lecture est une invention culturelle acquise récemment. “L’efficacité que nous avons développée grâce à la lecture nous a permis d’avoir plus de temps pour réfléchir”, explique-t-elle, en observant, via l’imagerie cérébrale, comment les enfants apprennent à maîtriser de mieux en mieux la lecture. Wolf se réfère à Proust dans Sur la lecture (.pdf) (où Proust définit la lecture comme l’intervention, qui, tout en venant d’un autre, se produit au fond de nous-mêmes, c’est-à-dire l’impulsion d’un autre esprit sur notre solitude) : la lecture nous rend plus intelligents car elle laisse notre cerveau seul avec lui-même, le laissant penser sans être dérangé, contrairement à ce qui arrive lors d’une conversation par exemple.

 

Caleb Crain, dans le long dossier consacré au “Crépuscule des livres” qu’il livre au NewYorker signale une très intéressante étude pour mesurer la différence entre une lecture attentive et silencieuse et une lecture troublée par un commentaire audio. Les résultats de cette étude montraient que ceux qui lisaient silencieusement une présentation PowerPoint la trouvaient généralement plus intéressante que ceux qui devaient lire cette même présentation avec le commentaire audio de l’intervenant. Une autre étude britannique a montré pour sa part que ceux qui lisent en silence ont tendance à mieux se souvenir de ce qu’ils lisent que ceux qui regardent un écran. Les cobayes qui lisaient les transcrits d’informations, de publicités, de programmes politiques ou d’émissions scientifiques en avaient une meilleure mémoire que ceux qui n’avaient fait que les regarder à la télévision.

 

Reste que ces exemples ne permettent pas de différencier l’impact du support sur la lecture. On peut lire (ou écrire) d’une manière calme, sans aucune perturbation extérieure, depuis un clavier et un écran d’ordinateur. Il suffit de se donner quelques règles pour lire ou écrire à l’ère de la distraction permanente, comme le dit Cory Doctorow.

 

Nonobstant, Maryanne Wolf se montre plutôt inquiète pour l’avenir de la lecture. Selon elle, avec le web, son instantanéité et sa surcharge informationnelle, la façon dont nous lisons change profondément : à l’écran, nous ne lisons pas, nous écrémons ! C’est aussi ce qu’affirme le gourou de “l’utilisabilité” Jakob Nielsen, selon lequel le faible temps que nous passons sur la plupart des sites que nous parcourons ne permet pas de les lire en profondeur. Les chercheurs du Centre d’étude sur le comportement vis-à-vis de l’information et l’évaluation de la recherche de l’University College de Londres font également ce même constat en observant les usages de livres au format électronique sur les postes d’accès d’une bibliothèque universitaire. L’étude Superbook, qui a donné naissance à un Observatoire national des usages des livres électroniques en milieu académique, montre ainsi que les lecteurs de livres électroniques ont tendance à piocher des passages dans les livres plutôt que d’en lire l’intégralité. Moins d’un quart de la poignée d’usagers observés aurait lu un chapitre ou plus dans les livres électroniques qu’ils ont consultés. Reste que l’étude (voir la synthèse .pdf) ne compare pas les pratiques papier aux pratiques électroniques. Or, certains usages savants reposent également sur le feuilletage rapide de livres pour y trouver des références. Oui, le livre au format électronique facilite le picorage d’information. C’est même son plus grand atout, nous permettre d’aller plus rapidement aux mots clefs qui nous intéressent… Peut-on le lui reprocher ? Est-ce que ne pas tout lire d’un livre signifie ne pas l’avoir lu ?

 

Pour Maryanne Wolf, la lecture nous a fait le “don du temps”, c’est-à-dire des instants où nos pensées peuvent aller au-delà des mots écrits sur la page pour atteindre de nouveaux niveaux de compréhension. La lecture ne consiste pas seulement à absorber l’information et trouver des réponses toutes prêtes : elle est “pensée en action”. Comme le dit Proust, à nouveau, à propos des livres : “Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit.” Pour Maryanne Wolf, le web risque de nous faire perdre la “dimension associative” de la lecture qui nous permet d’entrevoir de nouveaux horizons intellectuels. Mais la dimension associative de la lecture, qui permet de passer d’une pensée, d’un argument l’autre, n’est-elle pas encore plus facile à l’heure de l’hypertexte, où un simple lien est capable de vous emmener au coeur d’une association ?

 

L’idiotie de nos sociétés n’est pas la faute de la technologie

 

Si le web ne nous rend pas plus intelligents que le papier, peut-être nous rend-il plus bête ? Ce n’est pas l’avis non plus de David Wolman, dans Wired. Selon lui, il faut “rebooter” la critique des opposants à l’internet : l’internet ne nous a pas conduits dans un nouvel âge noir, au contraire ! Et de rapprocher la critique de Nicholas Carr avec celle d’autres Cassandre comme l’écrivain Lee Siegel, qui, dans Against the Machine: Being Human in the Age of the Electronic Mob (Contre les machines : être humain à l’âge des foules électroniques), suggère que le web nous rend narcissiques ; Maggie Jackson qui dans Distracted : The Erosion of Attention and the Coming Dark Age (Distraits : l’érosion de l’attention et l’arrivée de l’âge noir), éreinte notre capacité à être “multitâches” ; Mark Bauerlein et sa Dumbest Generation (c’est-à-dire génération la plus bête) qui s’en prend à la culture jeune.

 

Certes, explique Wolman, le web nous donne un remarquable accès à toutes les idées les plus idiotes en les amplifiant bien souvent. Mais c’est ne pas voir que l’idiotie a toujours existé, quel que soit le support qui la véhicule. “La pensée antirationnelle a gagné une respectabilité sociale aux Etats-Unis lors des cinquante dernières années”, note Susan Jacoby dans The Age of American Unreason (L’âge de la déraison américaine). “Elle a montré sa résistance à la vaste expansion de la connaissance scientifique qui caractérise la même période.” Mais l’irrationalisme de nos sociétés n’est pas la faute de la technologie. Au contraire : “l’explosion de la connaissance représentée par l’internet et encouragée par toutes sortes de technologies numériques nous a rendu plus productifs et nous a offert l’opportunité de devenir plus intelligents, et non plus bêtes.”

 

Le web : plus stimulant que le papier !

 

Le spécialiste de la réalité virtuelle Jaron Lanier est plus critique encore. Le changement technologique serait-il un processus autonome qui dirait que nous prenons une direction indépendamment de ce que nous voulons ? Certaines technologies peuvent effectivement nous rendre stupides (les casinos, les tabloïds, la cocaïne, cite-t-il…) et il y a des technologies numériques qui renforcent les aspects les moins brillants de la nature humaine. “Mais est-ce pour autant que nous n’avons que le choix d’être pour ou contre ?”

 

Pour Kevin Kelly, l’ancien rédacteur en chef de Wired, l’océan de courts textes que le web a générés est dû au fait que nous avons un nouveau véhicule et un nouveau marché pour les échanger. Il en veut pour preuve, le fait que nous n’arrivions pas jusqu’à présent à produire des productions courtes qui soient échangeables et profitables. Contrairement à Nicholas Carr, Kelly n’a pas de doute : le web nous rend plus intelligents. Laissons Google nous rendre plus intelligent, explique-t-il en détail sur son blog.
   

A gauche, l'activité de notre cerveau en train de lire un livre, à droite, l'activité de notre cerveau en train de lire le web

 

Les chercheurs semblent d’ailleurs vouloir lui donner raison : en effet, selon des neuroscientifiques de l’université de Californie, la stimulation cérébrale générée par la consultation de l’internet est plus forte que celle générée par la lecture traditionnelle. Selon les chercheurs du Centre de recherche sur la mémoire et l’âge, la lecture et la recherche sur le web utilisent le même langage, le même mode de lecture et de mémorisation et stimule les mêmes centres d’activité du cerveau. Mais la recherche sur l’internet stimule également des secteurs liés à la prise de décision et au raisonnement complexe.

 

Gary Small, directeur de ce centre, a d’ailleurs depuis écrit un livre intitulé iBrain : Surviving the Technological Alteration of the Modern Mind (iBrain : Survivre aux altérations technologiques de l’esprit moderne), mais qui, selon de nombreux commentateurs, est plutôt une charge à l’encontre des nouvelles technologies regardées essentiellement sous l’angle de l’addiction. Comme on l’a vu avec Maryanne Wolf, les neuroscientifiques ne sont pas à l’abri de faire passer leurs intimes convictions pour des arguments scientifiques. Elle révèle surtout, le plus souvent, comment cette génération issue du livre est mal à l’aise avec les nouveaux outils technologiques pour ne voir l’internet que par ses défauts potentiels.

 

Or cette dernière expérience est également à moduler. Il est évident que l’internet nécessite de prendre sans arrêt des décisions, ce qui n’est pas le cas d’une lecture classique qui ne nécessite pas de choix constants ou complexes. Le fait que la lecture sur le net soit plus stimulante pour le cerveau (parce qu’elle mobilise de la concentration pour activer les liens et nécessite une interaction active) est finalement assez logique. Peut-être que cela favorise également la mémorisation, puisqu’on sait que celle-ci réussit mieux quand le récepteur est actif plutôt que passif… Mais rien ne dit que cette cette surstimulation facilite la compréhension ou l’assimilation des informations qu’on y parcourt. Ou qu’elle favorise la dimension associative censée nous amener à de nouveaux niveaux de conscience.

 

Par sa “complexité”, son hypertextualité qui nécessite de faire des choix constants, la lecture sur l’internet stimule plus certaines zones de notre cerveau que l’austère page blanche d’un livre. Ca ne tranche pas le débat, mais ça le scinde un peu plus en deux : entre ceux qui y voient un danger qui risque de transformer la manière dont notre cerveau raisonne et assimile l’information et ceux qui y voient une preuve de la supériorité du net, qui ouvre de nouvelles perspectives dans ses façons d’impliquer le lecteur dans la lecture.

 

On comprendra qu’il est difficile de savoir qui du papier ou de l’électronique nous rend plus intelligent, comme le concluait Thomas Clabun dans InformationWeek en commentant cette même étude : “”il faudra du temps avant avant que nous sachions s’il faut pleurer nos anciennes façons d’apprendre ou célébrer les nouvelles”. En attendant, on conclura sur le constat que les deux supports stimulent différemment notre intelligence, certainement aussi parce que nos chercheurs ont encore bien du mal à définir ce qu’est l’intelligence ou plutôt ce que sont les différentes formes d’intelligences.

 

Hubert Guillaud pour www.internetactu.net

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
26 août 2012 7 26 /08 /août /2012 09:45

Dans le cadre du dossier "apprendre à maitriser le numérique", il nous a semblé important de vous proposer à la lecture Is Google Making Us Stupid ?, l’article de Nicolas Carr, publié en juin 2008 dans la revue The Atlantic, et dont la traduction, réalisée par Penguin, Olivier et Don Rico, a été postée sur le FramaBlog en décembre. Dans cet article, Nicolas Carr (blog), l’auteur de Big Switch et de Does IT matter ?, que l’on qualifie de Cassandre des nouvelles technologies, parce qu’il a souvent contribué à un discours critique sur leurs "effets neurotoxiques", part d’un constat personnel sur l’impact qu’à l’internet sur sa capacité de concentration, pour nous inviter à réfléchir à l’influence des technologies sur notre manière de penser et de percevoir le monde. Rien de moins !   

 

La couverture d'Atlantic de juillet-août 2008 

“Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ?” Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son “cerveau” électronique. “Dave, mon esprit est en train de disparaître”, dit HAL, désespérément. “Je le sens. Je le sens.”

  

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

   

 

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

  

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. “Le souvenir parfait de la mémoire du silicium”, a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

 

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. “J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres”, écrit-il. “Que s’est-il passé ?” Il essaie de deviner la réponse : “Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ?”

 

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. “J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé”, écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style “staccato”, à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. “Je ne peux plus lire Guerre et Paix, admet-il. “J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine.”

 

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment (.pdf) sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient “une forme d’activité d’écrémage”, sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de “bondir” vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :


“Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de “lecture” apparaissent lorsque les utilisateurs “super-naviguent” horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.”

 

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. “Nous ne sommes pas seulement ce que nous lisons”, dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de Proust et le Calamar : l’histoire et la science du cerveau qui lit. “Nous sommes définis par notre façon de lire.” Wolf s’inquiète que le style de lecture promu par le Net, un style qui place “l’efficacité” et “l’immédiateté” au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de “simples décodeurs de l’information”. Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

 

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

 

En 1882, Friedrich Nietzsche acheta une machine à écrire, une “Malling-Hansen Writing Ball” pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

  

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. “Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage”, lui écrivit cet ami dans une lettre, notant que dans son propre travail ses “pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier”.

 
“Tu as raison”, répondit Nietzsche , “nos outils d’écriture participent à l’éclosion de nos pensées”. Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche “est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique”.

  

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte “est très plastique”. Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. “Le cerveau”, selon Olds, “a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne.”

 

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos “technologies intellectuelles”, les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14e siècle, fournit un exemple frappant. Dans Technique et Civilisation, l’historien et critique culturel Lewis Mumford décrit comment l’horloge “a dissocié le temps des évènements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables”. La “structure abstraite du découpage du temps” est devenue “le point de référence à la fois pour l’action et les pensées”.

 

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul, la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage “reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait.” En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait “comme une horloge”. Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne “comme un ordinateur”. Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

 

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936 (.pdf), le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

 

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

 

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un “avant-goût” des nouvelles du jour, leur évitant la méthode “moins efficace” de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

 

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

 

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un “algorithme”, pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

 

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son “système” comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, La direction des ateliers (le titre original The principles of scientific management pourrait être traduit en français par “Les principes de l’organisation scientifique”), était d’identifier et d’adopter, pour chaque poste, la “meilleure méthode” de travail et ainsi réaliser “la substitution graduelle de la science à la méthode empirique dans les arts mécaniques”. Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. “Dans le passé, l’homme était la priorité”, déclare-t-il, “dans le futur, la priorité, ce sera le système”.

  

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver “LA meilleure méthode”, l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme “le travail de la connaissance”.

 

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est “une entreprise fondée autour de la science de la mesure” et il s’efforce de “tout systématiser” dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

 

Google a déclaré que sa mission était “d’organiser les informations du monde et de les rendre universellement accessibles et utiles”. Cette société essaie de développer “le moteur de recherche parfait”, qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons “accéder” est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

 

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. “Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage”, a déclaré Page lors d’une conférence il y a quelques années. “Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle.” Dans un entretien de 2004 pour Newsweek, Brin affirmait : “Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux.” L’année dernière, Page a dit lors d’une convention de scientifiques que Google “essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle.”

  

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, “pour résoudre les problèmes qui n’ont jamais été résolus auparavant”, et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

 

Pourtant, leur hypothèse simpliste voulant que nous nous “porterions mieux” si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

 

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

 

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, “arrêter de faire travailler leur mémoire et devenir oublieux.” Et puisqu’ils seraient capables de “recevoir une grande quantité d’informations sans instruction appropriée”, ils risquaient de “croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants”. Ils seraient “remplis de l’orgueil de la sagesse au lieu de la sagesse réelle”. Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

 

L’arrivée de l’imprimerie de Gutenberg, au XVe siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes “moins studieux” et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, “la plupart des arguments contre l’imprimerie était corrects et même visionnaires.” Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

 

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

 

Si nous perdons ces endroits calmes ou si nous les remplissons avec du “contenu”, nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

 

“Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et “bâtie telle une cathédrale” de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de “l’instantanément disponible”.”

 

À mesure que nous nous vidons de notre “répertoire interne issu de notre héritage dense”, conclut Foreman, nous risquons de nous transformer en “crêpe humaine”, étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

 

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.


Auteur : Nicolas Carr/journaliste.


Nous vous invitons à réagir à cet article sur le Framablog où la traduction a été originellement publiée. Cet article a été repris par LeMonde.fr.

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
24 août 2012 5 24 /08 /août /2012 10:03

Comment produire des tueurs à la chaine ou des individus prolétarisés ? Réponse avec deux exemples concrets de suggestion mentale :

 

norvège

 

La cour d’assises est assemblée ; une tête d’homme sera jouée dans un instant. L’avocat de la défense déploie manches et effets oratoires. Epuisés, bombardés d’arguments, les jurés écoutent… N’a-t-on pas fait appel à leur raison,  à leur vertu et à leur intégrité d’êtres humains ? Et l’avocat parle, tentant "de persuader" ces juges…

 

Brusquement, le plaideur envisage l’enfance de l’accusé : père ivrogne, mère addicte, disputes familiales, pauvreté, conflits… Et l’avocat crie : « Songez à cette enfance atroce, messieurs les jurés, et acquittez ! ».

 

Un juré a pâli, comme une flèche, cette injonction le touche, non plus dans sa raison, mais en plein centre de son émotion ! Car ce juré se rappelle, lui aussi, son père alcoolique, sa mère absente, sa pauvreté et son enfance malheureuse. Le plaidoyer de l’avocat le pénètre profondément.

 

Les dés sont jetés ! Devant ce juré, « l’avocat a gagné ». Le raisonnement et la persuasion ont cédé le pas à l’émotion. Et l’impulsion (ou la pulsion) qui en découle reste maîtresse du terrain. De ce juré, viendra un acquittement ou une réduction de peine…

 

« Ou la logique et la raison s’affaiblissent, la suggestion émotive remporte la victoire ».

Et cette puissance de la suggestion, les meneurs de foules la connaissent bien !

  

parteitag

    

Leni Riefenstahl, la cinéaste du troisième Reich allemand, mettait savamment en scène les entrées du sinistre Adolf Hitler et les formidables fêtes du Parteitag… Plus ce cent mille hommes, rangés ; des milliers de drapeaux ; les cloches de Nuremberg sonnant ; une arène de pierre et de marbre ; une ouverture prolongée par la grande forêt… Et dans cette ouverture végétale, Hitler qui avance, glorieux et triomphant, sans gardes, tandis que les chants retentissent et qu’au loin, roule le canon…

 

Une scène théâtrale soutenue par une émotion puissante et suggestive à souhait !

Car à ce moment de l’histoire, « un seul ordre suggestif » aurait pu emporter cette marée humaine, alors assoiffée de désir de puissance, comme un torrent !

 

Et les défilés militaires, cadencés, brillants, clinquants ? Cette musique qui sonne, ces timbales qui roulent ? Et qui font penser aux plus antimilitaristes : « ça me fait quelque chose ! » Suggestion émotive, encore et toujours ! 

 

Il y a donc une différence majeure entre « persuasion » et « suggestion ». Dans le premier cas, j’essaierai d’obtenir votre adhésion volontaire et consciente par la raison et les arguments. Dans le deuxième cas, j’emploierai un procédé entièrement différent, en passant outre votre conscience et votre raison…

 

En court-circuitant temporairement les fonctions supérieures du cerveau, l'émotion emboîte alors le pas sur la raison. Ce qui explique certains comportements inhumains produit lors des deux grandes guerres précédentes, ou le "degré zéro de la pensée" produit par les grands meetings politiques !

 

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
8 juin 2012 5 08 /06 /juin /2012 11:37

math.jpg

 

Que se passe-t-il chez un enfant de sept ans qui panique devant une addition ou une soustraction ?

 

Christina Young et ses collègues de l’Université Stanford ont examiné l’activité cérébrale d’enfants âgés de sept à neuf ans devant résoudre des additions et soustractions simples. Ces enfants avaient des quotients intellectuels, des capacités de mémoire et des niveaux d’anxiété générale équivalents. Toutefois, certains réagissaient par une forte angoisse, une baisse des performances et une activité cérébrale particulière.

  

On observe chez eux une activation anormale de l’amygdale de l’hémisphère droit, un centre cérébral suscitant des émotions négatives, et du cortex préfrontal ventromédian, une zone de régulation des émotions négatives. Cela signifie que les enfants éprouvent une angoisse intense face au problème qu’ils ont à résoudre, et qu’ils consacrent une partie importante de leur énergie à la combattre.

 

Chez les enfants sans anxiété mathématique, l’amygdale s’active également (signe d’une implication émotionnelle, voire d’un stress), mais elle est couplée aux régions cérébrales participant à la résolution des problèmes. Le stress les aide à résoudre le problème, et ils ne cherchent pas à le combattre.

 

Le niveau d’activation de l’amygdale chez les élèves angoissés rejoint ceux constatés dans les cas de phobies. Il faudrait donc prendre au sérieux les premiers signes d’anxiété face aux mathématiques et mettre en place des méthodes de remédiation inspirées de celles utilisées pour les phobies.

 

------------------------

 

"La réponse à travers le seul fonctionnement cérébral est une explication très insuffisante, puisque les causes sociétales ne sont absolument pas évoquées. une explication psychanalytique serait une piste à étudier pour améliorer le confort de l'apprentissage des mathématiques pour nos enfants !"

  

www.cerveau&Psycho.fr

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
4 avril 2012 3 04 /04 /avril /2012 11:56

notes-de-musique-copie-2

 

« Cette musique me rappelle le jour où j'ai rencontré ma femme pour la première fois ; c'était pendant la fête du village ; elle a accepté mon invitation à danser. J'étais tellement heureux... » Quels souvenirs la musique est-elle capable de faire resurgir chez les personnes atteintes de la maladie d'Alzheimer ! Un tel souvenir, comparé à ceux que peuvent décrire les mêmes personnes de leur propre initiative, est beaucoup plus chargé émotionnellement et évocateur de leur histoire personnelle. Mohamad El Haj et Philippe Allain, du Laboratoire de psychologie de l'Université d'Angers, ont demandé à des patients de se rappeler divers souvenirs, dans le silence ou pendant qu'était diffusée une musique de leur choix. Ils ont constaté que les souvenirs évoqués étaient plus forts émotionnellement, se rapportaient à des épisodes précis et importants de leur vie, et leur revenaient plus vite en mémoire. La musique serait un bon moyen pour ces malades de rester en contact avec leur passé et de l'évoquer avec des proches.

 

Comment la musique ravive-t-elle les souvenirs autobiographiques ? Les psychologues ont évalué la façon dont les patients mobilisaient certains mécanismes de régulation de l'attention, d'inhibition des pensées non pertinentes ou de flexibilité mentale, pour remonter à leurs souvenirs. Ils ont constaté que ces facultés cognitives (nommées fonctions exécutives) sont davantage sollicitées lorsque le sujet n'écoute pas de musique : le sujet est alors engagé dans une recherche consciente du souvenir, peu efficace chez les personnes atteintes de la maladie d'Alzheimer en raison de l'altération des capacités cognitives. En revanche, la musique fait remonter les souvenirs sans faire intervenir (ou beaucoup moins) ces fonctions exécutives. Dans ce cas, le souvenir resurgit involontairement et emprunte probablement d'autres circuits cérébraux, plus émotionnels. Le souvenir est plus réel, contextualisé, et évoque les phénomènes de « madeleine de Proust », lorsque le passé se présente soudain à nos yeux dans toute sa vivacité.


Sebastien Bohler pour cerveauetpsycho.fr

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
4 avril 2012 3 04 /04 /avril /2012 11:09

Chez les personnes dyslexiques, les hémisphères cérébraux semblent se répartir les tâches de façon inopérante lors de la perception des sons !

  

dyslexie.jpg

 

Que se passe-t-il lorsqu'un enfant présente des troubles de la lecture ? On suspecte depuis plusieurs années que la capacité à analyser les composantes sonores des mots est altérée chez les sujets dyslexiques. Une étude récente de plusieurs équipes de l'Inserm, du cnrs, de l'ehess et de l'École normale supérieure semble confirmer ce modèle.

  

L'étude consiste à observer les oscillations électriques produites par chaque hémisphère cérébral en réponse à des sons de différentes fréquences. Chez les sujets non dyslexiques, le cortex auditif gauche réagit en émettant des oscillations électriques à un rythme de 30 par seconde, ce qui correspond à la fréquence des phonèmes (les plus petits sons audibles, par exemple s et ou dans la syllabe sou). Chez les dyslexiques, cette fréquence est de 50 à 60 hertz, ce qui ne correspond plus au rythme des phonèmes. En outre, le cortex auditif droit émet à 30 hertz.

  

Normalement, lors de la perception du langage, l'hémisphère gauche oscille au rythme des phonèmes (30 hertz) et le droit au rythme des syllabes (5 hertz). Chez les dyslexiques, l'hémisphère gauche ne se synchronise vraisemblablement plus avec le rythme des phonèmes, et oscille à des fréquences beaucoup trop élevées (50 hertz) sans lien avec le langage. En outre, l'analyse des données sonores à cette fréquence sature probablement la mémoire de travail des enfants.

 

La lecture est alors perturbée, car elle suppose de savoir découper mentalement les sons de la parole. Ces anomalies pourraient être d'origine génétique, des études anatomiques ayant révélé des malformations précoces du cortex dit périsylvien dans l'hémisphère gauche, empêchant cet hémisphère de produire les oscillations à la fréquence de 30 hertz. De telles observations pourraient conduire à distinguer plusieurs types de dyslexie, certains sujets présentant un défaut très net de la répartition des tâches entre les hémisphères, et d'autres beaucoup moins.

 

Sébastien Bohler pour cerveauetpsycho.fr

Partager cet article

Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie

Soins conventionnels :

- Etat dépréssif

- Troubles anxieux

- Situations de crise

- Troubles compulsifs

- Hypnothérapie médicale

 

  Nouveau site internet :

  http://www.psychologie-luxeuil-70.com/

Rechercher

Soins spécifiques :

- Souffrances au travail 

- Thérapie de couple ou familiale

- Suivi scolaire et aide à l'orientation 

- Communication et relations publiques

- Facultés attentionnelles et concentration

Université Populaire UPL :

AP_circle_logo.jpeg
              
 
France bleu - Trommenschlager / Neuromarketing
 

Liens

setonly.png     cerveau-et-psycho.jpeg

collège DF   France-Culture

Pages externes