26 janvier 2016 2 26 /01 /janvier /2016 12:10

Avoir mal est une expérience commune à tous, mais qui reste singulière à chacun. Peur, colère, refus, la douleur modifie toute notre relation au monde et aux autres… Elle peut aussi être une source de découverte de soi.

 

- La souffrance fait de nous des êtres que nous ne sommes pas ! -

Il a suffi d’une migraine terrible. « Ça devait être un séjour en amoureux à Venise, se souvient Caroline, 40 ans. Ce fut l’horreur : je ne pouvaisplus parler, ne voulais que le noir et le silence. J’étais annihilée. Plus rien ni personne n’existait, j’étais entièrement envahie par la pulsation de la douleur. » Une réaction que son compagnon n’a pas comprise et qu’il a interprétée comme du non-amour. « Je lui faisais le coup de la migraine ! » Il a fallu du temps pour qu’il réalise… Caroline a fait une découverte ce jourlà : l’immense difficulté de parler de la réalité de sa douleur. Expérience de traverser l’existence sans la moindre migraine ni la plus petite rage de dents ? –, la douleur physique n’en reste pas moins une aff aire singulière, propre à chacun. C’est bien là son principal paradoxe. Comment, dans ces conditions, réussir à en exprimer l’intensité ?

 

La douleur ne se laisse pas attraper facilement. Pulsative, sourde, aiguë, fulgurante, irradiante…, les médecins utilisent un vocabulaire varié pour tenter d’en cerner la nature. Une difficulté telle que la mise au point d’une échelle de quantification de la douleur, de un à dix, utilisée dans les services hospitaliers, a demandé des années de travail pour aboutir à un minimum commun. David Le Breton, sociologue et anthropologue, fait de cette difficulté de communication l’une des clés de voûte de sa réflexion dans son dernier ouvrage. « Même les ressentis peuvent être différents, observe-t-il. La souff rance par rapport à une même cause peut être immense ou dérisoire. » Selon l’âge, les conditions psychologiques, la prise en charge, mais aussi selon la culture. « Déjà dans les années 1960, une étude américaine démontrait qu’Irlandais et Italiens ne souffraient pas de la même manière, rapporte le chercheur. Pour une même cause, en l’occurrence une intervention ophtalmologique, les Italiens avaient tendance à exprimer plus de souffrance que les Irlandais, qui la niaient. » Au-delà des différences culturelles, le ressenti de la douleur n’est pas non plus identique d’un individu à l’autre, ni même d’un sexe à l’autre. « Lors d’expériences où la douleur est provoquée, on s’aperçoit qu’elle apparaît plus rapidement chez la femme, et que celle-ci la tolère moins bien », précise le docteur Alain Serrie, président de la Société française d’étude et de traitement de la douleur. Sans omettre la façon dont ont été accueillis nos maux d’enfant : « C’est rien, serre les dents », ou « Mon pauvre chéri, ça doit faire très mal… »

 

Éloignés les uns des autres

 

Dans ces conditions, rien de surprenant à ce que la douleur, « mal commun » mais pas « en commun », nous isole, nous enferme dans un monde intérieur dans lequel nous n’avons plus accès aux autres, et où les autres ne peuvent plus nous atteindre. Outre le repli sur le soi, la douleur peut engendrer de la colère et de l’agressivité, qui provoquent parfois l’incompréhension et le rejet des proches. Car cette inaccessibilité à l’autre génère à son tour de la souffrance dans l’entourage.

 

Les parents d’enfants malades témoignent aussi de leur incapacité à soulager ou à souffrir avec le petit malade. « À 10 mois, Mathilde a été opérée des intestins, confie Odile, sa maman, 37 ans. Mon impuissance face à sa douleur me déchirait. Elle ne voulait même plus mes bras. » Cette solitude-là nous rappelle que « nous sommes des êtres séparés. La douleur agit comme une coupure entre les êtres », souligne David Le Breton. Et cette coupure est particulièrement insupportable pour les mères, qui doivent abandonner la fusion avec l’enfant… tout en la recherchant comme si elles pouvaient prendre sur elles le mal. « Que l’on me coupe une jambe pour faire cesser sa souffrance ne m’aurait rien coûté ! » jure Odile. « La douleur de l’enfant réactive cette culpabilité fondamentale chez la mère de “jeter son enfant au monde”, selon le mot du philosophe Martin Heidegger », remarque Laure Bertrand, psychologue.

- La souffrance fait de nous des êtres que nous ne sommes pas ! -

Une nouvelle conscience de soi

 

Si la souffrance est solitude, elle est aussi perception aiguë de l’identité : ma souffrance m’indique les limites de mon être. « Partout où j’ai mal, c’est Fritz Zorn. Dans les grandes crises douloureuses, on investit son corps autant que l’on est investi par lui. Martine, 60 ans, en a fait l’expérience lors de son cancer du sein. « Mon corps s’est rappelé cruellement à moi. Je ne pouvais pas ignorer la “bête” qui me mordait sous l’aisselle. Je sentais parfaitement les contours de l’intervention chirurgicale. » Et si, heureusement, la douleur a disparu, la conscience de son corps est demeurée. « J’ai retenu la leçon. Je m’écoute. » Cette présence aiguë à soi-même peut nous ouvrir à une autre dimension de notre être. En nous arrachant à nous-même (le « nous » d’avant la douleur), la souff rance nous livre à une métamorphose, grande ou petite : pour le pire, si elle nous détruit dans une souffrance sans issue ; pour le meilleur, si elle nous fait nous poser des questions. « Elle nous parle de nous, de notre liberté, indique le philosophe Bertrand Vergely. Pourquoi subissons-nous ? Pourquoi ne supportons- nous pas ? Que se passe-t-il dans les profondeurs de notre être pour que nous soyons soudain paralysés ou libérés et plus forts ? »

 

En nous donnant parfois envie de mourir, la souffrance aiguë peut aussi nous faire passer dans le camp de ceux qui connaissent le prix de la vie. Ou, tout simplement, nous faire apprécier les moments sans souffrance, comme dans le cas des douleurs chroniques, de plus en plus présentes dans nos sociétés. Dans des cas moins extrêmes, la douleur peut devenir un défi , puisqu’il faut cohabiter avec elle. « J’aurai toujours mal, note Martine. Mais plus ou moins. Je vis avec. Je m’adapte : je ne porte plus de choses lourdes, j’évite certains gestes. Je suis assez fière d’avoir traversé cela, même si, bien sûr, j’aimerais bien rebasculer dans l’insouciance de mon corps d’avant. »

 

Trouver du sens pour dépasser la douleur

 

Les témoignages de déportés et de torturés le disent tous : selon que la victime accorde ou non une valeur à l’épreuve subie, elle la traversera plus ou moins bien. David Le Breton parle d’un « bouclier du sens ». Cette notion s’applique aussi à la douleur des sportifs de haut niveau, recherchée comme une mesure de l’intensité de l’entraînement, ou encore à la douleur de l’accouchement, intense mais supportée (voire voulue en cas de refus de la péridurale), pour ne pas manquer un instant de l’irruption de la vie. « C’est plus facile si on sait que cela va s’arrêter, mais même dans les cas de mal chronique, on peut parvenir à lui Psychothérapie, yoga, sophrologie, tout peut aider à chercher en soi la manière d’en « faire » quelque chose.

 

Y compris jusqu’aux portes de la mort. « Une patiente m’a dit que la maladie et la douleur avaient “désenfoui des vérités” », relate Laure Bertrand. La douleur modifie la perception que nous avons de nous-même et altère notre relation au monde, mais elle peut également devenir une « force ». À l’instar d’une épreuve, elle peut se traverser. Et ce voyage particulier au centre de nous-même, cette traversée de l’intime nous métamorphose et nous conduit à une connaissance de notre être le plus profond.

 

Christilla Pellé Douel pour psychologies.com

- Schéma global du cerveau et du système nerveux dans la prise en charge de la douleur -

Partager cet article
Published by Cabinet.psy70-Luxeuil.fr - dans Dossier Neurologie
21 septembre 2015 1 21 /09 /septembre /2015 12:13

Comment bien nourrir son cerveau pour bien penser ? Le Dr Jean-Marie Bourre nous révèle comment "doper nos capacités cognitives". Membre de l'Académie de Médecine, ce spécialiste de neurologie et de nutrition explore la chimie qui relie notre intellect à notre assiette dans son ouvrage : Diététique du cerveau : la nouvelle donne.

 

- Neuro-Diététique du cerveau : La nouvelle donne ! -

Le cerveau a t-il des besoins nutritionnels spécifiques, voire indispensables ?

 

Dr. Jean-Marie Bourre : Avant tout, cet organe a besoin d'un juste équilibre en tous les nutriments. Au total, plus de 40 substances lui sont indispensables ! Parmi elles, les acides gras Omega 3 participent à la structure du cerveau, ce qui fait de lui l'organe le plus gras du corps, après le tissu adipeux. Pour bien fonctionner, les neurones ont besoin d'énergie : le glucose est le carburant principal du cerveau. Il provient des glucides qui devraient représenter plus de la moitié de notre apport énergétique quotidien. Pour utiliser ce glucose, la vitamine B1 contenue dans les céréales, légumes frais et secs, et fruits secs joue le rôle de la bougie pour faire fonctionner le moteur. Enfin le cerveau a besoin d'un comburant : l'oxygène. A ce titre, le fer est intimement lié à la capacité intellectuelle car il transporte l'oxygène via l'hémoglobine du sang jusqu'à l'encéphale. Certaines études ont d'ailleurs démontré que le quotient intellectuel des nourrissons dont la mère manquait de fer était plus faible. Ainsi, des aliments comme le boudin noir ou le foie sont à privilégier pour un apport de fer suffisant.

 

Les Omega 3 étant si importants, comment assurer leur apport quotidien pour ne pas risquer de déficience ?

 

Jean-Marie Bourre : En réalité, peu d'aliments contiennent ces acides gras essentiels… Ce qui explique leur apport insuffisant dans l'alimentation des Français : seulement la moitié des 2 g recommandés chaque jour chez l'adulte. Pourtant, il suffit de bien choisir ses produits : 1 cuillère à soupe d'huile de colza dans une salade suffit à couvrir la moitié des besoins quotidiens. De même pour les huiles végétales de noix ou de soja. Pour compléter cet apport, une portion de poissons gras deux fois par semaine, type sardines, maquereaux, harengs ou saumon. Mais attention, pour ce dernier, il existe de grandes disparités entre les espèces sauvages, jusqu'à 40 fois plus riches en Omega 3, et celles d'élevage. Les oeufs de poule sont aussi naturellement riches en Omega 3, à condition que les volatiles aient été bien nourris. Enfin, il existe aujourd'hui des produits enrichis en Omega 3 comme les oeufs, le jambon, le lait, grâce à la présence de ces acides gras dans l'alimentation de base des animaux.

 

 

Quelle alimentation faut-il recommander aux jeunes en phase d'apprentissage pour booster leurs performances intellectuelles ?

 

Jean-Marie Bourre : L'un des principaux dangers réside dans le grignotage : celui-ci provoque une hypoglycémie réactionnelle, c'est-à-dire une chute du taux de sucre dans le sang, et diminue de 30 à 35 % les capacités intellectuelles. Ainsi, en période d'examen par exemple, il est impératif de ne pas se laisser dépasser par le stress et de conserver des repas réguliers et complets. Les protéines en particulier doivent être présentes à chaque repas, car elles interviennent dans l'interconnexion des neurones. En pratique, cela signifie une portion de viande ou poisson au déjeuner et au dîner. Et du lait au petit déjeuner, source de protéines, mais aussi d'eau (pour la réhydratation) et de calcium (pour l'ossification). Par ailleurs, l'activité intellectuelle dépend directement du temps de sommeil et de sa qualité. Il faut donc dormir suffisamment longtemps, et éviter les baisses de glycémie durant la nuit en consommant par exemple quelques pruneaux riches en glucides le soir.

 

Certains aliments sont-ils à privilégier pour éviter ou ralentir la mort des neurones ?

 

Jean-Marie Bourre : L'essentiel pour les neurones, c'est d'être continuellement stimulé par une activité intellectuelle. Mais ils doivent aussi être nourris en permanence ! Un apport énergétique chaotique fragilise les neurones, voire même les détruit. Certaines substances consommées en excès comme les acides gras saturés (présents dans les lipides d'origine animale), s'oxydent et se transforment en radicaux libres, les pires ennemis des neurones. D'où l'intérêt des éléments antioxydants : la vitamine E présente dans les huiles végétales, le ß-carotène contenu dans les carottes, les épinards ou les abricots, la vitamine C des agrumes, et d'autres oligo-éléments comme le sélénium ou le cuivre.

 

... Finalement, bien nourrir son cerveau revient cher ?

 

Jean-Marie Bourre : Non, la santé mentale se réduit à un coût minimal : celui des aliments consommés. En partant des nutriments indispensables contenus dans les aliments et en les classant par ordre de coût, on obtient un résultat inédit et très intéressant. Par exemple, on remarque que les épinards apportent du magnésium et de la vitamine B9 en grandes quantités pour un prix dérisoire. Le magnésium limite la fatigue et contribue à lutter contre l'anxiété, tandis que la vitamine B9 intervient notamment dans la mémorisation. Autre exemple, le zinc des huîtres présente le meilleur rapport qualité /prix : il est 2 fois moins cher que celui des lentilles et 3 à 4 fois moins que celui du bifteck ! Quant aux oeufs, ils apportent pour un coût minimum des protéines de haute qualité, des acides gras essentiels, des vitamines A, B2, B5, B12 en quantités importantes. Au total, la moitié de ce dont l'organisme a besoin chaque jour revient à 3 euros par personne.

 

Caroline Bourganel pour www.doctissimo.fr

Bien manger pour être plus intelligent - futuris - Euronews

Partager cet article
Published by Cabinet.psy70-Luxeuil.fr - dans Dossier Neurologie
19 juin 2014 4 19 /06 /juin /2014 11:21

Télévision, smartphone, ordinateur, tablette : les écrans sont aujourd'hui présents dans toutes les activités, à tous les âges... Ils envahissent considérablement nos vies et modifient la synaptogenèse de nos cerveaux !

 

Selon un sondage IFOP, 75 % des Français pensent que la place prise par les écrans dans leur vie quotidienne nuit à la qualité des relations humaines. Internet, réseaux sociaux, jeux vidéo, les sollicitations ne manquent pas. Et l'école entame elle aussi sa transformation numérique. Comment gérer le temps passé devant les écrans ? Comment apprendre à les utiliser sans en devenir esclaves ? Sur un ton volontairement léger, étayé de témoignages et d'analyses de spécialistes, "ce document se demande si les écrans ne veulent que du bien à leurs utilisateurs, et plus largement à nos neurones".

 

 

 

Enfants mutants ? Révolution numérique et variations de l'enfance fut un colloque de grande envergure où beaucoup de nos formateurs sont intervenus, tels que : Georges Cognet, Yann Leroux, Robert Voyazopoulos, Lise Haddouk, Michaël Stora, Serge Tisseron ou Bernard Stiegler... "Ecran Global" est un documentaire en partie issu des travaux de ce colloque.

 

Penser, savoir, informer, mémoriser, apprendre, enseigner, bouger, être ...

  

La révolution numérique actuelle engendre, à vitesse fulgurante, l’humanité 2.0, dont il est bien difficile de penser en temps réel les trajectoires évolutives.

 

L’humanité semble connaître une métamorphose si exceptionnelle au niveau mondial qu’on la compare déjà, en puissance et en nature, à d’autres périodes historiques de grandes mutations anthropologiques, scientifiques et culturelles (découverte de l’écriture, invention de l’imprimerie, …).


Car chaque individu, chaque citoyen est touché directement, personnellement et immédiatement par cette transformation : nos mémoires s’externalisent et se comptent en Go ; nos fonctions attentionnelles se diluent sur la toile ; les corps s’immobilisent devant les écrans ; les interactions humaines sont rythmées par les clics ; les savoirs et les connaissances changent de statut ; les libertés fondamentales sont interrogées ; les notions de temps et d’espace, les liens, les réseaux, les relations et l’amitié ou même l’attachement, rencontrent dans le monde numérique de nouveaux contours et de nouvelles conditions de développement et d’expression.

 

L’enfant est en première ligne ce qui permet d’étonnantes observations : Alex, 3 ans, ne s’endort plus sans sa tablette ; Léo, 9 ans, refuse tout exercice scolaire hors écran ; Adèle, 13 ans souffre de tendinites aux pouces à force de SMS & tweets à ses centaines « d’amis » ; Max, 16 ans, ne veut plus quitter le monde virtuel - et bien réel - des jeux en réseaux.

 

Que nous apprennent ces premières générations digital native ? Y-a-t-il une mutation cognitive et comportementale de l’enfance ? une métamorphose intellectuelle et affective ? une exceptionnelle évolution épistémologique de l’homme ?

 

S’interroger sur le développement des petits humains dans l’univers numérique et cathodique désormais mondialisé,  sur leurs nouvelles modalités de pensée, sur leur développement et leur fonctionnement cérébraux et leurs éventuelles différences d’avec les cerveaux des générations précédentes relève d’une nécessité urgente : dans quelle société vivront-ils ? Quels sont les enjeux et les besoins psychologiques, pédagogiques et éthiques auxquels nous aurons à répondre demain ?

 

Questions et réponses sur : 

 

Partager cet article
Published by Cabinet.psy70-Luxeuil.fr - dans Dossier Neurologie
9 mars 2014 7 09 /03 /mars /2014 10:47

À la manière d'un Oliver Sacks, le psychiatre canadien Norman Doidge explique de façon limpide et distrayante la plasticité neuronale et l'adaptabilité du cerveau.

 

 

D'intrigantes histoires cliniques servent de point de départ à cette plongée dans les replis du cerveau. Livrant avec beaucoup de clarté les nouvelles connaissances sur les capacités de réorganisation structurale et fonctionnelle du cerveau, Norman Doidge nous ouvre les portes d'un domaine de recherche en perpétuelle évolution, à l'image du cerveau lui-même.

 

Ce documentaire est une adaptation du livre éponyme du même Norman Doidge. Traduit en français en 2008 et publié chez Belfond, cet ouvrage a trôné en tête des ventes au Canada et figuré sur la liste des best-sellers du New York Times. Un regard révolutionnaire (et complémentaire) sur le développement et le potentiel d'adaptation de l'homme.

Partager cet article
Published by Cabinet.psy70-Luxeuil.fr - dans Dossier Neurologie
12 octobre 2013 6 12 /10 /octobre /2013 11:18

La télévision freine le développement de l’enfant, favorise l’obésité, banalise la violence, etc… Voici la vidéo complète de Michel Desmurget concernant les études faites sur le cerveau des enfants:

    

      
Docteur en neurosciences, directeur de recherche à l’Inserm (Institut national de la Santé et de la Recherche médicale), Michel Desmurget est l’auteur de “TV Lobotomie”. Interview:

       tv-lobotomie.jpg  

Qu’est-ce qui vous a incité à écrire ce livre ?


– Un jour, j’ai entendu ma fille chanter, à 30 mois, le jingle de “Maaf” devant le logo de la société ! Je me suis plongé dans la littérature scientifique sur les effets de la télé et ce que j ’ai découvert est encore plus terrifiant que ce que je croyais !

 

Aux Etats-Unis, 40 % des bébés de trois mois regardent la télé ! En France, les 4-10 ans passent deux heures treize par jour devant le petit écran…


– La télé altère l’attention, le sommeil, la créativité… Autant de paramètres essentiels au bon développement de l’enfant ! Quand le poste est allumé, le volume et la qualité des interactions enfants-parents sont considérablement réduits. Selon une étude américaine, un enfant de 4 ans, qui entend, en moyenne, chaque jour, 13 500 mots de ses parents, n’en entend plus que 10 000 si la télé reste allumée quatre heures par jour, soit une chute de 25 % ! Or le nombre de mots entendus et prononcés avant 3 ans est un indicateur majeur des performances linguistiques et cognitives futures. Qui plus est, le langage est un barrage efficace contre la violence… Enfin, selon une étude néozélandaise, chaque heure de télévision par jour, lorsque l’enfant est en primaire, accroît de 43 % la probabilité de le voir quitter l’école sans diplôme.

 

Mais comment savoir si les difficultés scolaires ne sont pas plutôt dues à la situation familiale de l’enfant, par exemple ?


– Bien sûr, tout est lié : on a constaté que plus une mère est déprimée, plus ses enfants sont exposés à des volumes télévisuels importants… Mais les chercheurs ont les moyens d’isoler le facteur télévision. Exemple flagrant, celui des populations qui n’avaient pas accès au petit écran. Aux îles Fidji, avant la télé, il n’y avait pas une seule adolescente au régime. Après, 69% d’entre elles se sont mises à contrôler leur poids et 11 % à se faire vomir.

 

Estimez-vous que la télé est un problème de santé publique ?


– Elle accroît les risques d’obésité, de tabagisme ou de troubles du sommeil… Les dangers sont avérés : on pourrait au moins appliquer un strict principe de précaution ! Seulement l’industrie audiovisuelle, comme celle du tabac en son temps, réfute les preuves…

 

Mais sur le petit écran, il y a aussi d’excellents documentaires ou des séries passionnantes…


– Certainement. Mais attention, quand on allume la télé, bien vite, c’est elle qui choisit pour vous !

 

Baby First et Baby TV, deux chaînes anglo-saxonnes pour tout-petits, sont autorisées à émettre en France depuis 2007, même si le CSA (Conseil supérieur de l’Audiovisuel) recommande d’éviter la télé avant 3 ans.


– On en a beaucoup parlé mais il ne faut pas oublier pour autant de surveiller les antennes jeunesse destinées aux “plus grands”.

 

D’ailleurs, les enfants ne regardent pas que des dessins animés: “Secret Story” a réuni un tiers des 4-1 4 ans.


– 80 % du temps passé devant la télé par les enfants concerne en effet des programmes tous publics.

  

Pour les annonceurs, les plus jeunes sont des cibles privilégiées.


– Le cerveau est une formidable éponge : il est très facile de passer ses barrières conscientes pour mieux le “rapter”. Pourtant, en 2009, nos députés ont rejeté la loi qui visait à interdire les publicités pour les produits gras et sucrés avant les dessins animés ! Veut-on vraiment faire de nos enfants du “temps de cerveau disponible” pour Coca-Cola ?

 

Les parents qui combattent la télé ne sont-ils pas obsédés par la réussite scolaire ?


– Pour ma part, je veux surtout que mes enfants soient heureux et il se trouve que la consommation, sans cesse prônée à la télévision, accroît l’anxiété – cela aussi est démontré ! La culture, au contraire, fait grandir le sentiment de bien-être et donne envie de participer à la vie de la cité. Et puis, tout simplement, avec mon épouse, il nous semble que nos filles ont une vie plus riche depuis que nous n’avons plus la télé : elles dessinent, elles jouent avec leurs amis, elles s’ennuient.

 

Propos recueillis par Marjolaine Jarry-TV Lobotomie, aux éditions Max Milo.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
8 juin 2013 6 08 /06 /juin /2013 11:04

Nos lointains ancêtres reptiles s'émouvaient peu de la douleur de leurs congénères. Pourtant, nous y sommes devenus sensibles : nous partageons naturellement les émotions des autres, une faculté que l'on nomme empathie. Comment l'avons-nous acquise ? 

 

empathie.jpg

 

De quand date le concept d'empathie ?

 

J. Decety : Le mot lui-même date du xixe siècle et nous vient de la philosophie esthétique allemande (c'est une traduction de Einfühlung), en particulier de Robert Vischer. Il désigne alors une forme de compréhension intuitive d'une œuvre d'art. Theodore Lipps en Allemagne, puis Edward Titchener en Angleterre, font ensuite glisser son sens vers la psychologie.

 

Mais la véritable origine du concept, sous-tendue par une vision naturaliste des phénomènes psychologiques, dérive de ce que la philosophie des Lumières écossaise nommait « sympathie ». David Hume, dans son Traité de la nature humaine (1740), et Adam Smith en 1759 décrivent celle-ci comme un moyen naturel de communication, qui nous permet de partager les sentiments des autres lorsque nous les observons, de ressentir leur peine lorsqu'ils souffrent, leur joie lorsqu'ils réussissent. C'est cette définition que retiendront, pour le terme d'empathie, les neurosciences, la psychologie du développement et la psychologie sociale.

 

Les animaux éprouvent-ils aussi de l'empathie ?

 

J. Decety : Oui, et Darwin l'avait d'ailleurs noté, en pointant une certaine continuité entre les animaux et les hommes dans l'expression des émotions et les manifestations d'empathie (qu'il appelait sympathie, comme les philosophes écossais). L'espèce humaine n'est pas la seule à ressentir des émotions, à les communiquer, et à répondre à celles des autres. Cette capacité serait partagée par tous les mammifères.

 

En laboratoire, on utilise beaucoup les rongeurs pour étudier les mécanismes neuro-hormonaux impliqués dans l'empathie. Sue Carter, de l'Université de l'Illinois, s'est focalisée, chez les campagnols, sur l'ocytocine et la vasopressine (des hormones synthétisées dans l'hypothalamus) : depuis plus de 20 ans, elle étudie le codage génétique de ces hormones et leur rôle dans l'attachement entre mâles, femelles et enfants, ainsi que dans les comportements sociaux et agressifs. Dans mon laboratoire, nous soumettons des rats à des situations de stress et de détresse émotionnelle pour comprendre l'influence de leur état physiologique sur la manifestation – ou non – de comportements prosociaux.

 

Si l'empathie ne nous est pas propre, son couplage avec le langage, la mémoire, la conscience et les capacités métacognitives lui confère un rôle particulier dans le cas de notre espèce – pour le meilleur et pour le pire. Chez l'homme, l'empathie est la base sur laquelle se développent les émotions morales comme la culpabilité et le remord. Elle permet également de manipuler ou de torturer autrui.

 

L'empathie est-elle un avantage adaptatif ?

 

J. Decety : Chez l'homme, de nombreuses études en psychologie sociale indiquent que l'empathie favorise les comportements altruistes. Or nous sommes des animaux sociaux, et nous ne pouvons survivre que grâce à nos interactions avec les autres. La capacité de ressentir l'état émotionnel de nos congénères et d'y répondre de manière appropriée nous a alors apporté, ainsi qu'aux mammifères en général, un avantage adaptatif évident pour la survie de l'individu et du groupe.

 

Précisons toutefois qu'à l'origine, notre sociabilisation n'est pas due à l'empathie : la biologie de l'évolution nous enseigne que les comportements altruistes sont apparus avant l'acquisition de cette capacité. De plus, certaines espèces dénuées d'empathie manifestent de tels comportements : c'est le cas des insectes sociaux – comme les abeilles qui, mourant sitôt après avoir piqué leur cible, se sacrifient pour protéger l'essaim – et des oiseaux, qui poussent des cris d'alarme pour alerter leurs congénères d'un danger, ce qui les expose davantage. Le lien entre empathie et altruisme n'est donc pas automatique.

 

Cette faculté est-elle liée aux neurones miroirs ?

 

J. Decety : Les « neurones miroirs », découverts chez le singe, sont des neurones sensorimoteurs qui s'activent de la même façon lorsqu'on réalise une action et lorsqu'on la voit faire. Ils participent activement au codage des actions dirigées vers un but, et en ce sens, ils contribuent à la perception et à la compréhension du comportement des autres. Ils sont alors probablement impliqués dans la construction de représentations communes des actes associés aux émotions (résonance motrice) et peut-être aussi dans la contagion des émotions.

 

Cependant, la vision selon laquelle ils seraient la base neurobiologique de l'empathie est un peu simpliste. Le rôle de ces neurones dans la perception et l'expression des émotions est encore peu évident et les premiers résultats sont à prendre avec prudence.

 

Quelle serait alors la base neurobiologique de l'empathie ?

 

J. Decety : Il n'y a pas une région cérébrale unique. L'empathie est un concept phénoménologique, regroupant plusieurs capacités : partage et compréhension des émotions d'autrui, mais aussi réponse adaptée. C'est donc une véritable symphonie psychique, qui repose sur un ensemble de mécanismes divers, présents dès la naissance.

 

Nos connaissances des bases neurobiologiques de l'empathie proviennent de deux sources d'études : d'une part, l'animal et le sujet volontaire sains et, d'autre part, des patients souffrant de lésions ou de dysfonctionnements neurochimiques associés à des déficits socio-émotionnels. Ces études montrent que l'empathie implique les circuits neurophysiologiques de l'expression des émotions (le cortex somatosensoriel, l'insula, le cortex cingulaire, le cortex préfrontal ventro-médian et l'amygdale), mais aussi le système nerveux autonome (qui régule notamment la respiration et le rythme cardiaque) ainsi que les systèmes hormonaux du cerveau.

 

Des lésions neurologiques peuvent faire disparaître certaines composantes de l'empathie. En associant la zone cérébrale détruite à la faculté disparue, on établit une carte fonctionnelle : les régions sous-corticales et temporales sont ainsi liées à la capacité de ressentir les émotions d'autrui, les régions préfrontales à celle de les comprendre, et les régions orbitaires et cingulaires à celle d'y répondre de manière appropriée.

Différents troubles psychiatriques peuvent aussi « désaccorder » l'empathie. Grâce à la neuro-imagerie, nous avons récemment étudié la réaction à la douleur d'autrui chez les adolescents agressifs et antisociaux, présentant des désordres de conduite, des tendances psychopathiques et un manque d'empathie. Contrairement aux prédictions des travaux comportementaux, ces jeunes activent le même réseau cérébral de perception de la douleur d'autrui que les adolescents « standards ». La différence est qu'au lieu de provoquer une réaction aversive, cette information est associée à une réponse dans l'amygdale et le striatum ventral, impliqués dans le plaisir et la récompense.

 

Quand ces structures sont-elles apparues chez l'homme ?

 

J. Decety : Les reptiles ne possèdent pas les substrats neurobiologiques nécessaires à l'empathie, qui sont donc apparus chez les mammifères après la séparation de ces deux familles il y a 200 millions d'années. Parmi les animaux doués d'empathie, l'homme a en propre une capacité à prendre conscience de ses émotions, de ses sentiments et de ses rapports aux autres, et à réguler volontairement ces aspects subjectifs. Cette capacité serait liée à l'important développement de notre cortex préfrontal depuis les débuts du Pléistocène, il y a environ deux millions d'années.

 

Attention cependant à ne pas réduire aux dernières couches cérébrales nos émotions sociales les plus récentes, car les circuits neuronaux qui en sont responsables opèrent en interaction avec les niveaux ancestraux. Certains mécanismes impliqués dans l'empathie sont accessibles à la conscience, tandis que d'autres, les plus anciens, ne le sont pas. L'évolution a construit des couches de complexité croissante, qui doivent être prises en considération pour une compréhension complète de la nature humaine.n

d'empathie ?

 

J. Decety : Le mot lui-même date du xixe siècle et nous vient de la philosophie esthétique allemande (c'est une traduction de Einfühlung), en particulier de Robert Vischer. Il désigne alors une forme de compréhension intuitive d'une œuvre d'art. Theodore Lipps en Allemagne, puis Edward Titchener en Angleterre, font ensuite glisser son sens vers la psychologie.

 

Mais la véritable origine du concept, sous-tendue par une vision naturaliste des phénomènes psychologiques, dérive de ce que la philosophie des Lumières écossaise nommait « sympathie ». David Hume, dans son Traité de la nature humaine (1740), et Adam Smith en 1759 décrivent celle-ci comme un moyen naturel de communication, qui nous permet de partager les sentiments des autres lorsque nous les observons, de ressentir leur peine lorsqu'ils souffrent, leur joie lorsqu'ils réussissent. C'est cette définition que retiendront, pour le terme d'empathie, les neurosciences, la psychologie du développement et la psychologie sociale.

 

Les animaux éprouvent-ils aussi de l'empathie ?

 

J. Decety : Oui, et Darwin l'avait d'ailleurs noté, en pointant une certaine continuité entre les animaux et les hommes dans l'expression des émotions et les manifestations d'empathie (qu'il appelait sympathie, comme les philosophes écossais). L'espèce humaine n'est pas la seule à ressentir des émotions, à les communiquer, et à répondre à celles des autres. Cette capacité serait partagée par tous les mammifères.

 

En laboratoire, on utilise beaucoup les rongeurs pour étudier les mécanismes neuro-hormonaux impliqués dans l'empathie. Sue Carter, de l'Université de l'Illinois, s'est focalisée, chez les campagnols, sur l'ocytocine et la vasopressine (des hormones synthétisées dans l'hypothalamus) : depuis plus de 20 ans, elle étudie le codage génétique de ces hormones et leur rôle dans l'attachement entre mâles, femelles et enfants, ainsi que dans les comportements sociaux et agressifs. Dans mon laboratoire, nous soumettons des rats à des situations de stress et de détresse émotionnelle pour comprendre l'influence de leur état physiologique sur la manifestation – ou non – de comportements prosociaux.

 

Si l'empathie ne nous est pas propre, son couplage avec le langage, la mémoire, la conscience et les capacités métacognitives lui confère un rôle particulier dans le cas de notre espèce – pour le meilleur et pour le pire. Chez l'homme, l'empathie est la base sur laquelle se développent les émotions morales comme la culpabilité et le remord. Elle permet également de manipuler ou de torturer autrui.

 

L'empathie est-elle un avantage adaptatif ?

 

J. Decety : Chez l'homme, de nombreuses études en psychologie sociale indiquent que l'empathie favorise les comportements altruistes. Or nous sommes des animaux sociaux, et nous ne pouvons survivre que grâce à nos interactions avec les autres. La capacité de ressentir l'état émotionnel de nos congénères et d'y répondre de manière appropriée nous a alors apporté, ainsi qu'aux mammifères en général, un avantage adaptatif évident pour la survie de l'individu et du groupe.

 

Précisons toutefois qu'à l'origine, notre sociabilisation n'est pas due à l'empathie : la biologie de l'évolution nous enseigne que les comportements altruistes sont apparus avant l'acquisition de cette capacité. De plus, certaines espèces dénuées d'empathie manifestent de tels comportements : c'est le cas des insectes sociaux – comme les abeilles qui, mourant sitôt après avoir piqué leur cible, se sacrifient pour protéger l'essaim – et des oiseaux, qui poussent des cris d'alarme pour alerter leurs congénères d'un danger, ce qui les expose davantage. Le lien entre empathie et altruisme n'est donc pas automatique.

 

Cette faculté est-elle liée aux neurones miroirs ?

 

J. Decety : Les « neurones miroirs », découverts chez le singe, sont des neurones sensorimoteurs qui s'activent de la même façon lorsqu'on réalise une action et lorsqu'on la voit faire. Ils participent activement au codage des actions dirigées vers un but, et en ce sens, ils contribuent à la perception et à la compréhension du comportement des autres. Ils sont alors probablement impliqués dans la construction de représentations communes des actes associés aux émotions (résonance motrice) et peut-être aussi dans la contagion des émotions.

 

Cependant, la vision selon laquelle ils seraient la base neurobiologique de l'empathie est un peu simpliste. Le rôle de ces neurones dans la perception et l'expression des émotions est encore peu évident et les premiers résultats sont à prendre avec prudence.

 

Quelle serait alors la base neurobiologique de l'empathie ?

 

J. Decety : Il n'y a pas une région cérébrale unique. L'empathie est un concept phénoménologique, regroupant plusieurs capacités : partage et compréhension des émotions d'autrui, mais aussi réponse adaptée. C'est donc une véritable symphonie psychique, qui repose sur un ensemble de mécanismes divers, présents dès la naissance.

 

Nos connaissances des bases neurobiologiques de l'empathie proviennent de deux sources d'études : d'une part, l'animal et le sujet volontaire sains et, d'autre part, des patients souffrant de lésions ou de dysfonctionnements neurochimiques associés à des déficits socio-émotionnels. Ces études montrent que l'empathie implique les circuits neurophysiologiques de l'expression des émotions (le cortex somatosensoriel, l'insula, le cortex cingulaire, le cortex préfrontal ventro-médian et l'amygdale), mais aussi le système nerveux autonome (qui régule notamment la respiration et le rythme cardiaque) ainsi que les systèmes hormonaux du cerveau.

 

Des lésions neurologiques peuvent faire disparaître certaines composantes de l'empathie. En associant la zone cérébrale détruite à la faculté disparue, on établit une carte fonctionnelle : les régions sous-corticales et temporales sont ainsi liées à la capacité de ressentir les émotions d'autrui, les régions préfrontales à celle de les comprendre, et les régions orbitaires et cingulaires à celle d'y répondre de manière appropriée.

Différents troubles psychiatriques peuvent aussi « désaccorder » l'empathie. Grâce à la neuro-imagerie, nous avons récemment étudié la réaction à la douleur d'autrui chez les adolescents agressifs et antisociaux, présentant des désordres de conduite, des tendances psychopathiques et un manque d'empathie.

 

Contrairement aux prédictions des travaux comportementaux, ces jeunes activent le même réseau cérébral de perception de la douleur d'autrui que les adolescents « standards ». La différence est qu'au lieu de provoquer une réaction aversive, cette information est associée à une réponse dans l'amygdale et le striatum ventral, impliqués dans le plaisir et la récompense.

 

Quand ces structures sont-elles apparues chez l'homme ?

 

J. Decety : Les reptiles ne possèdent pas les substrats neurobiologiques nécessaires à l'empathie, qui sont donc apparus chez les mammifères après la séparation de ces deux familles il y a 200 millions d'années. Parmi les animaux doués d'empathie, l'homme a en propre une capacité à prendre conscience de ses émotions, de ses sentiments et de ses rapports aux autres, et à réguler volontairement ces aspects subjectifs. Cette capacité serait liée à l'important développement de notre cortex préfrontal depuis les débuts du Pléistocène, il y a environ deux millions d'années.

 

Attention cependant à ne pas réduire aux dernières couches cérébrales nos émotions sociales les plus récentes, car les circuits neuronaux qui en sont responsables opèrent en interaction avec les niveaux ancestraux. Certains mécanismes impliqués dans l'empathie sont accessibles à la conscience, tandis que d'autres, les plus anciens, ne le sont pas. L'évolution a construit des couches de complexité croissante, qui doivent être prises en considération pour une compréhension complète de la nature humaine.

 

 Entretien avec Jean Decety, professeur de psychologie et de psychiatrie. Propos recueillis par Guillaume Jacquemont.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
26 mai 2013 7 26 /05 /mai /2013 11:49

Lecture numérique: recension détaillée par Alain Giffard

 

ipad-lecture-numerique.jpg

 

Paru en 2009 dans la revue Atlantic Monthly, l’article de Nicholas Carr, « Is Google making us stupid ?  1 », connut un vif succès, significatif du nouvel esprit de dissensus qui caractérise les affaires numériques. C’est probablement dans les pays de langue allemande que le débat est le plus vif, notamment autour de l’ouvrage de Susanne Gaschke sur « l’abrutissement numérique  2 ». Bien au-delà des critiques habituels du numérique, le débat a vu s’engager les activistes les plus connus de l’internet, comme Geert Lovink, avec le colloque « Society of query  3 », ou Ippolita  4. Au sein de la communauté scientifique, le symposium 2010 de la fondation Nobel, « Going Digital  5 », a été largement centré sur ce débat.


Un an plus tard, Nicholas Carr publiait, sous le titre The Shallows : What the Internet is Doing to Our Brains  6, l’enquête et la démonstration qui sous-tendent l’article d’Atlantic Monthly. La première partie du titre est peu explicite pour le public français. The Shallows signifie les eaux peu profondes, les bas-fonds ; l’image renvoie à la superficialité et à la dangerosité. Si le mot est fréquemment employé pour évoquer une certaine tournure d’esprit, précisément superficielle, il ne sert pas – à la différence de nos « bas-fonds » – dans le registre social.

La question de la lecture

L’entrée de Nicholas Carr – selon moi, le principal mérite de l’ouvrage –est la question de la lecture. Cette approche rompt avec la vision habituelle, centrée sur la « recherche » et « l’accès à l’information », pour s’attacher à la lecture elle-même, c’est-à-dire la première activité culturelle numérique. Il s’interroge donc sur le devenir de la lecture, à partir de l’examen de la forme la plus courante de lecture numérique, la lecture du web.


D’emblée, l’auteur associe lecture et réflexion, à partir de son expérience personnelle. Loin de constater qu’il lirait de moins en moins – au contraire, il ne cesse de lire du courrier électronique, des pages de moteur de recherche, des blogs, des sites d’information – il a le sentiment qu’au cours de cette lecture, « son cerveau est en train de changer ». « Je ne réfléchis plus de la même manière qu’avant. Et c’est lorsque je suis en train de lire que je ressens le plus profondément ce changement  7. » Il en arrive aussitôt à la constatation principale: « La lecture approfondie qui s’effectuait naturellement est devenue un combat. » Au fond, The Shallows n’est rien d’autre qu’une enquête sur les transformations que subit cette association lecture-réflexion sous l’effet du numérique.

L’analyse de Carr, qui s’appuie sur les travaux déjà nombreux de psychologues et de cogniticiens, repose sur la notion de surcharge cognitive.


Par surcharge cognitive, on entend l’afflux, dans la réalisation d’une tâche donnée, d’un trop grand nombre d’informations qui ne peuvent pas ne pas être prises en compte, bien qu’elles ne concernent pas exclusivement et centralement la tâche en cours. Typiquement, ces informations se manifestent comme des questions ouvrant sur de possibles opérations, auxquelles il faut nécessairement répondre, ne serait-ce que négativement pour écarter l’opération. Bref, leur présence handicape la réalisation de la tâche concernée.


Or, le médium numérique présente toutes sortes de caractéristiques qui suscitent une telle surcharge cognitive: la mauvaise visibilité du texte sur l’écran, la faible qualité de la typographie et de la mise en page(s), la nécessité d’interpréter les liens hypertextuels, la difficulté à intégrer les différentes opérations de lecture.


The Shallows met l’accent sur deux grandes causes de surcharge cognitive. La nécessité de résoudre des problèmes extérieurs à la lecture du texte est bien illustrée par les liens hypertextuels, qui doivent obligatoirement être évalués a priori par le lecteur, quelle que soit sa décision de les activer ou non. On saisit d’ailleurs ici la différence fondamentale avec l’hypertexte classique, qui peut poser des difficultés de visibilité d’ordre typographique, mais qui, ayant été produit par le lecteur, ne peut susciter les mêmes problèmes de lisibilité. La deuxième cause de surcharge cognitive est la division de l’attention, caractéristique quant à elle du multimédia, du multitâche et de la très grande fréquence des interruptions.

La surcharge cognitive

Si l’on accorde la place nécessaire non seulement au bon succès de la lecture soutenue – c’est-à-dire à la solidité du fil de lecture – mais aussi à la qualité de la combinaison lecture-réflexion, comprenant par exemple la possibilité de quitter aussi fréquemment et longuement qu’il est nécessaire la ligne, la page, le texte, il faut reconnaître que la comparaison entre le numérique et le livre tourne nettement à l’avantage de ce dernier.


Car le livre tel que nous le connaissons – le codex imprimé –, s’il se révèle extrêmement performant comme support de la lecture continue, sait aussi se faire discret au moment où le lecteur détourne son regard pour réfléchir, comme il peut facilement être retrouvé, plus tard, pour une reprise de la lecture. Le livre est un médium stable. Ce n’est pas sans raison que la lecture soutenue et approfondie, la lecture d’étude, la lecture associée à la mémoire et à la méditation, la lecture comme technique de soi, ont pu se mettre en place autour et à partir du codex manuscrit puis imprimé.


La conception que propose Carr de la surcharge cognitive est subtile, presque intrigante. Il ne se contente pas de poser que le zapping numérique – qui n’est pas l’hypertexte authentique mais son contraire –, nuisant à la concentration du lecteur, transforme en combat la lecture approfondie. Il met en scène une sorte de zapping intérieur, une projection vers les bifurcations médiatiques à venir, en somme une certaine concentration orientée médium qui concurrence et évince la concentration orientée texte. On sait de l’hyper-attention qu’elle n’est pas une attention surdéveloppée, mais au contraire une forme d’attention qui nécessite d’être en permanence relancée, stimulée par l’extérieur. L’hyper-attention de Carr n’est pas une sortie de la lecture pour aller ailleurs ; elle est un abandon au flux des relances médiatiques, au détriment de la lecture soutenue du texte et de ses propres relances (argumentation, récit, style, etc.). L’analyse de Carr est ingénieuse, car elle conjoint la crise de la lecture approfondie classique et l’apparition d’un savoir-faire médiatique empirique, le deuxième se développant au détriment de la première. Il cite les vers de T.S. Eliot dans « Les quatre quatuors  8 », « Sur les visages tendus harassés par le temps/Distraits de la distraction par la distraction », et nous suggère ainsi que la distraction n'est pas une simple dé-concentration, mais plutôt la subordination, parfois affairée et volontaire, à une autre forme de concentration, extérieure aux nécessités de la lecture.


Une autre originalité de Carr est d’avoir soustrait la réflexion sur l’attention au seul cas des générations de « natifs du numérique ». Si la critique de la lecture numérique doit être menée d’abord du point de vue des enfants et des jeunes, qui connaissent pour la première fois une expérience de lecture non transmise par l’école, différente et concurrente de la lecture classique, l’intégration de la pratique de lecture numérique à la vie intellectuelle de tous, y compris des publics les plus lettrés, est évidemment une question capitale. La réponse de Carr est radicale: le passage d’un type de lecture à un autre n’est pas anodin ; l’une semble exclure l’autre. L’essentiel de sa démonstration repose sur la théorie de la plasticité du cerveau: les deux lectures correspondent à deux modèles différents de circuit neuronal, il y a donc concurrence entre deux types d’habitude. En se livrant sans retenue à la lecture numérique, Carr aura perdu la « force de l’habitude » de la lecture classique.


Il faut rappeler ici que l’association lecture–réflexion est tout sauf naturelle ; c’est, au contraire, une construction historique et culturelle. Imaginée d’abord par Augustin, comme association de la lectio et de la meditatio, elle a été systématisée au XIIesiècle par Hugues de Saint-Victor. Elle chemine, comme technique de soi et objet de transmission, dans la lecture divine et la lecture spirituelle ; elle s’intègre à la méthode de lecture littéraire mise au point par Batteux au XVIIIesiècle, jusqu’à devenir, couplée à l’écriture, la discipline initiale de l’école publique. L’introduction que donne Proust au livre de Ruskin Sésame et les Lys  9 relève directement de cette tradition. La lecture par elle-même, nous dit Proust, n’ouvre pas sur la vie de l’esprit ; elle n’est qu’une activité de préparation à la méditation. Or, cette capacité d’associer lecture et réflexion, l’une préparant l’autre, suppose que la lecture soit pratiquée comme un exercice intellectuel, voire, comme le dit Peter Sloterdijk  10, comme un entraînement. C’est par la répétition, l’exercice régulier, que cette forme de lecture, comme toute activité mentale, peut tirer parti de la plasticité du cerveau. La théorie de la plasticité, parce qu’elle souligne le caractère profondément différent, sur le plan cognitif, des deux lectures, indique bien le risque encouru à délaisser l’exercice de lecture classique, soutenue et approfondie, à partir du livre imprimé. C’est d’ailleurs le sens de l’expérience personnelle de Carr. En revanche, on ne voit pas qu’elle démontrerait l’impossibilité de concevoir et de combiner deux types d’exercice, et donc de pratiquer, mais consciemment et sans s’abandonner à un comportement de consommateur, les deux lectures.

Une vision déterministe de la technique

Évoquons enfin une autre orientation de Carr et ce qu’il faut bien appeler sa vision déterministe de la technique. L’auteur semble prisonnier de l’hypothèse fameuse de McLuhan selon laquelle le médium définit le message. D’une part, il n’envisage pas la possibilité que le lecteur, par un régime d’exercices appropriés, puisse conquérir son autonomie par rapport au dispositif technique, voire le détourner. Le formatage de la lecture par l’internet est la logique qui s’impose à l’exclusion de toute autre. D’autre part, il semble écarter l’hypothèse que le médium numérique – l’internet, le web – puisse être autre chose que ce qu’il est, et donc présenter une autre technologie, un autre environnement de lecture. À cet égard, le remplacement de Google par internet, dans le passage de l’article au livre, me semble introduire une certaine confusion. Nicholas Carr rappelle clairement la relation étroite entre la spécialisation industrielle de Google dans la « science de la mesure » d’audience, concrètement dans la mesure du lectorat, et son modèle d’affaire « bi-faces » consistant à revendre au marketing la connaissance acquise du lectorat et de ses pratiques. Pour autant que la technique détermine la pratique culturelle, elle est d’abord elle-même déterminée par l’industrie. La conséquence logique devrait être qu’une autre orientation industrielle pourrait permettre une autre technologie de lecture numérique.


Pour rendre compte de cette situation, j’ai proposé la notion de « lectures industrielles  11 ». Les industries de lecture se situent au croisement des industries de l’information, des industries culturelles et du marketing. Elles produisent des moyens de lecture (matériels, logiciels, textes numérisés), des « actes de lecture automatisés » comme le résultat des requêtes, et surtout elles commercialisent les lectures et les lecteurs. Elles sont la forme la plus aboutie de l’économie de l’accès et de l’économie de l’attention. Elles ont entraîné une série de modifications considérables dans les pratiques de lecture: la robotisation de la lecture et sa confusion inextricable avec la lecture humaine ; une lecture qui n’est jamais totalement privée mais se déroule dans un espace public commercial ; des opérations de lecture qui doivent être mesurées, et comptabilisées comme autant de « hits », cependant que les lecteurs, par exemple pour alimenter les fonctionnalités de « conseil de lecture », sont automatiquement profilés. La lecture numérique concrétise une sorte de devenir industriel de la lecture. Ce n’est pas l’internet par lui-même, mais bien cette orientation industrielle qui cantonne la lecture à une activité de communication, et nuit à l’association de la lecture et de la réflexion. La technologie de lecture numérique pourrait être autre chose que ce qu’elle est, comme son histoire le démontre. Les premières tentatives, de Vannevar Bush à Ted Nelson, organisées autour de la notion originelle d’hypertexte, ne correspondaient pas à ce que sont devenues les lectures industrielles. Dans les premières années du web – souvenons-nous, par exemple, de ces journaux de lecture du web (« web-logs ») avant qu’ils se transforment en blogs –, les difficultés, réelles, de lecture tenaient à la conception encore artisanale du design de la technologie de lecture numérique (le « read-write » de Tim Berners-Lee). Elles n’étaient pas encore devenues une composante nécessaire de l’industrialisation de la lecture. La situation actuelle, d’ailleurs, est encore loin d’être uniforme.


En supposant un formatage intégral de la lecture par une technique elle-même absolument déterminée, le point de vue de Nicholas Carr est passablement déprimant, et d’ailleurs déprimé, puisque l’auteur nous avoue qu’après une période de diète, il est retombé dans son addiction au numérique en dépit des risques qu’il avait lui-même identifiés.


Peut-être est-il possible d’envisager une perspective plus souriante. Partant des différences et de l’important écart actuel entre les deux lectures, elle intégrerait, aussi bien sur le plan individuel que dans le cadre de l’enseignement, la nécessité radicale de conserver la lecture classique du livre imprimé comme lecture de référence. Elle tenterait d’éviter la polarisation sociale des publics entre les deux types de lecture  12. Mais elle saurait aussi, sous la forme d’un régime d’exercices combinés, alterner à bon escient les deux lectures. Elle relancerait enfin la recherche sur la technologie de lecture numérique dont les versions actuelles sont insatisfaisantes. On verrait là un contre-projet industriel par rapport au modèle de lecture de communication porté •actuellement par les industries de lecture.

Septembre2011


1. http://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/6868  (retour)

Susanne Gaschke, Klick. Strategien gegen die digitale Verdummung, Fribourg, Herder, 2009. 2. (retour)

Conférence « Society of the Query », Institute of Network Cultures, novembre2009 ; rapport en ligne:3.  http://networkcultures.org/wpmu/query/2011/01  (retour)

Ippolita, Le côté obscur de Google, Payot4.  & Rivages, 2011. (retour)

Karl Grandin (ed.), Going5.  Digital. Evolutionary and Revolutionary Aspects of Digitization, Nobel Symposia, Center for History of Science, The Royal Swedish Academy of Sciences, 2011. (retour) 

Nicholas Carr, The Shallows : What the Internet is Doing to Our Brains, Norton, 2010. 6. (retour)

Les traductions sont de l’auteur de l’article. 7. (retour)

Thomas Stearns Eliot, Poésie, trad. de Pierre Leyris, Éd. du Seuil, 1969. 8. (retour)

John Ruskin, Sésame et les Lys, traduction, préface et notes de Marcel Proust, Payot9.  & Rivages, 2011. (retour)

Peter Sloterdijk, Tu dois changer ta vie, Libella Maren Sell, 2011. 10. (retour)

Alain Giffard, « Des lectures11.  industrielles », in: Bernard Stiegler, Alain Giffard et Christian Fauré, Pour en finir avec la mécroissance, Flammarion, 2009. (retour)

Alain Giffard, « Lecture numérique et culture écrite », initialement paru sur le site skhole.fr:12.  http://alaingiffard.blogs.com, 2010. (retour)

Notice bibliographique :

Giffard, Alain, « Critique de la lecture numérique », BBF, 2011, n° 5, p. 71-73
[en ligne] <http://bbf.enssib.fr/> Consulté le 21 novembre 2011

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
12 avril 2013 5 12 /04 /avril /2013 11:43

Voici la rediffusion de la soirée proposée par le Pôle Image Magelis avec Bernard Stiegler. En partenariat avec le Pôle régional d'éducation artistique et de formation au cinéma et à l'audiovisuel, La Cité internationale de la bande dessinée et de l’image, l’Inspection Académique et le Centre Départemental de Documentation Pédagogique de la Charente, L’Ecole Européenne Supérieure de l’Image, le Lycée de l’Image et du Son d’Angoulême et le Centre Européen des Produits de l’Enfant.

 

 

Récemment, dans un article qui n’hésitait pas à affirmer que « la télévision tue », le journal Le Monde se référait à une étude menée par Frederick Zimmerman et Dimitri Christakis, pédiatres de l’université de Washington, qui ont établi un lien direct entre consommation précoce d’images animées et déficit attentionnel, mettant en évidence que la synaptogenèse des cerveaux infantiles était modifiée par le rapport aux images animées.

 

En France, les enfants passent plus de trois heures et demi par jour devant leurs écrans, soit plus de 1 200 heures par an à regarder la télévision, à surfer sur Internet, à jouer sur leur console ou à envoyer des SMS, contre 900 heures sur les bancs de l'école.

L’objet de la conférence que donnera Bernard Stiegler est de réfléchir au devenir des jeunes générations dans notre société marchande et mondialisée, particulièrement face aux écrans.



La conférence était suivie de la projection du film "Close-up" de Abbas Kiarostami (Iran 1990 - 1h30) - version originale sous-titrée en français - avec Mohsen Makhmalbaf, Hossain Sabzian, Abolfazl Ahankhah, Mehrdad Ahankhah, dont voici le synopsis:

 


"En se faisant passer pour le célèbre cinéaste iranien Makhmalbaf, un homme pauvre et sans emploi, Ali Sabzian, abuse une famille bourgeoise et redonne vie et espoir à toute une communauté. Kiarostami filme son procès pour escroquerie et reconstitue, avec les intéressés eux-mêmes, ce jeu de rôle, de dupes et de rêves avec le cinéma..."

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
24 mars 2013 7 24 /03 /mars /2013 15:41
Le cerveau abrite une horloge qui permet au corps de vivre en harmonie avec les rythmes circadiens de la Terre. Sommeil, anesthésie, cancer, effets des médicaments, les recherches mettent toujours plus en évidence l'importance d'être "à l'heure" pour vivre en bonne santé !
Une enquête de Mario Fossati et Ventura Samarra.

Au rythme de son espèce

 

Le cycle jour/nuit est à la base du rythme de l'horloge interne [DR]

 

Toutes les 23 heures 56 minutes et 4 secondes, la Terre effectue un tour complet sur elle-même. Pour toutes les formes de vie sur cette planète, l'alternance jour/nuit constitue le rythme de base. Les rats se réveillent le soir, les humains le matin et les plantes capturent le gaz carbonique durant la journée. L'horloge centrale de chaque être vivant régule ainsi les cycles de vie, comme le sommeil et l'appétit.

Chez l'homme, l'exemple le plus commun de dérèglement de l'horloge interne, c'est le "jet lag", ou "décalage horaire". Le passage de plusieurs méridiens plonge notre corps dans un nouveau rythme. Le corps n'est alors plus en phase avec le cycle solaire. Les symptômes sont la fatigue le jour et l'impossibilité de s'endormir la nuit, le manque d'appétit à l'heure des repas ou encore le sentiment d'être à côté de la plaque. Heureusement, les effets du voyage disparaissent progressivement, notre corps s'adaptant à son nouveau milieu.

Mais il arrive que ce dérèglement soit lié à d'autres facteurs que les voyages, et avec des conséquences durables et contraignantes. Certaines sont liées à notre style de vie: les sorties ou le travail de nuit peuvent modifier nos heures de sommeil. D'autres à notre métabolisme: les changements hormonaux qui s'opèrent lors de l'adolescence peuvent influencer et dérégler notre horloge interne.

Dans ces différents cas, les personnes atteintes vivent avec un certain décalage par rapport aux autres, ce qui pose des problèmes dans la vie sociale, avec la famille et les amis, mais aussi dans le monde professionnel ou scolaire. Le temps de sommeil est réduit, la sensation de fatigue apparaissant aux heures auxquelles les autres se lèvent. La fatigue est tolérée par le corps un temps, mais les effets sont lourds au niveau psychologique. Il n'est pas rare de tomber en dépression. On peut réorienter le sommeil, la première étape est de le décaler pour finir le "tour de l'horloge". Donc au lieu de se coucher à 5 heures, le patient se couche à 7 heures, puis à 9 heures, puis à midi, jusqu'à ce qu'il arrive à s'endormir le soir.


Les mécanisme de l'horloge interne et la lumière


La luminothérapie fait partie du traitement de réorientation du sommeil [DR]

 

L'oeil ne sert pas uniquement à voir, il permet aussi à la lumière de stimuler une petite structure au centre du cerveau, le noyau supra chiasmatique, siège de l'horloge interne. Au fil de la journée, cette horloge active et bloque l'expression d'un grand nombre de gènes suivant un rythme d'environ 24 heures.

Pour que le corps puisse accomplir au bon moment les fonctions qui correspondent au jour et à la nuit, il faut que l'organisme soit synchronisé avec la journée terrestre. Ainsi chaque jour, l'horloge interne doit être remise à l'heure. C'est le rôle de la lumière.

Les poules sont de véritables horloges. Dans l'élevage, toutes sont nées le même jour, ce qui permet une synchronisation parfaite du troupeau. Au cours de leur vie de poussin, la durée du jour a été modifiée pour créer un printemps artificiel, qui perdure ensuite toute la vie de la poule.

La lumière agit de deux façons chez la poule; sur la rétine, donc sur le nerf optique, et sur des récepteurs occipitaux. Certaines ondes arrivent à traverser l'os crânien et arrivent à stimuler des glandes telles que l'hypophyse et l'hypothalamus, qui vont aussi avoir des interactions au niveau des sécrétions hormonales, qui vont déclencher la ponte et la production d'oeufs.

Toute variation de la lumière peut entraîner le chaos dans le poulailler. Il va de la modification des lieux habituels de ponte jusqu'au cannibalisme.

Tous les organismes qui ont été étudiés jusqu'à maintenant ont des horloges biologiques. Des bactéries jusqu'aux organismes supérieurs comme l'homme. Ces horloges sont présentes dans le foie, le poumon, le coeur, le muscle... Chacune de ces horloges a une phase très précise et de ce fait une heure à laquelle elle fonctionne de manière optimale. Et toutes sont liées à l'horloge centrale, qui règle ainsi la rythmicité aux autres horloges de l'organisme.

En pénétrant l'oeil, la lumière agit sur l'horloge et bloque la sécrétion de mélatonine. On pensait que cette action passait par les cellules impliquées dans la vision. Or récemment, on a découvert que l'information lumineuse était transmise par un autre type de cellules, situées au fond de la rétine. Et surtout on s'est rendu compte que parmi toutes les couleurs, le bleu était celle qui stimulait le mieux ces cellules.

Sans une lumière suffisante en quantité et en qualité, l'horloge n'est pas remise à l'heure. Or, avec l'âge, on a un vieillissement de l'oeil. Le cristallin brunit, ce qu'on appelle au-delà d'un certain stade une cataracte, et filtre alors les lumières bleues. Si l'hypothèse se vérifie, la luminothérapie sera peut-être prescrite un jour aux personnes âgées souffrant de troubles du sommeil. Comme c'est déjà le cas pour les plus jeunes.

Dans les consultations du sommeil, les médecins accueillent de plus en plus d'adolescents décalés. On ne sait pas encore quelle est la part due aux changements hormonaux et celle liée aux habitudes de vie, comme les jeux vidéos ou les boissons stimulantes bues au cours de la journée. On sait par contre que les retours de fête au petit matin durant le week-end provoquent de véritables jet lags, qui peuvent achever de déphaser le sommeil.


Vers une médication adaptée à l'horloge centrale


Boîtier de planification de traitement - chronothérapeutique [DR]

 

L'horloge interne influence notre métabolisme en général. Quid des effets des médicaments sur notre organisme? Lors d'une anesthésie, de l'endormissement au réveil, le patient reçoit pas moins de cinq substances différentes parmi les analgésiques, anxiolytiques et hypnotiques.

Laure Pain, médecin anesthésiste, dirige un groupe de recherche à l'Inserm de Strasbourg. Des observations sur des rats montrent qu'une anesthésie a des effets sur l'horloge interne. Les produits utilisés sont éliminés par l'organisme en quelques heures. Pourtant, les symptômes du jet lag perdurent plusieurs jours.

Pour vérifier ce constat chez l'être humain, Laure Pain s'est intéressée à des anesthésies de courte durée pratiquées lors d'interventions ambulatoires. Le résultat est net, comme chez le rat, une anesthésie d'à peine vingt minutes suffit à perturber l'horloge interne.

Laure Pain mène actuellement une étude impliquant 200 patients. Au réveil, les patients sont exposés à de la lumière. Une lampe de 1'500 lux, soit l'équivalent d'une terrasse au soleil en été, durant nonante minutes. L'horloge interne reçoit ainsi un signal fort, qui la resynchronise avec le rythme cosmique. Les premiers résultats de l'étude dépassent toutes les attentes. L'exposition des patients à cette lumière leur permet de récupérer d'une anesthésie en seulement 24 heures.

La luminothérapie a fait ses preuves pour corriger les perturbations liées à une intervention ambulatoire.

Mais qu'en est-il de l'horloge interne après une chirurgie de plusieurs heures? Il est probable que l'altération de l'horloge interne soit encore plus importante.

Puisque l'horloge interne est perturbée, les sécrétions hormonales des patients sont perturbées. Or ces sécrétions hormonales sont importantes et influencent directement notre capacité à pouvoir faire du muscle, lutter contre la douleur, lutter contre l'infection. La prise en compte de ces mécanismes dans les soins ouvre une autre piste: si la lumière peut soigner comme un médicament en remettant l'horloge à l'heure, qu'en est-il des médicaments eux-mêmes? Agissent-ils toujours de la même manière en fonction de l'heure à laquelle ils sont administrés?

Le service d'oncologie de l'hôpital Paul-Brousse de Villejuif, à Paris, est l'un des premiers au monde à tenir compte de l'horloge interne dans l'application des chimiothérapies. Francis Lévi, oncologue de renommée internationale, est à l'origine de cette approche.

En se basant sur les principes de chronothérapeutique décrits par la médecine chinoise, le professeur Lévi a planifié les traitements de ses patients en fonction du rythme cosmique. Les chimiothérapies sont toxiques pour les cellules cancéreuses mais malheureusement aussi pour les cellules saines. Francis Lévi à découvert que la sensibilité du corps à ces effets secondaires variait au cours des 24 heures, selon un rythme régulier, dicté par l'horloge interne.

Pour minimiser la toxicité des chimiothérapies, on peut profiter d'une fenêtre temporelle où l'organisme tolère le mieux ces produits. Ces fenêtres temporelles sont traduites sous forme de courbes, identiques pour tous les patients. Celles-ci établissent la manière dont les substances doivent être diffusées dans le corps heure par heure, durant quatre jours. A chaque substance correspondent des horaires différents.

Dans le laboratoire du professeur Lévi, des souris atteintes de tumeurs cancéreuses y sont étudiées. Toutes sont équipées d'un capteur qui permet de mesurer leur rythme biologique. Les chercheurs sont déjà parvenus à évaluer les rythmes de toxicité pour une trentaine de médicaments anticancéreux. Autre découverte importante, ces recherches ont aussi montré que donner un médicament au moment où il est le moins toxique ne le rend pas moins efficace. Cela tient au fait que les cellules cancéreuses ne sont plus synchronisées avec le corps.

Cette découverte suggère aussi qu'il y aurait un lien entre la survenue des cancers et les troubles de l'horloge. Le corps produit des cellules cancéreuses en permanence. Toutefois, il les élimine par mort cellulaire programmée. Un désordre de l'horloge interne pourrait avoir un effet inhibiteur de cette élimination cellulaire et favoriser la naissance de tumeurs.

L'approche chronopharmacologique permet de diminuer jusqu'à cinq fois l'incidence de certains effets secondaires. Mais moins d'effets secondaires ne signifie pas nécessairement un meilleur pronostic. La chronothérapie a de meilleurs résultats chez les hommes que les femmes.

Le but des recherches actuelles est de synchroniser le traitement avec le fonctionnement personnel de chaque individu. Jusqu'à présent, l'industrie pharmaceutique s'est très peu intéressée à ces approches. Sa logique était celle de la simplification, d'un médicament le plus général possible, pour un marché le plus large possible. Bref, l'inverse de la chronobiologie.

En conclusion, cette nouvelle approche peut apporter des solutions pour le travail de nuit, qui touche en moyenne un employé sur cinq. "Travailler aux heures où l'horloge demande au corps de dormir n'est pas sans effet sur la santé."

 

Voir la partie 1: Cliquez ici.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
24 mars 2013 7 24 /03 /mars /2013 13:51

"Dur pour un ado de sortir du lit le matin !" La faute à la puberté, qui transforme les jeunes en oiseaux de nuit, explique le professeur Till Roenneberg, spécialiste mondial de la chronobiologie, l'étude des rythmes biologiques. Mais de nombreux adultes et personnes âgées ont aussi du mal à s'endormir et souffrent d'un manque de sommeil chronique. L'horloge sociale serait-elle en avance sur notre horloge interne ?

 

Horloge.jpg

Voir le document, cliquez ici:

 

 

 

Voir la partie 2: Cliquez ici.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie

Soins conventionnels :

- Etat dépréssif

- Troubles anxieux

- Situations de crise

- Troubles compulsifs

- Hypnothérapie médicale

 

  Nouveau site internet :

  http://www.psychologie-luxeuil-70.com/

Rechercher

Soins spécifiques :

- Souffrances au travail 

- Thérapie de couple ou familiale

- Suivi scolaire et aide à l'orientation 

- Communication et relations publiques

- Facultés attentionnelles et concentration

Université Populaire UPL :

AP_circle_logo.jpeg
              
 
France bleu - Trommenschlager / Neuromarketing
 

Liens

setonly.png     cerveau-et-psycho.jpeg

collège DF   France-Culture

Pages externes