12 septembre 2012 3 12 /09 /septembre /2012 11:17

Du fait de la mondialisation "mon fils, ma bataille" est devenu "mon fils, ma guerre mondiale". Les divorces internationaux sont de plus en plus fréquents, avec une question épineuse : qui garde les enfants ?


Conseil de lecture de Serge Hefez, psychanalyste:

"Psychothérapie démocratique" de Tobie Nathan et Nathalie Zajde, publié en avril 2012; aux éditions Odile Jacob.

     

Reportage d’Antoine Ly, cliquez sur le logo :

 

france inter

Enlèvement parental : témoignage d’une maman.

 


Résumé:

Les drames des enlèvements d'enfants dans des pays étrangers... Et pour les rescapés, la très difficile réinsertion !

 

 

 

La médiation familiale internationale , la diplomatie du coeur . © Radio France - 2012 / Danièle Ganancia.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Actualité-sociologie
7 septembre 2012 5 07 /09 /septembre /2012 12:28

Marie Bonnafé est psychiatre et psychanalyste, membre de la société psychanalytique de Paris, présidente d’ACCES (Actions Culturelles Contre les Exclusions et les Ségrégations). Auteur de « Les livres, c'est bon pour les bébés « éditions Hachette Littérature, Calmann Lévy, Paris.

 

Livres et bébés ne feraient pas bon ménage ! Ils sont trop petits, ils ne comprennent rien", entend-on souvent. Pourtant, les bébés, avant même de savoir parler, sont friands d'albums illustrés. Regardez-les: ils les feuillettent, les explorent en tous sens et écoutent avec passion leurs premiers récits.

  

France-Culture

  -Cliquez sur le logo pour écouter le podcast-

   

En plus de soins maternels, le bébé a besoin de jeux avec l'imaginaire, sans quoi il ne saurait accéder au langage ni à la vie de l'esprit. A contre-courant de l'apprentissage précoce forcé, Marie Bonnafé fait l'éloge de la "lecture pour rien", de la gratuité, du plaisir qui sont les meilleures conditions pour accéder à la langue écrite. Lire des histoires aux tout-petits est ainsi un enjeu culturel et social parmi les plus importants de notre civilisation.

 

 En 1979, un colloque portant sur l’apprentissage et la pratique de la lecture à l’école a réuni pour la première fois, à côté d’enseignants et spécialistes de la pédagogie, des personnalités connues pour leurs travaux sur le développement de l’enfant, dont le psychanalyste René Diatkine.

   bonnafe.jpg
Ce colloque a contribué à faire sortir l’apprentissage et la pratique de la lecture du champ des techniques et des méthodes pour l’introduire dans celui du développement humain, de l’arrière-plan social économique et politique d’une société démocratique.

 
Un an après, à l’initiative de Marie Bonnafé, René Diatkine et Tony Lainé, trois psychiatres-psychanalystes, A.C.C.E.S. est né, s’appuyant d’office sur les services du livre et de la petite enfance, réunissant les professionnels qui s’occupent de transmission culturelle dès la petite enfance.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Psychanalyse
6 septembre 2012 4 06 /09 /septembre /2012 18:12

" Toutes les nuits, trois ou quatre fois par nuit, un rythme aussi régulier qu’une marée montante nous adresse des images que nous ne comprenons pas. Pascal Quignard. La barque silencieuse."

 

Interprétation, récit et description du rêve selon les peuples et les grands auteurs, dont Freud ! . France Inter: sur les épaules de Darwin.

 

france inter

Cliquez sur le logo pour écouter l'émission

 

 

 Bibliographie de référence:

Petits traités d'histoire naturelle
Petits traités d'histoire naturelle
de Aristote
éditeur : Garnier Flammarion
parution : 1999
Winter Journal
Winter Journal
de Paul Auster
éditeur : Henry Holt & Company
parution : 2012
Sur le rêve
Sur le rêve
de Sigmund Freud
éditeur : Point Seuil
parution : 2011
L'interprétation du rêve
L'interprétation du rêve
de Sigmund Freud
éditeur : Puf Quadrige
parution : 2010
La Femme qui tremble
La Femme qui tremble
de Siri Hustvedt
éditeur : Actes sud
parution : 2010
Living, thinking, looking. Essays
Living, thinking, looking. Essays
de Siri Hustvedt
éditeur : Picador
parution : 2012
Le sommeil et le rêve
Le sommeil et le rêve
de Michel Jouvet
éditeur : Odile Jacob
parution : 2000
Home
Home
de Toni Morrison
éditeur : Christian Bourgois
parution : 2012
Infinite Riches
Infinite Riches
de Ben Okri
éditeur : Orion
parution : 1999
Oeuvres complètes
Oeuvres complètes
de Platon
éditeur : Editions Flammarion
parution : 2011
La barque silencieuse
La barque silencieuse
de Pascal Quignard
éditeur : Editions Le Seuil
parution : 2003
La tempête (oeuvre bilingue)
La tempête (oeuvre bilingue)
de William Shakespeare
éditeur : Folio théâtre
parution : 1997
Les pères du système taoïste
Les pères du système taoïste
de Léon Wieger
éditeur : Les Belles Lettres
parution : 1993
Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Psychanalyse
6 septembre 2012 4 06 /09 /septembre /2012 16:54

La notion de transfert existe aussi dans l'architecture d'Internet. Opposée à celle de transport (de données brutes). L'ingénieur Christian Fauré, élève de Bernard Stiegler, travaille sur la portée théorique de cette distinction, qui caractérise l'intelligence des réseaux.

 

réseau

Ensemble, nous sommes une force !

 

L’ingénieur Christian Fauré analyse la portée de la distinction entre les notions de transport et de transfert sur Internet. Dans son propos, le transport fait référence aux moyens matériels de mise en relation, au cuivre ou la fibre qui achemine vos données. Le transfert fait référence lui aux représentations que nous échangeons, par le biais du peer-to-peer ou par le protocole SMTP utilisé pour nos emails chargés de sens.

 

Parler d’infrastructure du numérique c’est toujours prendre le risque d’ennuyer son auditoire et de faire peur :

On va encore nous parler des autoroutes de l’information, d’accès internet à très haut débit, de la taille des tuyaux, etc. Or je ne parlerai pas de tuyaux, ni d’accès internet à très haut débit, ni de fibre optique ou de Wimax. Non pas que ces questions soient secondaires — elles sont même nécessaires — mais ce ne sont pas les questions qui sont premières selon l’ordre des questions qui sont les miennes.

Mais alors, que reste-t-il de l’infrastructure du numérique si on fait abstraction des réseaux de transport ? Eh bien, ce qui reste — le reste qui m’intéresse —  ce sont les réseaux de transferts. Il s’agira donc ici d’infrastructures de transferts plus que d’infrastructures de transports.

Quelle distinction fais-je entre transport et transfert (Cf Transfert ou Transport en 2009)?

  

Tout d’abord, et l’on me pardonnera d’évacuer si grossièrement la question, si les deux relèvent de la mobilité et du déplacement, on peut dire que les réseaux de transports déplacent des objets et plus généralement de la matière, là où les réseaux de transferts déplacent des représentations, des symboles et, d’une manière générale du signifiant.

  

N’allez pas croire pour autant que j’oppose les réseaux de transferts aux réseaux de transports. Les distinguer n’est pas les opposer, et cela d’autant plus que, à ma connaissance, aucun réseau de transfert n’existe s’il ne s’appuie pas lui-même sur un réseaux de transport.

  

En informatique, cette articulation entre les différents protocoles de réseaux est illustrée par le modèle en couche OSI. Modèle dans lequel on voit bien que l’ensemble des protocoles qui « changent la donne » sont les protocoles de transferts : SMTP, FTP et, bien sûr, HTTP qui sont les protocoles applicatifs qui s’occupent des data. C’est en ce sens que je parle de Dataware et de Metadataware à propos des technologies de transferts.

  

   

Dans l’ouvrage collectif « Pour en finir avec la mécroissance » j’ai présenté cette dimension industrielle de l’infrastructure des réseaux de transferts du numérique qui n’est pas l’infrastructure de transport ; il s’agissait de lutter contre l’incurie d’une idée qui s’était propagée dans l’intelligentsia française, dans la classe politique et dans les discours des média analogiques. Une idée qui présentait le numérique comme l’équivalent du virtuel ; un lieu en dehors des questions d’économies et de politiques industrielles ; ce que l’on nomme à présent la fable de l’immatériel.

  

Ce qui a été qualifié de virtuel, et qui donc a été manqué, c’est précisément les infrastructures de transferts, celles dont l’usine moderne est le data center (déviance centripète des réseaux distribués). En matière de réseaux de transports du numérique, la France est plutôt bonne. Il est souvent souligné que la qualité du réseau français est bien meilleure que celle du réseau américain. Mais là où çà pèche, si je puis dire, c’est dans les réseaux de transferts qui sont, aujourd’hui encore, en attente d’une politique industrielle.

  
Ne pas faire la distinction entre les infrastructures de transport et les infrastructures de transferts c’est ne pas comprendre la guerre de tranchée que les industries du transport et celles du transfert mènent depuis plusieurs années. Cela se manifeste par exemple lorsque les opérateurs telecom refusent d’investir seuls dans les nouvelles infrastructures de transports sous prétexte que ceux qui vont se connecter à ce réseau de transport vont ensuite être captés par les serveurs de transferts des nouveaux industriels du web, c’est à dire les industriels des technologies de transfert. [Cf les citations des patrons de telecom] De la même manière, les débats sur la « neutralité du net » relèvent pleinement la distinction entre Transport et Transfert.

 

Le propre du Transfert

   

Par ailleurs, puisque nous nous intéressons aux réseaux de transferts, le Littré nous rappelle que « transfert » est un terme d’origine financière et juridique ; on transfère des droits, des actions, des biens et donc des propriétés. Ce qui veut dire que le transfert est le domaine du propre. Je pense qu’il est inutile de rappeler à quel point les questions juridiques sont en première ligne de la mutation induite par l’émergence des industries de transferts numériques puisque la principale réponse du gouvernement Français aux enjeux des réseaux numériques de transferts a été de criminaliser les pratiques de transferts.

 

Puisqu’il est question de propre et de propriété, il faut à ce sujet rappeler que la première des propriétés qui est la notre, dans ces réseaux numériques, c’est les données que nous produisons puisque, avec l’architecture associé du numérique — associé au sens ou l’on est à la fois récepteur et émetteur —  chacun peut produire et publier (et même publier à ses dépends).

 

Or, que font les industries du transfert numérique ? Elles ont tendance à fonctionner précisément sur la base du transfert nos propres données, de notre propre numérique, de nos traces numériques. Ainsi,  la première chose que nous acceptons en rejoignant un service de réseau social privé, ce sont les « Conditions Générales d’Utilisation » en vertu desquelles nous transférons des droits d’usages sur notre propriété numérique.

 

Malheureusement, dans l’économie que nous propose les industriels des réseaux numériques de transferts, il y a toujours le risque qu’en s’appropriant les données des utilisateurs, leur propriété numérique, ces derniers ne deviennent purement et simplement des « propres à rien » dans cette logique d’exploitation des données qui vire à la dépossession.

  

S’approprier les réseaux numériques de transferts n’est pas la même chose que s’adapter aux réseaux numériques (on reconnaît là le discours latent des propos qui se focalisent sur l’accès internet à haut débit). L’alternative entre adoption du numérique (prendre en soi) et adaptation au numérique (prendre sur soi, comme un fardeau) est celle que Bernard Stiegler présente sous la forme suivante :

 

« servitude volontaire automatisée versus économie de la contribution ».

 


Article initialement publié sur le blog de Christian Fauré, sous le titre “Le propre du transfert et le transfert du propre (infrastructure studies)”.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Vie publique et économique
3 septembre 2012 1 03 /09 /septembre /2012 17:00

On les coupe, on les colore, on les coiffe différemment au fil des étapes de notre vie. Teints en rouge, rasés à la Barthez ou sagement nattés, nos cheveux dévoilent notre personnalité. Jusque dans nos désirs inconscients.

 

chevelure

Jeune fille peignant sa chevelure, Renoir 1894.


La première fois qu’on a coupé les cheveux de ma fille, je me suis sentie toute drôle. Elle avait perdu pour toujours ses mèches frisées. A 18 mois, elle n’était plus un bébé. Jusque-là, on n’avait jamais touché à son intégrité physique », se souvient Martine, 46 ans. De nombreux peuples perçoivent ainsi les premiers assauts des ciseaux comme un sevrage. En Arizona, les Indiens hopis éloignent les esprits maléfiques, car le jeune enfant perd alors une force vitale.

 

Ces poils caractéristiques de l’espèce humaine s’enracinent au plus profond du crâne pour surgir à l’air libre, tels des liens entre l’intérieur et l’extérieur de nous-même. A la fois couverture de l’invisible et parure offerte aux regards, ils sont 100 000 à 150 000, soit 200 à 300 par centimètre carré à être ainsi l’objet de nos soins.


On n’en fait qu’à sa tête


Ne parlez pas de cheveux courts à Martine : elle en a souffert toute son enfance à cause de ses piqûres de pénicilline contre la colibacillose, qui les abîmaient. « J’admirais les tresses de ma tante et j’ai dû attendre 15 ans pour les avoir longs et épais. Aujourd’hui, j’ai peur d’aller chez le coiffeur et je n’irai jamais au-delà du carré classique. » Une farouche obstination en dépit des conseils de son entourage. « Changer de tête permet de restaurer l’image de soi si elle a été bousculée, explique le docteur Sylvie Consoli, dermatologue et psychanalyste. On le constate dans les salons de coiffure des hôpitaux, chez les femmes suivies pour une dépression. Et c’est banal après un échec sentimental ou professionnel. A l’opposé, conserver à jamais la même coupe de cheveux témoigne que l’on est en accord avec soi-même. On s’est trouvé, on sait qui l’on est. A moins que cette attitude ne cache une crainte de la nouveauté ou une forme de rigidité. On instaure sa coiffure et on ne change pas non plus d’opinions ni d’habitudes. »

 

Tout le contraire de l’adolescent ! Ce n’est pas un hasard si, à cette période où l’on se cherche, chacun joue des variations capillaires. « Les enfants se réapproprient leur corps et signifient ainsi leur autonomie par rapport aux parents », souligne encore la psychanalyste. « C’est le petit diablotin qui apparaît en moi ! » lui a dit gaiement l’une de ses jeunes patientes en débarquant en fin de thérapie avec des mèches rouges.


Ivresse de la métamorphose


La séance chez le coiffeur satisfait plus de huit femmes sur dix. Elle doit les mettre en valeur pour 89 %, et 84 % en sortent avec un moral à la hausse, d’après une étude récente menée par L’Oréal. « Je vais chez le coiffeur environ tous les quarante-cinq jours. C’est un moment ludique, confirme Nancy. Une fois élagués mes cheveux épais, je me sens plus légère. Je me maquille peu, ma coiffure est l’élément qui change mon apparence. »


La coloration au plus près de la teinte naturelle fixe la jeunesse. Mais aujourd’hui, la femme active ne se contente plus de couvrir ses cheveux blancs, ton sur ton. Ces premiers signes du vieillissement lui fournissent l’occasion d’oser les balayages ostensibles, les effets cuivrés ou ambrés. Elle donne de la lumière à sa chevelure… et à sa vie. D’ailleurs, de multiples transformations ne traduisent pas obligatoirement un tempérament instable, souligne le docteur Sylvie Consoli : « C’est important de savoir jouer avec son image. Le jeu prouve une capacité de prendre du recul avec soi-même, une certaine souplesse de fonctionnement psychique, une vie imaginaire riche. Comme lorsque l’on se déguise ou que l’on met de l’originalité dans sa tenue vestimentaire. »


Certaines fantaisies atteignent leurs limites avec l’entrée dans le monde du travail. Nancy est passée d’une belle crinière sous la taille à la coupe militaire, avant d’arborer une crête verte et orange à 24 ans. « J’ai voulu profiter de la liberté que m’offraient mes dernières années d’étude. Maintenant, j’adopte des coiffures qui tiennent en sortant de la douche, ni trop originales ni trop classiques, pour coller à ma personnalité. » Autre passerelle rituelle, le service sous les drapeaux a rangé de nombreux hommes du côté « court » après les années cool. Pour eux, il est temps d’être présentables, d’avoir la tête de l’emploi pour être acceptés parmi les membres de leur sphère sociale. Et même si on évolue dans un milieu où la mode autorise les audaces, on se démarque pour trouver dans le regard des autres, fussent-ils un petit nombre, une approbation qui renforce la confiance et l’estime de soi.

 

Ondes féminines ou viriles ?

 

"La chevelure", de Guy de Maupassant:

Vraiment, pendant huit jours, j'adorai ce meuble. J'ouvrai à chaque instant ses portes, ses tiroirs; je le maniais avec ravissement, goûtant toutes les joies intimes de la possession.
Or, un soir, je m'aperçus, en tâtant l'épaisseur d'un panneau, qu'il devait y avoir là une cachette. Mon coeur se mit à battre, et je passai la nuit à chercher le secret sans le pouvoir découvrir.
J'y parvins le lendemain en enfonçant une lame dans une fente de la boiserie. Une planche glissa et j'aperçus, étalée sur un fond de velours noir, une merveilleuse chevelure de femme !
Oui, une chevelure, une énorme natte de cheveux blonds, presque roux, qui avaient dû être coupés contre la peau, et liés par une corde d'or.
Je demeurai stupéfait, tremblant, troublé ! Un parfum presque insensible, si vieux qu'il semblait l'âme d'une odeur, s'envolait de ce tiroir mystérieux et de cette surprenante relique.
Je la pris, doucement, presque religieusement, et je la tirai de sa cachette. Aussitôt elle se déroula, répandant son flot doré qui tomba jusqu'à terre, épais et léger, souple et brillant comme la queue en feu d'une comète.
Une émotion étrange me saisit. Qu'était-ce que cela ? Quand ? comment ? pourquoi ces cheveux avaient-ils été enfermés dans ce meuble ? Quelle aventure, quel drame cachait ce souvenir ? Qui les avait coupés ? un amant, un jour d'adieu ? un mari, un jour de vengeance ? ou bien celle qui les avait portés sur son front, un jour de désespoir ?
Etait-ce à l'heure d'entrer au cloître qu'on avait jeté là cette fortune d'amour, comme un gage laissé au monde des vivants ? Etait-ce à l'heure de la clouer dans la tombe, la jeune et belle morte, que celui qui l'adorait avait gardé la parure de sa tête, la seule chose qu'il pût conserver d'elle, la seule partie vivante de sa chair qui ne dût point pourrir, la seule qu'il pouvait aimer encore et caresser, et baiser dans ses rages de douleur ?
N'était-ce point étrange que cette chevelure fût demeurée ainsi, alors qu'il ne restait plus une parcelle du corps dont elle était née ?
Elle me coulait sur les doigts, me chatouillait la peau d'une caresse singulière, d'une caresse de morte. Je me sentais attendri comme si j'allais pleurer.
Je la gardai longtemps, longtemps en mes mains, puis il me sembla qu'elle m'agitait, comme si quelque chose de l'âme fût resté caché dedans. Et je la remis sur le velours terni par le temps, et je repoussai le tiroir, et je refermai le meuble, et je m'en allai par les rues pour rêver...

 

Car ne nous leurrons pas : ces cheveux ancrés à quatre millimètres dans le cuir chevelu ramifient leurs racines dans notre inconscient ! Certaines maladies, comme la pelade (qui entraîne la perte des cheveux par plaques), impliquent des facteurs psychologiques tels qu’une séparation mal vécue. De même, rappelle Sylvie Consoli, on relève souvent chez les femmes qui s’arrachent les cheveux lors de crises de trichotillomanie (tic consistant à s’arracher les cheveux ou les cils), une grande opposition à la mère et un père plutôt absent. « Par ce geste, elles s’attaquent à leur féminité », explique-t-elle.

 

Pour ceux qui interprètent les rêves, la chevelure « moutonnant jusque dans l’encolure », si chère à Baudelaire, exprime une quête d’équilibre entre les forces viriles et féminines qui nous habitent. « Les cheveux longs incarnent la féminité qui va de pair avec la protection. C’est l’eau qui réceptionne les éléments extérieurs, reste attentive. Elle est aussi puissante que le feu (la masculinité) qui va les affronter directement », renchérit Marc Dugast (1), créateur de la « morphocoiffure », une méthode fondée sur des archétypes suivant la personnalité révélée par la forme du visage. Selon lui, adopter une coupe garçonne dénote de l’aisance et une indépendance d’action. A l’inverse, les femmes enceintes laissant pousser leurs cheveux manifestent l’acceptation d’un retour à la féminité.

 

"Un Hémisphère dans une chevelure" , de Charles Baudelaire:

Laisse-moi respirer longtemps, longtemps, l'odeur de tes cheveux, y plonger tout mon visage, comme un homme altéré dans l'eau d'une source, et les agiter avec ma main comme un mouchoir odorant, pour secouer des souvenirs dans l'air. Si tu pouvais savoir tout ce que je vois ! tout ce que je sens! tout ce que j'entends dans tes cheveux ! Mon âme voyage sur le parfum comme l'âme des autres hommes sur la musique. Tes cheveux contiennent tout un rêve, plein de voilures et de mâtures; ils contiennent de grandes mers dont les moussons me portent vers de charmants climats, où l'espace est plus bleu et plus profond, où l'atmosphère est parfumée par les fruits, par les feuilles et par la peau humaine. Dans l'océan de ta chevelure, j'entrevois un port fourmillant de chants mélancoliques, d'hommes vigoureux de toutes nations et de navires de toutes formes découpant leurs architectures fines et compliquées sur un ciel immense où se prélasse l'éternelle chaleur. Dans les caresses de ta chevelure, je retrouve les langueurs des longues heures passées sur un divan, dans la chambre d'un beau navire, bercées par le roulis imperceptible du port, entre les pots de fleurs et les gargoulettes rafraîchissantes. Dans l'ardent foyer de ta chevelure, je respire l'odeur du tabac mêlé à l'opium et au sucre; dans la nuit de ta chevelure, je vois resplendir l'infini de l'azur tropical; sur les rivages duvetés de ta chevelure je m'enivre des odeurs combinées du goudron, du musc et de l'huile de coco. Laisse-moi mordre longtemps tes tresses lourdes et noires. Quand je mordille tes cheveux élastiques et rebelles, il me semble que je mange des souvenirs. 

  

Sagesse monacale

 

Et en ce qui concerne les hommes ? Le mythe de Samson et Dalila règne-t-il encore dans les têtes ? « Buñuel ou Kojac ne sont pas vraiment des symboles de “mauviettes” ! » défend Patrick, la cinquantaine, journaliste. La coupe à la Barthez remet au goût du jour les crânes d’œuf. Et la séduction opère… soutenue par le fantasme phallique de cette tête lisse. Pourtant, l’anxiété domine à la vue de ces poignées de cheveux qui restent dans la main lors d’un shampooing. Contrairement aux adeptes de la mode (minoritaires !) qui peuvent s’attendre à une repousse, on se sent immédiatement dépossédé, dévalorisé. « Chez l’homme, la perte de cheveux symbolise la castration », affirme Sylvie Consoli.

 

Hériter de la calvitie de son père à 20 ans peut amortir le choc. Un homme averti guette l’inéluctable. Premier réflexe : se jeter sur un traitement antichute. Puis comme Thierry, ingénieur de 34 ans, on se résigne. « J’ai même découvert un avantage. Comme on me croit plus âgé, j’ai l’impression qu’on m’accorde un capital-confiance dans ma carrière. » Un air bouddhiste induit la sagesse. « Plus la partie cérébrale est dégagée, plus la dimension spirituelle est valorisée. Mais à 18 ans, on a besoin de se construire un avenir : on s’attache plus à des considérations matérielles ! » reprend Marc Dugast.


Le cheveu ras stigmatise aussi la soumission et la contrainte, à travers le militaire ou le bagnard. S’y opposent les crinières, symbole de sauvagerie innée et de liberté. Ainsi Hervé, illustrateur, a délaissé la tondeuse : « A 43 ans, je me sens plus libre dans ma tête. Je lâche davantage de choses jusqu’ici intériorisées, y compris d’un point de vue pictural. Mon geste est plus “jeté”. »

 

Messages codés

 

Les humeurs se dégagent également du coup de peigne. Chignon strict ou pelotte dont la pince néglige quelques boucles folles… Simple question pratique ? Marc Dugast va plus loin : « Attacher les cheveux avec l’envie d’être net, c’est marquer sa volonté d’avancer, d’être tonique. Les laisser encadrer le visage peut dénoter au contraire un besoin de repli ou un coup de déprime. » A moins que le chouchou ne soit lâché le soir pour mieux passer de l’employée sérieuse à la séductrice tentatrice… »


Se faire des cheveux blancs...


Blanchir en une seule nuit ? On les dit « fatigués », « taciturnes », « déprimés». Est-ce seulement de nos cheveux dont nous parlons ? Leur cycle de croissance et de chute dépend de notre système hormonal. Leur structure chimique, qui renferme notre code-barre (l’ADN), leur permet de capter tout ce que nous avalons (aliments, médicaments, drogues, etc.). Sachant qu’ils poussent de 1 à 1,5 centimètre par mois, 6 centimètres de longueur offrent un livre de bord de notre état de santé sur six à neuf mois.

 

Sous l’effet d’un choc émotionnel, par exemple, le cheveu peut changer de texture suivant sa qualité naturelle et la capacité de l’individu à surmonter sa fatigue nerveuse. De là à se faire des cheveux blancs en une nuit comme Marie-Antoinette avant son exécution… Impossible, selon les scientifiques. Il s’agirait plutôt d’une alopécie brutale épargnant les cheveux blancs rendus ainsi majoritaires, donc plus visibles.

 

Un peu d'ordre !

 

“Ordonner ses cheveux, c’est ordonner sa personnalité”

 
« Pour celui qui sait les lire, il est possible de découvrir peurs,
angoisses, blocages suivant la façon dont les cheveux sont ordonnés autour du visage », assurent Michel Oudoul, spécialiste des énergies, et Rémy Portrait, dirigeant d’un salon de coiffure à Paris. Dans “Cheveu, parle-moi de moi” (Dervy, 1997), ils proposent quelques lectures de coupes :

- Le front découvert, avec les cheveux coiffés vers l’arrière, marquerait la volonté d’aller de l’avant. Il s’agirait souvent de personnes qui n’ont pas peur d’affronter la vie ni le regard des autres.
- La raie au milieu serait le signe d’une volonté d’équilibre intérieur entre le yin et le yang, l’anima et l’animus, le féminin et le masculin. La raie à gauche ? Tentative de couvrir le féminin en soi. A droite ? Difficulté à accepter le masculin en soi.
- La frange : la peur de se dévoiler ou une certaine timidité amènerait cette couverture du front. Longue, épaisse, courte ou effilée, chaque type de frange évoque le niveau de protection dont la personne a besoin.

 

Agnès Rogelet pour psychologie.com

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Psychologie
1 septembre 2012 6 01 /09 /septembre /2012 11:37

On a longtemps cru que l’enfant n’avait pas une réelle et forte activité cérébrale avant l’âge de deux ans. Jean Piaget, dans la première partie du XXème siècle apportera une nouvelle vision de la pensée et des réflexions chez le jeune enfant, qui aujourd’hui encore, continue d’inspirer les professionnels.

 
piaget.jpg

 

Jean Piaget en quelques dates


1896 : Naissance le 9 août à Neuchâtel (Suisse).
1907 : À l’âge de 11 ans, Jean Piaget écrit un commentaire sur un moineau albinos. Ce premier article est considéré par certains spécialistes comme le début de ses nombreux travaux de recherche.
1920 : Piaget obtient un doctorat de malacologiste (étude des mollusques).
1921 : Il devient chef de travaux à l’institut Jean-Jacques Rousseau (Suisse).
De 1925 à 1971 : Il sera professeur successivement de psychologie, sociologie et philosophie des sciences, dans diverses universités (Neuchâtel, Genève, Lausanne, Sorbonne à Paris).
1955 : Jean Piaget fonde le Centre International d’Epistémologie Génétique qui regroupe de nombreux psychologues et neuro-psychologues. Leurs travaux en psychologie génétique et épistémologie portent sur la construction progressive des connaissances au fil de l’âge, dès la plus tendre enfance.
1980 : Jean William Fritz Piaget meurt à Genève.

 

Le constructivisme


Rien n’est inné, tout se construit !
Jean Piaget estime que le psychique se développe dès l’enfance, petit à petit, avec l’acquisition de structures de complexité croissante. Cette construction progressive va à l’encontre des théories qui se basent sur le caractère « inné » de certaines compétences.
Pour Piaget, l’intelligence est donc liée à l’adaptation biologique et évolue dès les premiers jours de vie. De là, il établit 4 grandes phases successives du développement cognitif chez l’enfant.

Les stades de l’évolution psychique de l’enfant


La plus grande partie des recherches de Piaget a porté sur l’analyse des comportements des jeunes enfants. Piaget fut l’un des premiers à analyser les méthodes de pensée chez les tout petits.
D’après ses observations (qui ont essentiellement porté sur ses propres enfants), la pensée de l’enfant peut se découper en plusieurs stades :

  • Stade « sensori-moteur » : de 0 à 2 ans.

L’enfant appréhende le monde à travers sa perception et ses actions. Durant cette première période, il intègre petit à petit certaines règles du fonctionnement du monde physique qui l’entoure, et commence à prendre conscience de la possibilité d’agir dessus.
Pour Piaget, c’est durant ce stade que l’intelligence se développe.

  • Stade préopératoire : de 2 à 7 ans.

À partir de 2 ans, l’enfant devient capable de se représenter un objet (ou une personne), même si il n’est pas en face de lui. C’est également durant cette phase que naît la capacité d’imiter les autres.
À partir de 3 ans, l’enfant entre dans une phase d’exploration où sa curiosité l’amène à toucher à tout.
C’est aussi le moment ou la parole se développe, ainsi qu’une dimension égocentrique : l’enfant ne perçoit le monde que par rapport à lui.
À partir de 4 ans, Piaget voit se développer la notion de « syncrétisme » : l’imagination de l’enfant est débordante, et il tient à donner une explication à tout.
Avant 7 ans, l’enfant perçoit tout ce qui l’entoure (objets, animaux…), comme doté d'une âme : c’est une période d’animisme.

  • Stade des opérations concrètes : de 7 à 11 ans.

L’enfant commence à avoir une approche et un mode opératoire plus concrets sur les objets. En effet, il commence à posséder une certaine expérience par rapport au monde qui l’entoure, et qu’il parvient petit à petit à comprendre, à conceptualiser. C’est par exemple au cours de cette phase que l’enfant abordera des problèmes de mathématiques abstraits.

  • Stade des opérations formelles : de 11 à 14 ans.

L’esprit de l’adolescent va petit à petit accéder à la notion d’abstraction, et à des capacités intellectuelles dites « supérieures », dans le sens où elles s’assimilent aux capacités des adultes.
Vers 14-15 ans, il parviendra à utiliser une logique abstraite et pourra réfléchir sur des questions d’ordre moral ou des notions philosophiques.

 

Bibliographie de Piaget


Voici quelques-uns des ouvrages de Jean Piaget :
- La naissance de l'intelligence chez l'Enfant, Delachaux et Niestlé, 1936.
- La construction du réel chez l'enfant, Delachaux et Niestlé, 1937.
- Six études de psychologie, Folio essais, 1964.
- Études sociologiques, Librairie Droz, 1965.
- Logique et connaissance scientifique, Encyclopédie de la Pléiade, 1967.
- Biologie et connaissance, Éditions de la Pléïade, 1967.
- L'épistémologie génétique, Que sais-je ?, PUF.
- La psychologie de l'enfant, Jean Piaget et Bärbel Inhelder, 1966, PUF.
- Le comportement, moteur de l'évolution, Éditions du seuil, 1976.
- Le structuralisme, Que sais-je ?, PUF.
- De la pédagogie, Éditions Odile Jacob, 1988.

 

www.santé-a-z.com

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Historiographie
31 août 2012 5 31 /08 /août /2012 18:43

 Éloge de la table rase: trois décennies à défaire et à refaire le monde !

  

« Pendant plus de trois décennies, Friedman et ses pernicieux disciples avaient perfectionné leur stratégie : attendre une crise de grande envergure, puis, pendant que les citoyens sont encore sous le choc, vendre l’État, morceau par morceau, à des intérêts privés avant de s’arranger pour pérenniser les « réformes » à la hâte. »

  

choc-et-effroi.jpg

  

  INTRODUCTION :


Semer " le choc et l’effroi " engendre des peurs, des dangers et des destructions incompréhensibles pour certains éléments ou secteurs de la société à l’origine de la menace, ses dirigeants ou les citoyens en général. La nature, sous forme de tornades, d’ouragans, de tremblements de terre, d’inondations, d’incendies incontrôlés, de famines et de maladies, peut provoquer le choc et l’effroi. Shock and Awe. Achieving Rapid Dominance, doctrine militaire établie pour la guerre des États-Unis en Irak.

     

 

    Je fis la connaissance de Jamar Perry en septembre 2005 au refuge de la Croix-Rouge de Baton Rouge, en Louisiane. De jeunes scientologistes au large sourire distribuaient des repas, et Jamar faisait la queue avec les autres sinistrés. Je venais juste de me faire houspiller pour avoir osé m’entretenir avec des évacués en l’absence d’escorte médiatique. Canadienne blanche perdue au milieu d’une mer d’Afro-Américains du Sud, je faisais de mon mieux pour passer inaperçue. Je me glissai dans la queue derrière Perry et lui demandai de me parler comme à une vieille amie, ce qu’il eut l’amabilité de faire. Né et élevé à La Nouvelle-Orléans, Jamar avait quitté la ville inondée une semaine plus tôt. On lui aurait donné dix-sept ans, mais il en avait vingt-trois, me dit-il. Lui et les siens avaient attendu longtemps les autocars d’évacuation promis. En fin de compte, comme ils ne venaient pas, les Perry avaient marché sous un soleil de plomb. Ils avaient abouti ici, dans un palais des congrès tentaculaire, où se tenaient normalement des foires commerciales organisées par l’industrie pharmaceutique ou des manifestations sportives, du type « Carnage dans la capitale : combats extrêmes en cage d’acier ».

 

À présent, les lieux étaient envahis par 2 000 lits de camp et une foule d’évacués, épuisés et mécontents. Des soldats de la Garde nationale à peine rentrés d’Irak patrouillaient, l’air crispé. Ce jour-là, une nouvelle courait parmi les réfugiés selon laquelle un éminent congressman républicain de la ville, Richard Baker, avait tenu les propos suivants : « Nous avons enfin nettoyé les loge ments sociaux de La Nouvelle-Orléans. Dieu a réussi là où nous avions échoué. » Joseph Canizaro, l’un des promoteurs immo biliers les plus riches de la ville, avait exprimé un point de vue similaire : « Nous disposons maintenant d’une page blanche pour tout recommencer depuis le début. De superbes occasions se présentent à nous. » Pendant toute la semaine, l’Assemblée légis lative de la Louisiane à Baton Rouge, la capitale, avait grouillé de lobbyistes s’employant à verrouiller les « occasions » en question. Au menu : réductions des charges fiscales, allégements de la réglementation, main-d’oeuvre au rabais et création d’une ville « plus petite et plus sûre » – ce qui en pratique revenait à la démolition des logements sociaux et à leur remplacement par des immeubles en copropriété.

    

 

À force d’entendre parler de « nouveaux débuts » et de « pages blanches », on en oubliait presque les cloaques toxiques, débordant de débris, de rejets industriels et de restes humains, qui croupissaient à quelques kilomètres de là. Au refuge, Jamar, lui, ne pensait à rien d’autre. « Pour moi, la ville n’a pas été nettoyée. Tout ce que je sais, c’est que des tas de gens sont morts dans les quartiers populaires. Des gens qui devraient être encore en vie aujourd’hui. » Jamar s’était exprimé calmement, à voix basse. Pourtant, devant nous, un vieil homme qui avait surpris notre conversation se retourna vivement : « À quoi est-ce qu’ils pensent, ces types de Baton Rouge ? Des “occasions” ? Quelles “occasions” ? C’est une foutue tragédie, oui. Ils sont aveugles ou quoi ? » Une femme accompagnée de ses deux enfants se joignit au choeur : « Non, ils ne sont pas aveugles. Ils sont juste mauvais. Ils voient parfaitement clair. » Parmi ceux pour qui les eaux de crue de La Nouvelle- Orléans étaient synonymes de « superbes occasions » se trouvait Milton Friedman, grand gourou du mouvement en faveur du capitalisme sans entraves. C’est à lui qu’on attribue la paternité du credo de l’économie mondialisée contemporaine, caractérisée par l’hypermobilité.

 

Âgé de 93 ans et de santé fragile, « Oncle Miltie », ainsi que l’appelaient ses partisans, trouva malgré tout la force d’écrire un article pour la page d’opinions du Wall Street Journal, trois mois après l’effondrement des digues : « La plupart des écoles de La Nouvelle-Orléans sont en ruine, faisait-il observer, au même titre que les maisons des élèves qui les fréquentaient. Ces enfants sont aujourd’hui éparpillés aux quatre coins du pays. C’est une tragédie. C’est aussi une occasion de transformer de façon radicale le système d’éducation. » L’idée radicale de Friedman se résume comme suit : au lieu d’affecter à la remise en état et au renforcement du réseau des écoles publiques de La Nouvelle-Orléans une partie des milliards de dollars prévus pour la reconstruction de la ville, le gouvernement devrait accorder aux familles des « bons d’études » donnant accès à des écoles privées (dont bon nombre à but lucratif) subventionnées par l’État. Il était essentiel, selon Friedman, que ce changement fondamental constitue non pas une solution provisoire, mais au contraire une « réforme permanente5 ». Des think tanks (groupes de réflexion) de droite s’emparèrent de l’idée et prirent la ville d’assaut. L’administration de George W. Bush appuya leurs projets et versa des dizaines de millions de dollars destinés à convertir les écoles de La Nouvelle- Orléans en « écoles à charte », c’est-à-dire en établissements subventionnés par l’État, mais administrés par des entités privées n’obéissant qu’à leurs propres règles. Les écoles à charte soulèvent la controverse aux États-Unis, plus particulièrement à La Nouvelle-Orléans, où de nombreux parents afro-américains voient en elles une façon détournée de balayer les acquis du mouvement pour les droits civiques, qui garantissent à tous les enfants l’accès à des services d’éducation égaux.

 

Aux yeux de Milton Friedman, cependant, l’idée même d’un réseau d’écoles administré par l’État empeste le socialisme. Pour lui, l’État a pour unique fonction « de protéger notre liberté contre ses ennemis extérieurs et contre nos concitoyens eux-mêmes : il fait régner la loi et l’ordre, il fait respecter les contrats privés, et il favorise la concurrence ». En d’autres termes, il s’agit de fournir les policiers et les soldats – tout le reste, y compris l’éducation publique gratuite, n’est qu’ingérence au sein des marchés. Contrairement à la réfection des digues et au rétablissement du réseau électrique, la vente aux enchères du réseau scolaire de La Nouvelle-Orléans s’effectua avec une rapidité et une précision toutes militaires. Dix-neuf mois après les inondations, alors que la plupart des pauvres de la ville étaient encore en exil, presque toutes les écoles publiques de La Nouvelle-Orléans avaient été remplacées par des écoles à charte exploitées par le secteur privé. Avant l’ouragan Katrina, le conseil scolaire comptait 123 écoles ; il n’en restait plus que 4. Il y avait alors 7 écoles à charte ; elles étaient désormais 317. Les instituteurs de La Nouvelle-Orléans étaient représentés par un syndicat puissant ; leur convention collective était dorénavant réduite en lambeaux, et les quelque 4 700 membres du syndicat licenciés. Certains jeunes instituteurs furent réembauchés par les nouvelles écoles à charte, où ils touchaient un salaire nettement inférieur qu’auparavant. Bien d’autres n’eurent pas cette chance.

 

Selon le New York Times, La Nouvelle-Orléans servait à présent de « principal laboratoire des écoles à charte », tandis que l’American Enterprise Institute, groupe de réflexion inféodé à Friedman, s’émerveillait : « Katrina a accompli en un jour […] ce que les réformateurs du système d’éducation ont été impuissants à faire malgré des années de travail. » Pendant ce temps, les instituteurs du réseau public, témoins du détournement des fonds alloués aux victimes de l’inondation – qu’on utilisait pour anéantir le réseau public et le remplacer par un réseau privé –, qualifièrent le projet de Friedman de « spéculation immobilière appliquée au monde de l’éducation ». J’appelle « capitalisme du désastre » ce type d’opération consistant à lancer des raids systématiques contre la sphère publique au lendemain de cataclysmes et à traiter ces derniers comme des occasions d’engranger des profits. L’intervention de Friedman sur La Nouvelle-Orléans contenait son ultime recommandation publique : en effet, il mourut moins d’un an plus tard, le 16 novembre 2006, à l’âge de 94 ans. La privatisation du réseau d’écoles publiques d’une ville américaine de taille moyenne peut passer pour un enjeu modeste, s’agissant d’un homme considéré comme l’économiste le plus influent de la deuxième moitié du siècle dernier. Friedman comptait parmi ses disciples quelques présidents des États-Unis, des premiers 15 ministres britanniques, des oligarques russes, des ministres des Finances polonais, des dictateurs du tiers-monde, des secrétaires du Parti communiste chinois, des administrateurs du Fonds monétaire international et les trois derniers chefs de la Réserve fédérale des États-Unis. Pourtant, sa détermination à profiter de la crise de La Nouvelle-Orléans pour faire progresser une version fondamentaliste du capitalisme signait à merveille les adieux de ce professeur énergique d’un mètre cinquante-sept à peine qui, dans ses jeunes années, s’était décrit lui-même « comme un prédicateur à la mode d’autrefois en train de prononcer le sermon du dimanche11 ». Pendant plus de trois décennies, Friedman et ses puissants disciples avaient perfectionné leur stratégie : attendre une crise de grande envergure, puis, pendant que les citoyens sont encore sous le choc, vendre l’État, morceau par morceau, à des intérêts privés avant de s’arranger pour pérenniser les « réformes » à la hâte. Dans l’un de ses essais les plus influents, Friedman définit le remède universel que propose le capitalisme moderne et énonce ce que j’en suis venue à considérer comme la « stratégie du choc ». « Seule une crise – réelle ou supposée – peut produire des changements, fait-il observer. Lorsqu’elle se produit, les mesures à prendre dépendent des idées alors en vigueur. Telle est, me semble-t-il, notre véritable fonction : trouver des solutions de rechange aux politiques existantes et les entretenir jusqu’à ce que des notions politiquement impossibles deviennent politiquement inévitables. »

 

En prévision de désastres, certains stockent les boîtes de conserve et les bouteilles d’eau ; les disciples de Friedman, eux, stockent des idées relatives au libre marché. En cas de crise, le professeur de l’université de Chicago était convaincu qu’il fallait intervenir immédiatement pour imposer des changements rapides et irréversibles à la société éprouvée par le désastre. Ce n’est qu’à cette condition qu’elle échapperait durablement à « la tyrannie du statu quo ». Selon Friedman, « un nouveau gouvernement jouit d’une période de six à neuf mois au cours de laquelle il peut opérer des changements fondamentaux. S’il n’en profite pas pour agir avec détermination, une telle occasion ne se représentera plus ». Variation sur un thème cher à Machiavel, selon qui le mal devait « se faire tout d’une fois », cette idée constitue l’un des legs stratégiques les plus durables de Friedman. C’est au milieu des années 1970, à l’époque où il conseillait le général Augusto Pinochet, dictateur chilien, que Friedman eut pour la première fois l’occasion d’exploiter un choc ou une crise de grande envergure. Au lendemain du violent coup d’État orchestré par Pinochet, les Chiliens étaient sans contredit en état de choc. De plus, le pays était aux prises avec les traumatismes causés par une hyperinflation galopante. Friedman conseilla à Pinochet de procéder aussitôt à une transformation en profondeur de l’économie – réductions d’impôts, libéralisation des échanges commerciaux, privatisation des services, diminution des dépenses sociales et déréglementation. Bientôt, les Chiliens virent même leurs écoles publiques remplacées par des écoles privées auxquelles donnaient accès des bons d’études. C’était la métamorphose capitaliste la plus extrême jamais tentée. On parla désormais de la révolution de l’« école de Chicago », de nombreux économistes de Pinochet ayant étudié à l’université de Chicago sous la direction de Friedman. Ce dernier prédit que la soudaineté et l’ampleur des changements économiques provoqueraient chez les citoyens des réactions psychologiques qui « faciliteraient l’ajustement14 ». Friedman créa l’expression « traitement de choc » pour parler de cette douloureuse tactique. Au cours des décennies suivantes, les gouvernements qui imposèrent de vastes programmes de libéralisation des marchés eurent justement recours au traitement de choc ou à la « thérapie de choc ». Pinochet, lui, facilita l’« ajustement » au moyen d’une autre forme de chocs : dans les nombreuses salles de torture du régime, les corps qui se convulsaient sous l’effet de la douleur étaient ceux des personnes les plus susceptibles de s’opposer à la transformation capitaliste.

 

En Amérique latine, nombreux sont ceux qui établirent un lien direct entre les chocs économiques qui se soldèrent par l’appauvrissement de millions de personnes et l’épidémie de tortures qui punirent dans leur chair des centaines de milliers de personnes qui rêvaient d’une autre forme de société. D’où la question posée par l’écrivain uruguayen Eduardo Galeano : « Comment préserver cette inégalité autrement que par des décharges électriques ? » Exactement trente ans après que ces trois formes de chocs eurent frappé le Chili, la formule reprend du service en Irak, de façon beaucoup plus violente. Il y eut d’abord la guerre, qui, selon les auteurs de la doctrine militaire des États-Unis Shock and Awe (parfois traduite par « choc et effroi »), avait pour but « de contrôler la volonté, les perceptions et la compréhension de l’adversaire et de le priver de toute capacité à agir et à réagir ». Vint ensuite la thérapie de choc économique, imposée, à l’heure où le pays brûlait toujours, par l’émissaire chef des États-Unis, L. Paul Bremer : privatisations massives, libre-échange sans restrictions, taux d’imposition uniforme de 15 %, réduction spectaculaire de l’appareil d’État. Le ministre du Commerce par intérim de l’Irak, Ali Abdel-Amir Allaoui, déclara à l’époque que ses compatriotes en avaient « assez de servir de cobayes à des expériences. Après tous les chocs auxquels le système a été soumis, ils n’ont pas du tout envie que l’économie subisse le même sort ». En cas de résistance, les Irakiens étaient arrêtés et jetés dans des prisons où leur corps et leur esprit subissaient d’autres chocs, ceux-ci beaucoup moins métaphoriques. C’est aux premiers jours de l’occupation de l’Irak par les États- Unis, il y a quatre ans, que je commençai à m’intéresser à la dépendance du libre marché à l’égard des chocs en tous genres. Après avoir rendu compte depuis Bagdad de la tentative avortée de Washington de faire suivre la phase « choc et effroi » de celle du traitement de choc, je me rendis au Sri Lanka, quelques mois après le tsunami dévastateur de 2004.

 

Là, je fus témoin d’une autre version de la même manoeuvre. En effet, des investisseurs étrangers et des prêteurs internationaux s’étaient ligués pour exploiter le climat de panique et céder le magnifique littoral à des entrepreneurs qui s’étaient empressés d’ériger de vastes stations balnéaires, empêchant ainsi des centaines de milliers de pêcheurs de reconstruire leurs villages au bord de l’eau : « Par un coup cruel du destin, la nature a offert au Sri Lanka une occasion unique. De cette grande tragédie est née une destination touristique d’exception », claironna le gouvernement. Lorsque l’ouragan Katrina s’abattit sur La Nouvelle-Orléans et que les politiciens, les groupes de réflexion et les promoteurs immobiliers républicains se mirent à parler de « page blanche » et d’occasions en or, il apparut clairement que telle était désormais la méthode privilégiée pour aider l’entreprise privée à réaliser ses objectifs : profiter des traumatismes collectifs pour opérer de grandes réformes économiques et sociales. La plupart des survivants d’une catastrophe souhaitent l’exact contraire d’une page blanche : ils veulent sauver tout ce qui peut l’être, remettre en état ce qui n’a pas été entièrement détruit et renforcer les liens qui unissent les citoyens aux lieux qui les ont façonnés. « En participant à la reconstruction de la ville, j’ai l’impression de me reconstruire moi-même », déclara Cassandra Andrews du Lower Ninth Ward, quartier lourdement endommagé de La Nouvelle-Orléans, en enlevant des débris au lendemain de la tempête. En revanche, rétablir l’ordre ancien n’intéresse nullement les tenants du capitalisme du désastre. En Irak, au Sri Lanka et à La Nouvelle-Orléans, on entreprit le processus faussement qualifié de « reconstruction » en parachevant le travail du cataclysme initial (guerre ou catastrophe naturelle) : on effaça les derniers vestiges de la sphère publique et des communautés profondément enracinées afin de les remplacer par une sorte de Nouvelle Jérusalem des grandes entreprises – le tout avant que les victimes n’eussent eu le temps de se ressaisir et d’affirmer leurs droits de propriété. Mike Battles résuma la situation à merveille : « La peur et le désordre nous ont admirablement servis. »

 

Âgé de 34 ans, l’ex-agent de la CIA faisait référence au chaos consécutif à l’invasion de l’Irak : malgré son inexpérience et sa nouveauté, son entreprise de sécurité, Custer Battles, profita de la situation pour arracher au gouvernement fédéral des contrats d’une valeur d’environ 100 millions de dollars21. Les propos de Battles pourraient servir de slogan au capitalisme du désastre – la peur et le désordre sont les moteurs du progrès. Lorsque j’entrepris mon enquête sur les liens entre mégaprofits et mégadésastres, je crus assister à une transformation radicale de la façon dont les marchés étaient « libérés » un peu partout dans le monde. Ayant fait partie du mouvement de lutte contre l’accroissement démesuré des pouvoirs du secteur privé qui avait été propulsé sur la scène internationale à Seattle en 1999, je connaissais bien les politiques, hautement favorables aux entreprises, qu’on imposait lors de sommets de l’Organisation mondiale du commerce ou encore comme conditions assorties aux prêts du Fonds monétaire international. Les trois exigences traditionnelles – privatisation, déréglementation et réduction draconienne des dépenses sociales – étaient en général très impopulaires auprès des citoyens, mais, au moment de la signature des accords, on pouvait au moins invoquer comme prétexte le consentement mutuel des gouvernements participant aux négociations et l’existence d’un consensus chez les prétendus experts. Désormais, on imposait le même programme idéologique par les moyens les plus ouvertement coercitifs qui soient : lors d’une occupation militaire étrangère ou encore dans le sillage immédiat d’une immense catastrophe naturelle.

 

Après les attentats du 11 septembre, Washington s’estima dispensé de demander aux pays concernés s’ils voulaient bien « du libre-échange et de la démocratie » à la mode états-unienne ; il recourut simplement à la force militaire inspirée de la doctrine « choc et effroi ». En réfléchissant à la progression de cette vision des marchés qui règne désormais un peu partout sur la planète, je me rendis toutefois compte que l’idée d’exploiter les crises et les désastres était le modus operandi du mouvement de Milton Friedman depuis ses débuts – de tout temps, cette forme de capitalisme fondamentaliste a dû compter sur les catastrophes pour progresser. Les catastrophes « facilitatrices » se font maintenant plus destructrices et plus horribles, sans doute, mais la situation observée en Irak et à La Nouvelle-Orléans n’est pas le fruit d’une nouvelle invention consécutive au 11 septembre. Au contraire, l’exploitation effrontée des crises est l’aboutissement de trois décennies d’application stricte de la stratégie du choc. Vues sous cette optique, les trente-cinq dernières années apparaissent sous un jour sensiblement différent. On avait jusque-là tendance à voir certaines des violations les plus flagrantes des droits de l’homme comme des actes sadiques dont se rendaient coupables des régimes antidémocratiques. En fait, il s’agissait plutôt de mesures prises dans le dessein de terroriser la population et de préparer le terrain à l’introduction de « réformes » radicales axées sur la libéralisation des marchés. Dans l’Argentine des années 1970, la junte fit « disparaître » 30 000 personnes, pour la plupart des militants de gauche, afin d’imposer les politiques de l’école de Chicago ; à la même époque, le Chili eut recours à la terreur pour accomplir sa métamorphose économique. Dans la Chine de 1989, le massacre de la place Tiananmen et l’arrestation de dizaines de milliers de personnes permirent aux communistes de transformer une bonne partie du pays en une gigantesque zone d’exportation, où travaillent des salariés trop terrifiés pour faire valoir leurs droits. Dans la Russie de 1993, la décision prise par Boris Eltsine de lancer les chars d’assaut contre le Parlement et de faire emprisonner les chefs de l’opposition pava la voie à la privatisation précipitée qui engendra les célèbres oligarques du pays. Au Royaume-Uni, la guerre des Malouines, survenue en 1982, eut le même effet : le désordre et l’élan nationaliste nés de la guerre permirent à Margaret Thatcher de recourir à une force extraordinaire pour étouffer la grève des mineurs du charbon et lancer la première vague de privatisations effrénées en Occident. En 1999, les bombardements de Belgrade par l’OTAN créèrent des conditions favorables à des privatisations rapides en ex-Yougoslavie – objectif du reste antérieur à la guerre. La politique économique ne fut pas le seul facteur à l’origine de ces conflits, bien sûr, mais chacun de ces chocs collectifs servit à préparer le terrain au traitement de choc économique. Les traumatismes ayant servi à affaiblir les résistances ne furent du reste pas toujours ouvertement violents.

  

En Amérique latine et en Afrique, dans les années 1980, c’est la crise de l’endettement qui obligea les pays « à privatiser ou à crever », selon la formule d’un ex-représentant du FMI22. Minés par l’hyperinflation et trop endettés pour dire non aux exigences dont s’assortissaient les nouveaux prêts, des gouvernements acceptèrent le traitement de choc dans l’espoir qu’il les préserverait de l’effondrement. En Asie, c’est la crise financière de 1997-1998 – presque aussi dévastatrice que la Grande Dépression – qui affaiblit les « tigres » asiatiques et les obligea à ouvrir leurs marchés à ce que le New York Times appela la « plus grande vente de faillite du monde23 ». Bon nombre de ces pays étaient des démocraties, mais les transformations radicales visant la libéralisation des marchés ne furent pas imposées de façon démocratique. En fait, ce fut exactement le contraire : conformément aux prévisions de Friedman, le climat de crise généralisée permettait de faire fi de la volonté des électeurs et de céder le pays aux « technocrates » de l’économie. Dans certains cas, bien entendu, l’adoption des politiques de libéralisation des marchés se fit de façon démocratique, quelques politiciens ayant été portés au pouvoir malgré des programmes draconiens : l’élection de Ronald Reagan aux États-Unis et, plus récemment, celle de Nicolas Sarkozy en France en constituent des exemples frappants. Dans de tels cas, cependant, les croisés du libéralisme économique se heurtent à l’opposition du public et doivent adoucir ou modifier leurs projets radicaux, accepter les changements à la pièce plutôt qu’une reconversion totale. On voit bien que le modèle économique de Friedman, s’il est en partie compatible avec la démocratie, a besoin de conditions totalitaires pour être imposé dans son expression la plus pure. Pour que le traitement de choc économique soit appliqué sans contrainte – comme ce fut le cas au Chili dans les années 1970, en Chine à la fin des années 1980, en Russie dans les années 1990 et aux États- Unis au lendemain des attentats du 11 septembre 2001 –, on doit compter sur un traumatisme collectif majeur, lequel entrave ou suspend provisoirement l’application des principes démocratiques. Cette croisade idéologique prit naissance au sein des régimes autoritaires d’Amérique du Sud ; dans les territoires nouvellement conquis – la Russie et la Chine –, elle cohabite encore aujourd’hui, sans difficulté et de façon rentable, avec un régime à la poigne de fer.

 

LA THÉRAPIE DE CHOC RENTRE AU BERCAIL

 

Depuis les années 1970, l’école de Chicago, sous la coupe de Friedman, ne cesse de conquérir de nouveaux territoires ; jusqu’à tout récemment, cependant, la vision de l’économiste n’avait encore jamais été pleinement appliquée dans son pays d’origine. Certes, Reagan avait réalisé des percées, mais les États-Unis conservaient l’assistance publique, la sécurité sociale et des écoles publiques, où les parents, pour reprendre les mots de Friedman, nourrissaient « un attachement irrationnel au socialisme24 ». Lorsque les républicains prirent le contrôle du Sénat, en 1995, David Frum, Canadien expatrié aux États-Unis et futur rédacteur de discours pour George W. Bush, était au nombre des « néoconservateurs » qui réclamaient pour les États-Unis une révolution économique inspirée de la stratégie du choc : « Voici, à mon avis, comment on devrait procéder : au lieu de sabrer çà et là dans les programmes, de façon graduelle, on devrait, en plein été, éliminer d’un seul coup trois cents programmes d’environ un milliard de dollars chacun. Les changements ne seraient peut-être pas spectaculaires, mais je vous jure que le message passerait. Et rien ne nous empêche de le faire tout de suite25. » À l’époque, Frum ne put faire imposer le traitement de choc dont il rêvait pour les États-Unis, notamment parce qu’aucune crise ne vint préparer le terrain. Puis, en 2001, la situation changea du tout au tout : au moment des attentats du 11 septembre, la Maison-Blanche était pleine à craquer de disciples de Friedman, dont son grand ami Donald Rumsfeld. L’équipe de Bush profita de cet instant de vertige collectif avec une ahurissante célérité – non pas parce que l’administration avait sournoisement orchestré la crise, comme certains le laissaient entendre, mais bien parce que les principaux ténors de cette administration, vétérans de l’imposition du capitalisme du désastre en Amérique latine et en Europe de l’Est, appelaient une crise de tous leurs voeux, de la même façon que les agriculteurs frappés par une sécheresse implorent la pluie de tomber et que les sionistes chrétiens, convaincus que la fin du monde est proche, rêvent du jour du Ravissement.

 

Quand arrive le désastre tant attendu, ils savent que leur heure est enfin venue. Pendant trois décennies, Friedman et ses disciples exploitèrent de façon méthodique les chocs subis par d’autres pays – pendants, à l’étranger, du 11 septembre 2001, à commencer par le coup d’État de Pinochet du 11 septembre 1973. À partir de la chute des tours jumelles, l’idéologie née dans des universités américaines et nourrie par les grandes institutions de Washington eut enfin l’occasion de rentrer au bercail. L’administration Bush profita de la peur suscitée par les attentats non seulement pour lancer sans délai la « guerre contre le terrorisme », mais aussi pour faire de cette dernière une entreprise presque entièrement à but lucratif, une nouvelle industrie florissante qui insuffla un dynamisme renouvelé à une économie chancelante. C’est ce qu’il convient d’appeler le « complexe du capitalisme du désastre », entité tentaculaire beaucoup plus vaste que le complexe militaro-industriel contre lequel Dwight Eisenhower avait mis les Américains en garde à la fin de sa présidence : on a ici affaire à une guerre totale, menée à tous les niveaux par des sociétés privées dont les interventions sont financées à même les fonds publics. Ces dernières ont pour mandat perpétuel de protéger le sol américain tout en éliminant le « mal » là où il se manifeste à l’extérieur. Au bout de quelques années seulement, le complexe a déjà pénétré de nouveaux marchés : ne se contentant plus de lutter contre le terrorisme, il participe à des missions internationales de maintien de la paix, organise des polices municipales et répond aux catastrophes naturelles, de plus en plus fréquentes. L’objectif ultime des grandes sociétés qui forment le coeur du complexe, c’est d’introduire le modèle du gouvernement à but lucratif – qui progresse rapidement dans des circonstances extraordinaires – dans le fonctionnement ordinaire, au jour le jour, de l’État. Autrement dit, il s’agit de privatiser le gouvernement. Pour stimuler le complexe du capitalisme du désastre, l’administration Bush externalisa, sans débat public, bon nombre des fonctions les plus délicates du gouvernement, de la prestation de soins de santé aux soldats aux interrogatoires de prisonniers, en passant par la collecte et l’analyse en profondeur (data mining) de données sur chacun d’entre nous.

 

Dans le contexte de cette guerre sans fin, le gouvernement agit non pas comme l’administrateur d’un réseau de fournisseurs, mais plutôt comme un investisseur de capital-risque à la bourse bien garnie qui fournit au complexe les fonds d’amorçage dont il a besoin et devient le principal client de ses services. Voici quelques chiffres qui donnent une idée de l’ampleur de la transformation : en 2003, le gouvernement des États-Unis passa 3 512 marchés avec des sociétés chargées d’exécuter des fonctions liées à la sécurité ; au cours de la période de 22 mois ayant pris fin en août 2006, la Sécurité intérieure (Department of Homeland Security) attribua à elle seule plus de 115 000 contrats du même ordre. L’industrie de la sécurité intérieure au sens large – d’une importance économique négligeable avant 2001 – vaut aujourd’hui 200 milliards de dollars. En 2006, les dépenses du gouvernement des États-Unis dans le domaine de la sécurité se chiffraient à environ 545 $ par foyer. Et il n’est ici question que de la guerre au terrorisme en sol américain. Les gros bénéfices viennent des guerres menées à l’étranger. Sans tenir compte des fournisseurs d’armements, dont les profits ont monté en flèche grâce à la guerre en Irak, la prestation de services à l’armée des États-Unis est aujourd’hui l’une des économies tertiaires qui connaît la croissance la plus rapide au monde. « Jamais deux pays ayant des restaurants McDonald sur leur territoire ne se sont fait la guerre », écrivit avec assurance le chroniqueur du New York Times Thomas Friedman, en décembre 1996. Les événements lui donnèrent tort deux ans plus tard.

 

De plus, en vertu du modèle de la guerre à but lucratif, l’armée américaine part désormais en campagne avec Burger King et Pizza Hut dans son sillage. Ces entreprises exploitent en effet des franchises destinées aux soldats américains dans des bases militaires, en Irak comme dans la « mini-ville » de Guantánamo Bay. Il ne faut pas oublier non plus l’effort de reconstruction et d’aide humanitaire. Peu après leur apparition en Irak, la reconstruction et le secours à but lucratif constituent déjà le nouveau paradigme mondial, que la destruction initiale résulte d’une guerre préemptive, comme l’attaque lancée par Israël contre le Liban en 1996, ou d’un ouragan. Comme les ressources se font rares et que le changement climatique provoque un flot ininterrompu de nouvelles catastrophes, les interventions d’urgence représentent un marché émergent trop prometteur pour qu’on l’abandonne aux seules organisations caritatives. Pourquoi l’UNICEF devrait-elle reconstruire des écoles quand Bechtel, l’une des plus grandes sociétés d’ingénierie des États-Unis, peut s’en charger ? Pourquoi installer les personnes déplacées du Mississippi dans des logements sociaux vacants quand on peut les loger dans des paquebots de Carnival ? Pourquoi déployer des casques bleus de l’ONU au Darfour lorsque des entreprises de sécurité privées comme Blackwater sont à la recherche de nouveaux clients ? C’est d’ailleurs ce qui a changé au lendemain des attentats du 11 septembre : auparavant, guerres et catastrophes offraient des débouchés à un secteur restreint de l’économie – les fabricants d’avions de chasse, par exemple, ou encore les entreprises de construction chargées de rebâtir les ponts bombardés. Les guerres avaient pour rôle principal d’ouvrir de nouveaux marchés jusque-là inaccessibles et, une fois la paix revenue, de générer des booms économiques. De nos jours, les interventions en cas de guerre et de catastrophe sont à ce point privatisées qu’elles constituent en soi le nouveau marché. Pour le boom, inutile d’attendre la fin de la guerre. Le médium, c’est le message.

 

L’un des avantages propres à cette approche postmoderne, c’est que, du point de vue commercial, elle ne peut pas échouer. Comme le fit remarquer un analyste des marchés à propos des gains réalisés par Halliburton, entreprise de services énergétiques, au cours d’un trimestre particulièrement rentable : « L’Irak a donné de meilleurs résultats que prévu. » C’était en octobre 2006, jusque-là le mois le plus meurtrier de la guerre : on avait dénombré 3 709 victimes chez les civils irakiens. Pourtant, rares étaient les actionnaires qui ne se montrèrent pas impressionnés par une guerre qui, pour cette seule société, avait généré des revenus de vingt milliards de dollars. De tous ces éléments – commerce des armes, soldats privés, reconstruction à but lucratif, industrie de la sécurité intérieure et traitement de choc administré par l’équipe de Bush au lendemain des attentats du 11 septembre –, il émerge une économie nouvelle redéfinie de A à Z. Née sous le règne de Bush, elle jouit désormais d’une existence indépendante de toute administration et demeurera solidement en place jusqu’au jour où l’idéologie des suprématistes du secteur privé sera reconnue pour ce qu’elle est, en proie à l’isolement et à la contestation. Bien que dominé par des sociétés américaines, le complexe est mondialisé : des entreprises britanniques mettent à profit leur expérience dans le domaine des caméras de surveillance, désormais omniprésentes ; des sociétés israéliennes exploitent leur expertise dans la construction de clôtures et de murs de haute technologie ; l’industrie canadienne du bois d’oeuvre vend des maisons préfabriquées à un prix plusieurs fois supérieur à celui des maisons produites localement, et ainsi de suite. « À ma connaissance, personne n’avait encore considéré les efforts de reconstruction consécutifs à une catastrophe en tant que marché immobilier à part entière, dit Ken Baker, PDG d’un groupe industriel forestier du Canada. C’est pour nous une stratégie de diversification à long terme. »

 

Du point de vue de son ampleur, le complexe du capitalisme du désastre vaut bien le « marché émergent » et les progressions enregistrées par les technologies de l’information dans les années 1990. En fait, certains initiés déclarent que les marchés conclus sont encore plus intéressants qu’aux beaux jours des « point com » et que la « bulle de la sécurité » occupe le terrain abandonné à la suite de l’éclatement des bulles antérieures. Assorties des profits astronomiques de l’industrie des assurances (qui, en 2006, devraient avoir atteint un seuil record de 60 milliards de dollars aux États-Unis seulement) comme des superprofits de l’industrie pétrolière (qui croissent à chaque nouvelle crise), l’économie du désastre a peut-être sauvé les marchés mondiaux de la menace de récession complète qui pesait sur eux à la veille du 11 septembre 2001. Lorsqu’on cherche à reconstituer l’histoire de la croisade idéologique ayant conduit à la privatisation radicale des guerres et des catastrophes, un problème surgit : l’idéologie en question est un caméléon qui change sans cesse de nom et d’identité. Friedman se qualifiait de « libéral », tandis que ses disciples américains, qui associaient ce vocable aux impôts et aux hippies, se considéraient plutôt comme des « conservateurs », des « économistes classiques », des « tenants du libre marché » et, plus tard, comme des partisans de la Reaganomics ou du « laisser-faire ». Dans la majeure partie du monde, leur orthodoxie est connue sous le nom de « néolibéralisme », même si on parle souvent de « libre-échange » ou simplement de « mondialisation ».

 

Ce n’est que depuis le milieu des années 1990 que le mouvement intellectuel, sous l’impulsion des groupes de réflexion de droite auxquels Friedman fut longtemps associé – la Heritage Foundation, le Cato Institute et l’American Enterprise Institute –, s’autodésigne au moyen de l’expression « néoconservateur », vision du monde en vertu de laquelle toute la puissance de l’armée américaine est mise au service des entreprises privées. Dans toutes ces incarnations, cette idéologie suppose l’adhésion à la trinité stratégique – élimination de la sphère publique, déréglementation totale des entreprises et réduction draconienne des dépenses publiques –, mais aucun des noms qu’elle a empruntés ne semble lui convenir tout à fait. Friedman considérait son mouvement comme une tentative de libérer les marchés du joug de l’État, mais les résultats obtenus, lorsque sa vision puriste en passe par l’épreuve des faits, sont d’un tout autre ordre. Dans tous les pays où les politiques inspirées de l’école de Chicago ont été appliquées au cours des trois dernières décennies, on a assisté à la formation d’une puissante alliance entre de très grandes sociétés et des politiciens pour la plupart riches – les lignes de démarcation entre les uns et les autres demeurant floues et changeantes. En Russie, on appelle « oligarques » les milliardaires qui font partie de cette élite régnante ; en Chine, ce sont les « principicules » ; au Chili, les « piranhas » ; pendant la campagne électorale Bush-Cheney, les « pionniers ».

 

Loin de soustraire les marchés aux griffes de l’État, ces membres de l’élite politique et commerciale se contentent de fusionner leurs activités et de s’échanger des faveurs afin de s’approprier les précieuses ressources qui appartenaient jusque-là au domaine public – des champs pétrolifères de la Russie aux terres collectives de la Chine en passant par l’octroi (sans appels d’offres) de contrats pour la reconstruction en Irak. Le mot qui convient le mieux pour désigner un système qui gomme les frontières entre le Gouvernement avec un G majuscule et l’Entreprise avec un E majuscule n’est ni « libéral », ni « conservateur », ni « capitaliste ». Ce serait plutôt « corporatiste ». Il se caractérise au premier chef par d’immenses transferts de ressources publiques vers le secteur privé, démarche qui s’accompagne souvent d’une explosion de l’endettement, d’un accroissement de l’écart entre les riches à outrance et les pauvres sans importance et d’un nationalisme exacerbé qui justifie des dépenses colossales dans le domaine de la sécurité. Pour ceux qui font partie de la bulle d’extrême richesse ainsi créée, il n’y a pas de moyen plus rentable d’organiser la société. Étant donné les désavantages manifestes pour la vaste majorité des citoyens, condamnés à rester en marge, l’État corporatiste doit adopter d’autres tactiques : le resserrement de la surveillance (le gouvernement et les grandes sociétés s’échangeant une fois de plus des faveurs et des contrats), le recours massif aux emprisonnements, le rétrécissement des libertés civiles et, souvent (mais pas toujours), la torture.


LA TORTURE COMME MÉTAPHORE


Du Chili à la Chine en passant par l’Irak, la torture a été le partenaire silencieux de la croisade mondiale en faveur de la libéralisation des marchés. Cependant, elle n’est pas qu’un simple moyen utilisé pour forcer des citoyens rebelles à accepter des politiques dont ils ne veulent pas. On peut aussi y voir une métaphore de la logique qui sous-tend la stratégie du choc. La torture, ou l’« interrogatoire coercitif » comme on l’appelle à la CIA, est un ensemble de techniques conçues pour plonger les prisonniers dans un état de choc et de désorientation grave et les forcer à faire des concessions contre leur gré. La logique de la méthode est exposée dans deux manuels de l’agence qui ont été déclassifiés à la fin des années 1990. On y explique que la façon de vaincre les résistances des « récalcitrants » consiste à provoquer une fracture violente entre le prisonnier et sa capacité à comprendre le monde qui l’entoure. D’abord, on « affame » les sens (au moyen de cagoules, de bouchons d’oreilles, de fers et de périodes d’isolement total) ; ensuite, le corps est bombardé de stimuli (lumières stroboscopiques, musique à tue-tête, passages à tabac, électrochocs). Cette phase d’« assouplissement » a pour but de provoquer une sorte d’ouragan dans la tête des prisonniers, qui régressent et ont peur au point de perdre toute capacité à penser de façon rationnelle et à protéger leurs intérêts.

 

C’est dans cet état de choc que la plupart des détenus donnent à leurs interrogateurs ce qu’ils veulent – des informations, des aveux, l’abandon d’anciennes croyances. On trouve dans un des manuels de la CIA une explication particulièrement succincte : « Il existe un intervalle – parfois extrêmement bref – d’apathie, de choc ou de paralysie psychologique. Cet état est causé par un traumatisme ou un traumatisme secondaire qui fait en quelque sorte voler en éclats le monde familier du sujet et l’image qu’il a de lui-même. Les interrogateurs chevronnés reconnaissent ce moment et savent que le sujet est alors plus ouvert à la suggestion et beaucoup plus susceptible de coopérer qu’avant le choc. » La stratégie du choc imite la démarche en tentant de reproduire, à l’échelle d’une société, les résultats obtenus avec un seul détenu dans une cellule de prison. À cet égard, l’exemple le plus probant est le choc du 11 septembre, qui, pour des millions de personnes, fit voler en éclats le « monde familier ». Il déclencha du même coup une période de désorientation et de régression que l’administration Bush exploita de main de maître. Soudain, nous nous retrouvions en quelque sorte en l’an zéro. Tout ce que nous savions du monde relevait d’« avant » la catastrophe. Nous, les Nord- Américains, qui de toute façon connaissions mal notre histoire, formions désormais un État vierge, une « feuille blanche » sur laquelle « on peut écrire les mots les plus beaux et les plus nouveaux », ainsi que Mao le dit à propos de son peuple. Une nouvelle armée de spécialistes se chargea aussitôt d’écrire des mots beaux et nouveaux sur la table rase de notre conscience traumatisée : « choc des civilisations », « axe du mal », « islamo-fascisme », « sécurité intérieure ».

 

Pendant que les citoyens étaient mobilisés par de nouvelles guerres culturelles aux conséquences mortelles, l’administration Bush accomplit ce dont elle n’aurait pu que rêver sans les attentats du 11 septembre : lancer des guerres privatisées à l’étranger et créer un complexe de la sécurité assujetti au contrôle du privé à l’intérieur des frontières des États-Unis. Voici donc comment fonctionne la stratégie du choc : le désastre déclencheur – le coup d’État, l’attentat terroriste, l’effondrement des marchés, la guerre, le tsunami, l’ouragan – plonge la population dans un état de choc collectif. Le sifflement des bombes, les échos de la terreur et les vents rugissants « assouplissent » les sociétés, un peu comme la musique tonitruante et les coups dans les prisons où se pratique la torture. À l’instar du prisonnier terrorisé qui donne le nom de ses camarades et renie sa foi, les sociétés en état de choc abandonnent des droits que, dans d’autres circonstances, elles auraient défendus jalousement. Jamar Perry et les autres évacués entassés dans le refuge de Baton Rouge devaient renoncer à leurs logements sociaux et à leurs écoles publiques. Après le tsunami, les pêcheurs sri-lankais devaient céder aux hôteliers leurs précieuses terres du bord de la mer. Si tout s’était passé comme prévu, les Irakiens, eux, auraient dû être sous le coup du choc et de l’effroi au point d’abandonner aux bases militaires américaines et aux zones vertes la maîtrise de leurs réserves de pétrole, de leurs sociétés d’État et de leur souveraineté.


LE GROS MENSONGE

 

Dans le déluge de mots écrits en hommage à Milton Friedman après sa mort, on souligna à peine l’importance que revêtent les chocs et les crises pour l’avancement de sa vision du monde. Le décès de l’économiste fut plutôt l’occasion de récrire l’histoire officielle et de rappeler que le capitalisme radical qu’il prônait faisait désormais figure d’orthodoxie gouvernementale dans presque tous les coins du monde. C’était un véritable conte de fées, débarrassé des violences et des contraintes si intimement mêlées à cette croisade. Elle représente à n’en pas douter la campagne de propagande la mieux réussie des trois dernières décennies. L’histoire va comme suit.

 

Pendant toute sa vie, Friedman livra une pacifique bataille d’idées à ceux qui soutenaient que les gouvernements avaient la responsabilité d’intervenir au sein des marchés afin d’en émousser les aspérités. Il était d’avis que l’Histoire avec un grand H avait « commencé du mauvais pied » lorsque des politiciens avaient prêté l’oreille à John Maynard Keynes, l’intellectuel à l’origine du « New Deal » et de l’État-providence moderne. À la suite du krach de 1929, un solide consensus avait émergé: le laisser-faire était un échec et les gouvernements avaient l’obligation d’intervenir dans l’économie afin de redistribuer la richesse et de réglementer les entreprises. Pendant ces années sombres pour la doctrine du laisser-faire – durant lesquelles le communisme faisait la conquête de l’Est, que l’Occident misait sur l’État-providence et que le nationalisme économique s’enracinait dans le Sud post-colonial -, Friedman et son maître à penser, Friedrich Hayek, entretinrent patiemment la flamme du capitalisme à l’état pur en la défendant contre les tentatives keynésiennes de mettre les richesses en commun pour créer des sociétés plus justes.

 

« Selon moi, écrivait Friedman dans une lettre adressée à Pinochet en 1975, l’erreur principale fut de croire qu’il était possible de faire le bien avec l’argent des autres. » Peu l’écoutèrent; la plupart des gens étaient d’avis que les gouvernements pouvaient et devaient faire le bien. Dans un article dédaigneux du magazine Time de 1969, on décrivit Friedman comme un « lutin ou un enquiquineur », un prophète adulé par une poignée d’élus. Friedman passa donc des décennies dans une sorte d’exil intellectuel. Vinrent enfin les années 1980 et les règnes de Margaret Thatcher (qui qualifia l’économiste de « combattant pour la liberté intellectuelle »), et de Ronald Reagan (qu’accompagnait, pendant la campagne présidentielle, un exemplaire de Capitalisme et liberté, véritable manifeste de Friedman). Enfin, des dirigeants politiques avaient le courage d’imposer dans le vrai monde des marchés libres de toute entrave. Selon cette histoire officielle, la libéralisation pacifique et démocratique de leurs marchés respectifs par Reagan et Thatcher fut suivie d’une période de prospérité et de liberté si enviables que, au moment de l’effondrement des dictatures, de Manille à Berlin, les masses exigèrent la doctrine économique de Reagan en plus de leurs Big Macs.

 

Lorsque l’Union soviétique s’effondra enfin, les habitants de l’ »Empire du mal » se montrèrent eux aussi empressés de participer à la révolution ourdie par Friedman, au même titre que les communistes devenus capitalistes de la Chine. Plus rien ne s’opposait donc à la création d’un véritable marché mondial, au sein duquel les entreprises nouvellement libérées auraient les coudées franches à l’intérieur de leurs pays respectifs, et, de surcroît, seraient libres de franchir les frontières sans contraintes et de répandre la prospérité partout dans le monde. Concernant le fonctionnement de la société, un double consensus s’affirmait à présent: il convenait que les dirigeants politiques fussent élus et que les économies fussent administrées selon les préceptes de Friedman. C’était, ainsi que l’écrivit Francis Fukuyama, « la fin de l’histoire », « le point final de l’évolution idéologique de l’humanité ». Au moment de la mort de Friedman, on écrivit dans le magazine Fortune qu’il « avait entraîné à sa suite la marée de l’histoire ». Le Congrès des États-Unis adopta une résolution dans laquelle Friedman était présenté comme « l’un des plus grands défenseurs de la liberté, non seulement dans le domaine économique, mais sur tous les plans ». Le gouverneur de la Californie, Arnold Schwarzenegger, fit du 29 janvier 2007 la « journée Milton Friedman » dans tout l’État, et plusieurs villes, petites ou grandes, l’imitèrent. Un titre du Wall Street Journal résuma à merveille ce récit épuré: « Monsieur Liberté ».


De Naomi Klein, "La stratégie du choc".

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Ouvrages et filmographies
28 août 2012 2 28 /08 /août /2012 18:09

La rhétorique de la crise empêche de saisir les recompositions à l'œuvre au sein de la société française. En filigrane des mutations contemporaines, on peut pourtant saisir le modèle d'une société incertaine, prise entre la généralisation d'un principe d'autonomie et une demande de sécurité accrue.

 

incertitude.jpg

 

Il est devenu banal de le constater : la société française a connu de profonds changements au cours de ces trente dernières années. Elle manifeste pourtant bien des difficultés à penser ses propres transformations autrement que par l'actualisation de ses défections. D'où ce paradoxe : interpréter dans leur globalité les mutations sociologiques et politiques qui travaillent la France contemporaine n'a jamais semblé aussi délicat, voire périlleux. C'est ce paradoxe que nous voudrions contribuer à dénouer en mettant l'accent sur l'incertitude comme forme sociale et enjeu stratégique.

  

Ce que la crise nous cache

 

Les lectures si fréquentes en termes de crise, de déclin ou de manque sont à bien des égards l'expression d'une incapacité à penser le monde complexe, opaque et incertain dans lequel nous vivons aujourd'hui. Il nous semble en effet qu'elles procèdent d'un réflexe quasi naturel de la pensée (chaque époque produit sa littérature de la décadence) qui incline à la déploration et à l'inquiétude en renvoyant souvent à un âge d'or plus ou moins révolu. Or elles ratent l'essentiel : en majorant ce qui se défait ou se déforme, on ne voit pas (ou pas assez) ce qui se restructure ailleurs et autrement, ou, plus profondément, le lien entre ces deux mouvements.

 

De ce point de vue, deux lignes de transformation se conjuguent. La première pourrait être caractérisée par la fragmentation. Nous vivions dans une société qui articulait les mondes du travail, les grandes familles politiques et les styles de vie dans une même représentation. Le travail salarié qui en était le pivot assurait une continuité du social au politique, et du public au privé, dans l'expression des conflits sociaux, la construction des identités collectives et des modèles sexués. L'Etat-nation en était la clé de voûte en embrassant un type d'organisation politique, une identité culturelle et un espace de souveraineté. Or c'est cet agencement qui se défait aujourd'hui. Les représentations d'un espace social structuré autour de classes aux intérêts et aux styles de vie opposés se sont érodées. Le travail a perdu son rôle de « grand intégrateur » et sa capacité à donner sens aux identités collectives. Les sociétés nationales ont perdu leur légitimité, menacées par la globalisation d'un côté, la territorialisation de l'autre. Dès lors, c'est tout le socle de nos repères collectifs qui vacille.


Un processus de fragmentation est aussi à l'oeuvre dans les différents domaines de la vie sociale : à la multiplication des formes particulières d'emplois vient répondre la diversification des univers familiaux ; au pluralisme familial s'ajoute la multiplication des « marchés » scolaires. Il en va de même des grandes villes en proie à des processus de ségrégation et des logiques de séparation. Dans ce contexte, on a assisté à la multiplication des identités (culturelles, religieuses, sexuées, générationnelles ou territoriales), ainsi qu'à une « communautarisation » des conflits sociaux.

 

Pour autant, ces processus ne doivent pas masquer les recompositions à l'oeuvre. Si on évoque de façon récurrente la disparition des classes sociales et de leurs conflits, on observe néanmoins une accentuation et une dispersion des inégalités sociales qui engendrent un profond sentiment d'injustice et alimentent une forte demande de reconnaissance. Loin d'avoir disparu de la scène sociale, l'action collective et la contestation se manifestent aujourd'hui autour de nouveaux enjeux et de nouveaux acteurs, qu'il s'agisse de la mobilisation des chômeurs, des sans-papiers, des sans-logis, ou encore de l'activisme des réseaux antimondialisation. Face à l'annonce de la « fin du travail », on constate l'émergence de formes nouvelles de salariat et de relations d'emploi qui s'appuient toujours plus sur l'initiative et le sens des responsabilités individuelles. A la vulnérabilité et à l'exclusion des uns répondent alors l'intensification du travail et l'optimisation du potentiel des salariés pour les autres. Si la thèse de la « désinstitutionnalisation » n'est pas sans fondement, on assiste également à un réagencement des représentations, des normes et des valeurs de la famille ou de l'école, toutes deux mises à l'épreuve de la diversification et de la complexité des trajectoires. Il y a bien recomposition dès lors que l'on définit en termes de risques (divorce, échec scolaire, etc.) ce qui était appréhendé jusqu'alors en termes de déviances.

  

Les dimensions de l'incertitude

 

L'incertitude résulte de ces processus de fragmentation/ recomposition et des logiques contradictoires qui travaillent notre société en profondeur. En d'autres termes, l'incertitude se présente à bien des égards comme un prisme pour interpréter les mutations de la France contemporaine. La famille devient incertaine dès lors que « le seul devoir de chacun est de choisir son bonheur » (Louis Roussel) ; l'individu, l'école, la représentation politique, entre autres, basculent aussi dans l'incertitude. Sous cet éclairage, « incertitude » désigne au moins trois processus, enchevêtrés :

 

1) la faillite du mythe du progrès et les désillusions du changement ;

 

2) l'opacité du social et la complexité d'un monde qu'on ne peut plus penser dans les catégories d'hier et sur lequel on ne peut pas davantage agir comme avant ;

 

3) un changement social pathologique où les exigences pesant sur l'individu ne sont pas articulées au politique et interviennent dans un environnement économique dépressif. Mais ce qui est en jeu, c'est aussi l'incertitude politique d'une société qui peine à se gouverner et à maintenir la légitimité de ses institutions et représentants.

 

Il faudrait distinguer plus qu'on ne peut le faire ici plusieurs dimensions ou figures de l'incertitude. A commencer par l'incertitude du temps : plus que jamais, l'avenir semble incertain et contradictoirement ouvert ; tout est possible, tout peut arriver. Il en résulte une profonde modification de notre rapport au temps. Si jadis les pesanteurs du présent trouvaient à se dissiper dans le scénario d'une possible libération dans l'avenir, aujourd'hui le repli sur le présent domine alors que l'avenir est gros de menaces : chômage, retraite, situation du service public, santé publique, menaces écologiques, etc. Mais c'est aussi l'incertitude normative qui caractérise nos sociétés d'individualisme de masse : c'est moins à la dissolution des repères que nous sommes confrontés qu'à une mutation normative. Aux modèles fondés sur l'obéissance et l'interdit est venu se substituer le modèle de l'autonomie et du souci de soi. Faire preuve d'autonomie, s'investir dans des projets, manifester son sens des responsabilités, prendre des risques : voilà ce qui nous est demandé. D'où, aussi, la montée des vulnérabilités individuelles.

 

L'incertitude, la démotivation, la dépression constituent bien l'envers du gouvernement de soi. Ce double processus travaille les différentes dimensions de l'expérience sociale, qu'il s'agisse de la vie familiale et scolaire, des loisirs et du sport, ou encore de la participation aux institutions et à la vie locale. Mais il faudrait aussi mentionner l'incertitude juridique, avec une opacité des textes et des procédures, qui rend plus problématique l'accès aux droits (sociaux et civils) et fabrique des situations indécidables ; l'incertitude, également, des politiques publiques dont les politiques de la ville sont un bon révélateur. Force est de constater que ces politiques n'ont pas eu les effets escomptés, tant sur le plan urbain (dégradation du cadre bâti, accentuation des processus de ségrégation) que social (augmentation du taux de chômage, de la précarité) et économique (faible implantation d'entreprises ou emprise sur le bassin d'emploi local).

 

Il s'agit d'une politique difficile à mener et à lire. Elle fait, en effet, intervenir une multiplicité d'institutions et d'acteurs. Elle se caractérise aussi par la complexité des dispositifs et des procédures dont la visibilité auprès des principaux concernés, à savoir les habitants, est souvent faible, et les résultats, « indécidables ».

 

L'incertitude est également une dimension fondamentale de l'individualité contemporaine. Disons, sommairement, que nous sommes dans une société où l'individu a gagné en liberté ce qu'il a perdu en certitudes. D'un côté, en effet, le "je" s'émancipe du "nous" à mesure que l'individu dispose de moyens accrus (consommation, mobilité, communication, etc.) pour se réaliser et accomplir ce qui se présente comme son destin personnel. Mais d'un autre côté, il évolue aussi dans un univers où les règles sont devenues plus floues ou plus instables.

  

Autonomie et sécurité : une tension structurante

 

C'est le cas, par exemple, dans le monde de l'entreprise et du travail salarié qui a su retourner la critique sociale des années 1960-1970 pour inscrire l'aspiration à l'émancipation et à l'autonomie individuelles dans un processus continu de réorganisation de l'emploi. Dans l'entreprise flexible et décloisonnée que promeut le discours managérial, le salarié ne doit plus ? ou plus seulement ? obéir et suivre des règles prescrites : invité à s'affranchir des routines professionnelles ou des griffes d'une hiérarchie pesante, il doit en revanche être impliqué, adaptable et réactif pour atteindre coûte que coûte les objectifs qui lui sont assignés.

  

Il ne faut donc pas se méprendre sur le sens de l'autonomie individuelle, souvent associée à un individualisme corrosif, synonyme de repli sur soi, voire de montée des égoïsmes. L'autonomie se présente en fait sous un jour paradoxal : c'est à la fois une aspiration largement partagée (développer son propre style de vie, vivre « à la carte ») et une norme très contraignante qui impose à chacun, dans toutes les sphères de la vie sociale, de se prendre en charge et d'être « l'auteur de sa vie ». Cette exigence place les individus dans une situation anxiogène dès lors que chacun ne dispose pas des mêmes ressources pour faire face au changement ou pour agir et réagir en stratège avisé. Il s'ensuit que notre société est travaillée par une tension forte entre une exigence croissante d'autonomie et une demande de sécurité, d'autant plus pressante, d'ailleurs, que les mutations de l'environnement économique et social, de même que l'ouverture de nos sociétés sur le vaste monde, attisent les inquiétudes.

  

Là se nouent finalement les principales contradictions sociales et politiques du moment : valorisation de l'individu mais fragilisation des supports sociaux d'un côté ; une demande de protection qui intervient tandis que l'Etat joue un moindre rôle en tant qu'opérateur économique et social de l'autre. Aujourd'hui, la victimisation et l'émergence d'une société « contentieuse » sont le reflet de cette contradiction : se poser en victime est en effet devenu une autre façon de solliciter aide et protection, qui signale les limites des réponses étatiques.

  

L'exploitation idéologique du risque

 

Comment résoudre cette tension entre un élargissement du champ des possibles dans tous les domaines de la vie sociale et une demande accrue de sécurité ? sanitaire, publique, sociale, etc. ? Au fond, chacun sollicite les autorités ou se pose en victime de leur impéritie, mais chacun aspire aussi à vivre sa vie, en quelque sorte, à sa guise. Autrement dit, les individus en appellent de plus en plus à un Etat dont ils cherchent par ailleurs à se déprendre. Telle est bien la nouvelle donne qui complique singulièrement l'équation politique. C'est dans ce contexte que l'on voit émerger progressivement un nouveau mode de gestion politique de l'incertitude sociale, dont les manifestations sont plurielles.

 

On peut noter à cet égard la généralisation du procédé contractuel dans l'élaboration et la mise en oeuvre de l'action publique. Cette évolution du système normatif signale bien l'émergence de nouvelles logiques d'action de l'Etat. La contractualisation est en effet une technique qui permet de gérer la complexité et l'incertitude sociales ; c'est une technique qui reconnaît et qui valorise l'autonomie, mais à condition qu'elle s'inscrive là où elle a sa place : dans une procédure définie au préalable ou dans les clauses d'un contrat ? celui que signe par exemple le contrat social, la collectivité locale, tel ou tel service de l'administration. Comme l'entreprise dont il s'inspire, l'Etat substitue ainsi une logique de contrôle à une logique disciplinaire, devenue improductive. Le succès du vocable « gouvernance », forgé initialement dans le monde de l'entreprise et diffusé désormais dans l'administration, suggère bien la généralisation d'un nouveau mode de régulation des activités humaines. Il s'agit d'une forme de gouvernement indirect, par les dispositifs, qui s'emploie à canaliser l'autonomie des acteurs en les investissant de nouvelles responsabilités.

 

Les nouvelles politiques de gestion des risques relèvent également de ce nouveau mode de régulation du social. De fait la thématique du risque, développée initialement par le sociologue Ulrich Beck, rencontre désormais un succès grandissant en sciences sociales et dans la rhétorique politique. Or, il faut prêter attention à cette notion qui s'avère particulièrement ambiguë. Pour U. Beck, nos sociétés fabriquent de plus en plus de risques, qui sont en quelque sorte la contrepartie du progrès et des activités humaines, qu'elles favorisent (recherche scientifique, nouvelles technologies, choix individuels, etc.). Mais le risque est également une forme de savoir sur les événements, un savoir qui s'affine et s'individualise à mesure que notre information statistique s'enrichit. Dans une société réflexive comme la nôtre, qui produit de plus en plus de connaissances, on assiste ainsi à une prolifération des risques, événements prévisibles et calculables.

 

Sous ce double éclairage, la catégorie du risque entretient certaines équivoques, qui favorisent sa dérive ou son exploitation idéologique. En effet, si l'on admet que le risque est partout, il paraît assez vain de vouloir s'en protéger à tout prix ; mieux vaut apprendre à « vivre avec » et à le gérer efficacement. Par ailleurs, si les risques se développent avec la capacité d'agir dont disposent les acteurs sociaux (entreprises, groupes, individus, etc.), il peut sembler raisonnable de demander à chacun de s'en prémunir, voire d'en assumer toutes les conséquences. Dans cette perspective, le thème du risque devient alors un puissant levier de transformation politique et sociale qui légitime à la fois une reconfiguration des interventions publiques, une érosion des protections collectives et une extension du périmètre de l'assurance privée. Plus encore, il tend à imposer une « culture du risque », qui incite chacun à se prendre en charge.

 

Dès lors, tout porte à croire que si le risque est au centre d'une rhétorique envahissante aujourd'hui, c'est qu'il peut s'incarner dans des technologies politiques qui permettent à la fois de contenir les demandes de sécurité et d'encadrer l'autonomie des acteurs sociaux ; "à condition que ceux-ci disposent des moyens d'action, qu'ils soient intellectuels ou matériels". C'est bien ce qui se dessine dans certaines politiques publiques, qui organisent un important transfert de responsabilités en direction de l'individu (information systématique, incitation à la prévention, à l'autolimitation, à l'autocontrôle, etc.) Les politiques du risque s'efforcent ainsi de faire prévaloir un certain gouvernement de soi. Elles font appel à la responsabilité individuelle, qui se présente désormais comme une norme obligatoire, sinon la forme contemporaine de la contrainte sociale. 

 

Michel Kokoreff et Jacques Rodriguez - www.scienceshumaines.com

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Actualité-sociologie
26 août 2012 7 26 /08 /août /2012 09:45

Dans le cadre du dossier "apprendre à maitriser le numérique", il nous a semblé important de vous proposer à la lecture Is Google Making Us Stupid ?, l’article de Nicolas Carr, publié en juin 2008 dans la revue The Atlantic, et dont la traduction, réalisée par Penguin, Olivier et Don Rico, a été postée sur le FramaBlog en décembre. Dans cet article, Nicolas Carr (blog), l’auteur de Big Switch et de Does IT matter ?, que l’on qualifie de Cassandre des nouvelles technologies, parce qu’il a souvent contribué à un discours critique sur leurs "effets neurotoxiques", part d’un constat personnel sur l’impact qu’à l’internet sur sa capacité de concentration, pour nous inviter à réfléchir à l’influence des technologies sur notre manière de penser et de percevoir le monde. Rien de moins !   

 

La couverture d'Atlantic de juillet-août 2008 

“Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ?” Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son “cerveau” électronique. “Dave, mon esprit est en train de disparaître”, dit HAL, désespérément. “Je le sens. Je le sens.”

  

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

   

 

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

  

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. “Le souvenir parfait de la mémoire du silicium”, a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

 

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. “J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres”, écrit-il. “Que s’est-il passé ?” Il essaie de deviner la réponse : “Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ?”

 

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. “J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé”, écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style “staccato”, à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. “Je ne peux plus lire Guerre et Paix, admet-il. “J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine.”

 

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment (.pdf) sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient “une forme d’activité d’écrémage”, sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de “bondir” vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :


“Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de “lecture” apparaissent lorsque les utilisateurs “super-naviguent” horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.”

 

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. “Nous ne sommes pas seulement ce que nous lisons”, dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de Proust et le Calamar : l’histoire et la science du cerveau qui lit. “Nous sommes définis par notre façon de lire.” Wolf s’inquiète que le style de lecture promu par le Net, un style qui place “l’efficacité” et “l’immédiateté” au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de “simples décodeurs de l’information”. Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

 

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

 

En 1882, Friedrich Nietzsche acheta une machine à écrire, une “Malling-Hansen Writing Ball” pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

  

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. “Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage”, lui écrivit cet ami dans une lettre, notant que dans son propre travail ses “pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier”.

 
“Tu as raison”, répondit Nietzsche , “nos outils d’écriture participent à l’éclosion de nos pensées”. Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche “est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique”.

  

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte “est très plastique”. Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. “Le cerveau”, selon Olds, “a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne.”

 

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos “technologies intellectuelles”, les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14e siècle, fournit un exemple frappant. Dans Technique et Civilisation, l’historien et critique culturel Lewis Mumford décrit comment l’horloge “a dissocié le temps des évènements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables”. La “structure abstraite du découpage du temps” est devenue “le point de référence à la fois pour l’action et les pensées”.

 

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul, la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage “reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait.” En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait “comme une horloge”. Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne “comme un ordinateur”. Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

 

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936 (.pdf), le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

 

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

 

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un “avant-goût” des nouvelles du jour, leur évitant la méthode “moins efficace” de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

 

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

 

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un “algorithme”, pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

 

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son “système” comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, La direction des ateliers (le titre original The principles of scientific management pourrait être traduit en français par “Les principes de l’organisation scientifique”), était d’identifier et d’adopter, pour chaque poste, la “meilleure méthode” de travail et ainsi réaliser “la substitution graduelle de la science à la méthode empirique dans les arts mécaniques”. Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. “Dans le passé, l’homme était la priorité”, déclare-t-il, “dans le futur, la priorité, ce sera le système”.

  

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver “LA meilleure méthode”, l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme “le travail de la connaissance”.

 

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est “une entreprise fondée autour de la science de la mesure” et il s’efforce de “tout systématiser” dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

 

Google a déclaré que sa mission était “d’organiser les informations du monde et de les rendre universellement accessibles et utiles”. Cette société essaie de développer “le moteur de recherche parfait”, qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons “accéder” est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

 

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. “Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage”, a déclaré Page lors d’une conférence il y a quelques années. “Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle.” Dans un entretien de 2004 pour Newsweek, Brin affirmait : “Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux.” L’année dernière, Page a dit lors d’une convention de scientifiques que Google “essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle.”

  

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, “pour résoudre les problèmes qui n’ont jamais été résolus auparavant”, et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

 

Pourtant, leur hypothèse simpliste voulant que nous nous “porterions mieux” si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

 

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

 

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, “arrêter de faire travailler leur mémoire et devenir oublieux.” Et puisqu’ils seraient capables de “recevoir une grande quantité d’informations sans instruction appropriée”, ils risquaient de “croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants”. Ils seraient “remplis de l’orgueil de la sagesse au lieu de la sagesse réelle”. Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

 

L’arrivée de l’imprimerie de Gutenberg, au XVe siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes “moins studieux” et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, “la plupart des arguments contre l’imprimerie était corrects et même visionnaires.” Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

 

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

 

Si nous perdons ces endroits calmes ou si nous les remplissons avec du “contenu”, nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

 

“Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et “bâtie telle une cathédrale” de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de “l’instantanément disponible”.”

 

À mesure que nous nous vidons de notre “répertoire interne issu de notre héritage dense”, conclut Foreman, nous risquons de nous transformer en “crêpe humaine”, étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

 

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.


Auteur : Nicolas Carr/journaliste.


Nous vous invitons à réagir à cet article sur le Framablog où la traduction a été originellement publiée. Cet article a été repris par LeMonde.fr.

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie
24 août 2012 5 24 /08 /août /2012 10:03

Comment produire des tueurs à la chaine ou des individus prolétarisés ? Réponse avec deux exemples concrets de suggestion mentale :

 

norvège

 

La cour d’assises est assemblée ; une tête d’homme sera jouée dans un instant. L’avocat de la défense déploie manches et effets oratoires. Epuisés, bombardés d’arguments, les jurés écoutent… N’a-t-on pas fait appel à leur raison,  à leur vertu et à leur intégrité d’êtres humains ? Et l’avocat parle, tentant "de persuader" ces juges…

 

Brusquement, le plaideur envisage l’enfance de l’accusé : père ivrogne, mère addicte, disputes familiales, pauvreté, conflits… Et l’avocat crie : « Songez à cette enfance atroce, messieurs les jurés, et acquittez ! ».

 

Un juré a pâli, comme une flèche, cette injonction le touche, non plus dans sa raison, mais en plein centre de son émotion ! Car ce juré se rappelle, lui aussi, son père alcoolique, sa mère absente, sa pauvreté et son enfance malheureuse. Le plaidoyer de l’avocat le pénètre profondément.

 

Les dés sont jetés ! Devant ce juré, « l’avocat a gagné ». Le raisonnement et la persuasion ont cédé le pas à l’émotion. Et l’impulsion (ou la pulsion) qui en découle reste maîtresse du terrain. De ce juré, viendra un acquittement ou une réduction de peine…

 

« Ou la logique et la raison s’affaiblissent, la suggestion émotive remporte la victoire ».

Et cette puissance de la suggestion, les meneurs de foules la connaissent bien !

  

parteitag

    

Leni Riefenstahl, la cinéaste du troisième Reich allemand, mettait savamment en scène les entrées du sinistre Adolf Hitler et les formidables fêtes du Parteitag… Plus ce cent mille hommes, rangés ; des milliers de drapeaux ; les cloches de Nuremberg sonnant ; une arène de pierre et de marbre ; une ouverture prolongée par la grande forêt… Et dans cette ouverture végétale, Hitler qui avance, glorieux et triomphant, sans gardes, tandis que les chants retentissent et qu’au loin, roule le canon…

 

Une scène théâtrale soutenue par une émotion puissante et suggestive à souhait !

Car à ce moment de l’histoire, « un seul ordre suggestif » aurait pu emporter cette marée humaine, alors assoiffée de désir de puissance, comme un torrent !

 

Et les défilés militaires, cadencés, brillants, clinquants ? Cette musique qui sonne, ces timbales qui roulent ? Et qui font penser aux plus antimilitaristes : « ça me fait quelque chose ! » Suggestion émotive, encore et toujours ! 

 

Il y a donc une différence majeure entre « persuasion » et « suggestion ». Dans le premier cas, j’essaierai d’obtenir votre adhésion volontaire et consciente par la raison et les arguments. Dans le deuxième cas, j’emploierai un procédé entièrement différent, en passant outre votre conscience et votre raison…

 

En court-circuitant temporairement les fonctions supérieures du cerveau, l'émotion emboîte alors le pas sur la raison. Ce qui explique certains comportements inhumains produit lors des deux grandes guerres précédentes, ou le "degré zéro de la pensée" produit par les grands meetings politiques !

 

Partager cet article
Published by Trommenschlager.f-psychanalyste.over-blog.com - dans Dossier Neurologie

Soins conventionnels :

- Etat dépréssif

- Troubles anxieux

- Situations de crise

- Troubles compulsifs

- Hypnothérapie médicale

 

  Nouveau site internet :

  http://www.psychologie-luxeuil-70.com/

Rechercher

Soins spécifiques :

- Souffrances au travail 

- Fatigue sociale ou professionnelle

- Suivi scolaire et aide à l'orientation 

- Souffrance affective et relationnelle

- Perte des facultés de concentration

Université Populaire UPL :

AP_circle_logo.jpeg
              
 
France bleu - Trommenschlager / Neuromarketing
 

Liens

setonly.png     cerveau-et-psycho.jpeg

collège DF   France-Culture

Pages externes