Archive mensuelle de avril 2007

Page 2 sur 3

Notions introductives à la théorie du chaos

Chaos 1995

Origines

     Selon Ilya Prigogine , la vision « classique » du monde consiste en « deux représentations aliénantes, celle d’un monde déterministe et celle d’un monde arbitraire soumis au seul hasard. »

Dans un monde déterministe, l’univers est régi par des lois immuables. A la suite de Newton, Laplace en illustrait les conséquences : « […] une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux ».

Autrement dit, à condition d’avoir une parfaite connaissance de tous les éléments constitutifs et de toutes les relations existantes du système, il nous est donc possible de prévoir l’évolution de ce dernier grâce à l’enchainement proportionnel des causes et des effets. S’approprier l’ensemble des conditions initiales du système permet non seulement de se projeter dans son futur, mais également de connaître son passé : « […] nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur et comme cause de celui qui va suivre […] Tout le futur est [...] entièrement contenu, déterminé par le présent : connaissant les lois du mouvement et les conditions initiales, nous déterminons avec certitude le mouvement futur pour un avenir aussi lointain que nous le souhaitons. » Laplace.

Les systèmes déterministes sont donc caractérisés par leur réversibilité, leur prévisibilité et leur reproductibilité, sous réserve que les conditions initiales soient identiques.

     Dès lors, les erreurs dans les prévisions de l’évolution de tels systèmes déterministes ne peuvent venir que de l’approximation dans la mesure des conditions initiales ; leurs caractères imprévisibles n’étant ainsi liés qu’à l’impossibilité de cette même mesure au niveau des systèmes dit complexes.

La vision classique de l’arbitraire et du hasard est donc liée à l’existence des systèmes complexes, c’est-à-dire de systèmes dynamiques faisant intervenir un trop grand nombre d’éléments, un trop grand nombre de degrés de liberté internes excluant ce type de système de toute mesure complète des conditions initiales. Cette conception du hasard est ainsi  étroitement liée à celle d’imprédictibilité : quelle que soit notre connaissance du passé et du présent d’un système, il est impossible de savoir qu’elle sera son évolution.

Le jeu du loto illustre bien cette situation dans la mesure où le prochain numéro gagnant ne peut en aucun cas être déduit de la connaissance des précédents. On rejoint ainsi la définition du hasard de Cournot, à savoir : la rencontre de séries causales indépendantes. Le hasard est donc imprédictible par définition, de sorte qu’on ne peut qu’utiliser la théorie des probabilités pour quantifier ces phénomènes.

C’est dans ce contexte où le hasard n’est lié qu’au calcul statistique des grands nombres, que H. Poincaré va remettre en cause ce présupposé en définissant la sensibilité critique d’un système aux conditions initiales.

     Depuis Newton, nous savons que la loi d’attraction universelle s’exerce entre deux corps. Mais nous nous basons sur une approximation bien inexacte en ne considérant à chaque fois que deux corps en interaction. Précisément dans le système solaire, ce sont de nombreux corps qui interagissent : il y a, en plus de l’interaction « Soleil-Terre », l’interaction « Lune-Terre », puis l’interaction « Mars-Terre », etc.etc… Henri Poincaré va alors démontrer que trois corps en interaction peuvent impliquer un système d’équations non résoluble, et donc des comportements s’apparentant au hasard avec des petits nombres.

Ce faisant, il définit pour la première fois la sensibilité critique aux conditions initiales : « […] une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrions connaître la situation qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. »

Ainsi, pourvu qu’il possède cette propriété de sensibilité aux conditions initiales, une grande complexité peut résulter d’un système simple possédant un très petit nombre de degrés de liberté, rendant son évolution imprédictible.

Ce faisant, H. Poincaré vient d’intercaler ce petit quelques chose d’autre entre les lois déterministes et celles du hasard « probabiliste ». Grossièrement, aujourd’hui nous pouvons donc différencier trois types de systèmes :

  • les systèmes aléatoires (ou stochastiques) qui évoluent au hasard dans tout l’espace sans qu’aucune équation ne les régisse, sans qu’aucune prévision exacte ne soit possible dans le temps. 

  • les systèmes déterministes régis par des lois mathématiques dont on peut prévoir exactement l’évolution dans le temps.

  • les systèmes chaotiques régis par une grande variété de facteurs (par exemple la météorologie), dépendant de plusieurs paramètres et dont la caractéristique fondamentale est l’extrême sensibilité aux conditions initiales. Bien que leurs composantes soient gouvernées par des lois déterministes simples, le comportement des systèmes chaotiques est imprévisible.

     Les systèmes chaotiques peuvent cependant être représentés géométriquement dans un espace dont la dimension dépend du nombre de paramètres inhérents au système. Par exemple un espace à trois dimensions correspondant à un système défini par trois équations différentielles.

L’état du système est donc représenté à chaque instant par un point dans cet espace appelé « espace des phases ». Une fois le point initial choisi (i.e. les conditions initiales), les équations déterminent entièrement l’évolution du système. On obtient alors une courbe qui correspond à la trajectoire. Or si l’on change, même de très peu, le point initial de cette simulation, nous obtenons une trajectoire qui se distancie très vite de la première.

On constate que les points sont attirés vers une courbe limite, près de laquelle il semble errer au hasard, mais sans jamais la quitter, ni repasser deux fois par le même point. En théorie du chaos, on appelle cette courbe « attracteur étrange »

Au fil des mouvements de diverses trajectoires, toutes passent toujours à peu près aux mêmes endroits, bien que ce soit à des moments très différents, c’est pourquoi on peut parler d’un ordre sous-jacent au désordre : « (…) derrière les formes visibles et particulières de la matière doivent se cacher des formes fantomatiques qui leur servent de modèle invisible. » James Gleick

Les attracteurs étranges présentent une caractéristique bien particulière : si l’on procède à un « zoom » avant ou arrière, c’est toujours la même structure que l’on retrouve. Les courbes fractales sont des attracteurs étranges.

Le tout est semblable à une de ses parties

Une fougère fractale modélisée en utilisant un système de fonctions itérées. 

Comme ces attracteurs semblent inclure à la fois des lois déterministes et des lois aléatoires, toute prévision à long terme est impossible.

Application des systèmes chaotiques à la météorologie

      La météorologie est un bon exemple de système complexe à variables multiples (température, pression, hygrométrie, rayonnement solaire, relief, océans…) Cependant la modélisation peut-être simplifiée du fait que toutes ces variables ne sont pas toute indépendantes. Elles sont reliées entre elles par des relations généralement connues: loi de Mariotte reliant la pression, la température et la masse volumique de l’air, les équations issues des principes de la thermodynamique des fluides (entropie)…Par ailleurs l’évolution du système atmosphérique crée des liens entre les variables et réduit par là même le nombre de celles qui sont indépendantes.

Les imprécisions météorologiques ne sont donc pas uniquement dues au nombre important des variables en jeu, ou à la complexité des équations. Par exemple, malgré la simplicité inhérente au modèle réduit (douze facteurs significatifs et trois équations différentielles) d’Edward Lorentz, celui-ci développait une météorologie plausible qui n’en demeurait pas moins totalement imprévisible à long terme. A la suite des travaux de Poincaré, le hasard n’apparaissait donc pas comme uniquement lié aux multiples facteurs en cause. Un système agité par des forces où existent seulement trois variables indépendantes peut donc présenter des mouvements totalement irréguliers et imprévisibles.

Il n’est pas inintéressant de préciser à ce niveau la différence entre le climat et la météo tel que l’exprimait Jacques Treiner (le monde du 14.02.07) : « […] abordons la prévision à quinze jours et à cinquante ou cent ans. Demander une prévision du temps qu’il fera à quinze jours, c’est exiger de reproduire des fluctuations, c’est-à-dire de petites variations, à la fois temporelles et spatiales, du temps. C’est techniquement très difficile, et la difficulté augmente exponentiellement avec le temps de prévision. Mais les prévisions à long terme ne sont pas le prolongement de la météorologie, c’est d’une autre physique qu’il s’agit : celle qui, par exemple, permet d’affirmer que, dans l’hémisphère Nord, il fait froid en hiver, et chaud en été, en raison de l’inclinaison des rayons du Soleil sur la surface de la Terre. Et pourtant, il se peut très bien qu’une fluctuation de température en hiver soit du même ordre de grandeur que la différence de température moyenne entre l’été et l’hiver. La météorologie s’occupe de données moyennées sur un jour, voire moins, alors que la climatologie considère des moyennes sur plusieurs années. Dans ces moyennes, les fluctuations disparaissent, restent les tendances de fond, plus faciles à prévoir. »

Voila pourquoi le GIEC parle de changement climatique et non météorologique. Car en météorologie, une petite fluctuation double en deux jours, et est amplifiée d’un facteur d’un milliard en un mois, jusqu’à atteindre l’échelle macroscopique : c’est le fameux « effet papillon ». Si le battement d’ailes d’un papillon au Japon peut être à l’origine d’un cyclone dans les Antilles, pour pouvoir le prévoir, il faudrait cependant connaître la position exacte du papillon et son battement d’ailes, avec une précision qui en devient irréaliste.

Lorenz précise : « […] si un seul battement d’ailes d’un papillon peut avoir pour effet le déclenchement d’une tornade, alors, il en va ainsi également de tous les battements précédents et subséquents de ses ailes, comme de ceux de millions d’autres papillons, pour ne pas mentionner les activités d’innombrables créatures plus puissantes, en particulier de notre propre espèce. Si le battement d’ailes d’un papillon peut déclencher une tornade, il peut aussi l’empêcher. »

Notions introductives à la théorie du chaos dans -> PERSPECTIVES TRANSVERSES image003

     Pour I. Prigogine : « la certitude n’a jamais fait partie de notre vie. Je ne sais pas ce que sera demain. Pourquoi penser que la certitude est la condition même de la science ? (…) La science traditionnelle identifiait raison et certitude, et ignorance et probabilité. Il n’en est plus ainsi aujourd’hui. » Ce que sous-entend la théorie du chaos : un non-sens de la prédiction à long terme, dû à l’impossibilité de contrôler toutes les perturbations pouvant exister au niveau de nombreux systèmes et de leur environnement.

Article d’après extraits et sources :

Un agencement Spinoza-Deleuze-Ecologie ?

     A ceux qui pourraient s’étonner de retrouver les traces de Spinoza disséminées un peu partout sur un blog consacré à l’écologie, il est peut-être utile de préciser le point de vue. A la lecture de l’Ethique, tout homme s’étant amusé à pratiquer quelque peu la chimie amusante ne pourra que sentir les résonnances avec cet « art des antidotes et des poisons » qu’est là chimie selon Nietzsche.

De la nature des corps en tant que composition caractéristique de rapport de décomposition et de recomposition entre parties, de la bonne à la mauvaise rencontre, tout cela sonne véritablement très chimique. Or cette chimie de base devient sous la plume de Spinoza l’occasion de constituer de véritables modes d’existence.

http://www.dailymotion.com/video/69JVCErySjVnobAuw 
Extraits audios d’après la voix de Gilles Deleuze en ligne, cours sur Spinoza

     Par la connaissance du bon (un corps dont les rapports se composent avec le mien me procure de la joie) et du mauvais (un corps dont les rapports décomposent les miens me procure de la tristesse), je suis capable d’organiser raisonnablement, selon ma convenance ou utile propre, mes rencontres de sorte à ne plus vivre au hasard de celles-ci. La connaissance des rapports, voilà ce que Spinoza appelle le second genre de connaissance.

Or cet art véritable de la composition des rapports, c’est précisément ce qui pourrait faire de Spinoza un formidable précurseur de notre écologie contemporaine. Tout du moins une source d’inspiration de la plus grande importance, une fois dit que cette dernière prétend bien à la connaissance des rapports reliant les différents éléments de la nature.

Pour Spinoza, la nature est à chaque instant un ensemble infini de capture de particules, de recomposition et décomposition de rapport entre différentes parties dont l’homme constitue un ensemble tendant à persévérer dans son être. Du fait que ce dernier ne soit pas un empire dans un empire, toute distinction entre naturel et artificiel ne peut relever que de l’ordre de l’imaginaire et des idées confuses.

L’esprit humain n’étant que la perception finie de son corps, une idée confuse de l’esprit correspond à une connaissance, séparée de sa cause réelle, de l’effet d’un corps étranger sur le mien. C’est-à-dire qu’une idée confuse ne m’apprend rien sur les rapports caractéristiques du corps qui se compose au mien. Ainsi privé de cette connaissance, je ne peux organiser mes rencontres de sorte à augmenter mon sentiment vécu (affect) de joie.

Scholie de la proposition  XXXV, Ethique 2 : « De même, quand nous contemplons le soleil, nous nous imaginons qu’il est éloigné de nous d’environ deux cents pieds. Or, cette erreur ne consiste point dans le seul fait d’imaginer une pareille distance ; elle consiste en ce que, au moment où nous l’imaginons, nous ignorons la distance véritable et la cause de celle que nous imaginons. Plus tard, en effet, quoique nous sachions que le soleil est éloigné de nous de plus de six cents diamètres terrestres, nous n’en continuons pas moins à l’imaginer tout près de nous, parce que la cause qui nous fait imaginer cette proximité, ce n’est point que nous ignorions la véritable distance du soleil, mais c’est que l’affection de notre corps n’enveloppe l’essence du soleil qu’en tant que notre corps lui-même est affecté par le soleil. »

     « Ah maman la vague m’a battu ! » Deleuze résumait ainsi le cri du premier genre de connaissance, le cri de l’idée inadéquate empêchant la composition des rapports de son corps d’avec ceux de la vague. A contrario, le bon nageur est quant à lui dans le second genre de connaissance, connaissance des rapports caractéristiques de la vague avec lesquels il se combine, pleine cause des affections de son corps.  Il est ainsi capable de former une idée adéquate, donc de l’ordre des causes dans l’action de nager.

Au final, on est toujours capable de ceci ou de cela (mode d’existence) en fonction des idées qu’on a. Or les idées qu’on a impliquent et enveloppent des affects de joie ou de tristesse. Lorsque vous formez l’idée adéquate de l’effet d’un corps sur le votre, ce qui ne cesse d’être la règle dans la Nature, vous êtes capable de composer avec ce corps de sorte à gagner de la puissance (à persister dans votre être, affect de joie) ou à éviter ce corps de sorte à éviter de perdre de la puissance (affect tristesse), si ce corps est un poison. C’est la connaissance de d’utile propre, de la convenance des corps avec le mien.

Chez Spinoza, toute mort vient du dehors. C’est-à-dire que tôt ou tard votre corps est confronté à une puissance supérieure qui va décomposer son rapport caractéristique, l’organisation de ses parties, ou ce que Spinoza appelle l’ensemble des rapports de vitesse et de lenteur qui composent un corps, ici sous la forme homme. Cette puissance du dehors va capturer certaines de vos parties (extrinsèques dira Deleuze) pour les combiner aux siennes. C’est le fameux exemple de l’arsenic où ce dernier détruit certains des rapports caractéristiques du sang pour les recomposer selon ses propres lois. Le sang étant l’un de mes rapports caractéristique en tant que mammifère homme, si l’arsenic est joyeux, moi je suis infiniment triste, je suis mort.

La lettre 5 de la correspondance entre Spinoza et Henri Oldenburg illustre assez bien cette joyeuse « chimie » spinoziste.

     « Monsieur,

[…] Vous me demandez mon sentiment sur cette question : Comment chaque partie de la nature s’accorde-t-elle avec le tout, et quel est le lien qui l’unit aux autres parties ? Je suppose que vous entendez par là me demander les raisons qui nous assurent en général que chaque partie de la nature est d’accord avec le tout et unie avec les autres parties. Car pour dire de quelle façon précise sont unies les parties de l’univers et comment chaque partie s’accorde avec le tout, c’est ce dont je suis incapable, comme je vous le disais tout récemment, vu qu’il faudrait pour cela connaître toute la nature et toutes ses parties. Je me bornerai donc à vous dire la raison qui m’a forcé d’admettre l’accord des parties de l’univers ; mais je vous préviens d’avance que je n’attribue à la nature ni beauté ni laideur, ni ordre ni confusion, convaincu que je suis que les choses ne sont belles ou laides, ordonnées ou confuses, qu’au regard de notre imagination.

Par l’union des parties de l’univers, je n’entends donc rien autre chose sinon que les lois ou la nature d’une certaine partie s’accordent avec les lois ou la nature d’une autre partie, de telle façon qu’elles se contrarient le moins possible. Voici maintenant ce que j’entends par le tout et les parties : je dis qu’un certain nombre de choses sont les parties d’un tout, en tant que la nature de chacune d’elles s’accommode à celle des autres, de façon à ce qu’elles s’accordent toutes ensemble, autant que possible. Au contraire, en tant qu’elles ne s’accordent pas, chacune d’elles forme dans notre âme une idée distincte, et dès lors elle n’est plus une partie, mais un tout. Par exemple, quand les mouvements des parties de la lymphe, du chyle, etc., se combinent, suivant les rapports de grandeur et de figure de ces parties, de façon qu’elles s’accordent ensemble parfaitement, et constituent par leur union un seul et même fluide, le chyle, la lymphe, etc., considérés sous ce point de vue, sont des parties du sang. Mais si l’on vient à concevoir les particules de la lymphe comme différant de celles du chyle sous le rapport du mouvement et de la figure, alors la lymphe n’est plus une partie du sang, mais un tout.

Imaginez, je vous prie, qu’un petit ver vive dans le sang, que sa vue soit assez perçante pour discerner les particules du sang, de la lymphe, etc., et son intelligence assez subtile pour observer suivant quelle loi chaque particule, à la rencontre d’une autre particule, rebrousse chemin ou lui communique une partie de son mouvement, etc., ce petit ver vivrait dans le sang comme nous vivons dans une certaine partie de l’univers ; il considérerait chaque particule du sang, non comme une partie, mais comme un tout, et il ne pourrait savoir par quelle loi la nature universelle du sang en règle toutes les parties et les force, en vertu d’une nécessité inhérente à son être, de se combiner entre elles de façon à ce qu’elles s’accordent toutes ensemble suivant un rapport déterminé. Car, si nous supposons qu’il n’existe hors de ce petit univers aucune cause capable de communiquer au sang des mouvements nouveaux, ni aucun autre espace, ni aucun autre corps auquel le sang puisse communiquer son mouvement, il est certain que le sang restera toujours dans le même état et que ses particules ne souffriront aucun autre changement que ceux qui se peuvent concevoir par les rapports de mouvement qui existent entre la lymphe, le chyle, etc., et de cette façon le sang devra toujours être considéré, non comme une partie, mais comme un tout. Mais comme il existe en réalité beaucoup d’autres causes qui modifient les lois de la nature du sang et sont à leur tour modifiées par elles, il arrive que d’autres mouvements, d’autres changements se produisent dans le sang, lesquels résultent, non pas du seul rapport du mouvement de ses parties entre elles, mais du rapport du mouvement du sang au mouvement des choses extérieures ; et de cette façon, le sang joue le rôle d’une partie et non celui d’un tout.

Je dis maintenant que tous les corps de la nature peuvent et doivent être conçus comme nous venons de concevoir cette masse de sang, puisque tous les corps sont environnés par d’autres corps, et se déterminent les uns les autres à l’existence et à l’action suivant une certaine loi 2, le même rapport du mouvement au repos se conservant toujours dans tous les corps pris ensemble, c’est-à-dire dans l’univers tout entier ; d’où il suit que tout corps, en tant qu’il existe d’une certaine façon déterminée, doit être considéré comme une partie de l’univers, s’accorder avec le tout et être uni à toutes les autres parties. Et comme la nature de l’univers n’est pas limitée comme celle du sang, mais absolument infinie, toutes ses parties doivent être modifiées d’une infinité de façons et souffrir une infinité de changements en vertu de la puissance infinie qui est en elle. Mais l’union la plus étroite que je conçoive entre les parties de l’univers, c’est leur union sous le rapport de la substance. Car j’ai essayé de démontrer, comme je vous l’ai dit autrefois dans la première lettre que je vous écrivais, me trouvant encore à Rheinburg, que la substance étant infinie de son essence, chaque partie de la substance corporelle appartient à la nature de cette substance et ne peut exister ni être conçue sans elle.

Vous voyez, Monsieur, pour quelle raison et dans quel sens je pense que le corps humain est une partie de la nature. Quant à l’âme humaine, je crois qu’elle en est aussi une partie ; car il existe, selon moi, dans la nature, une puissance de penser infinie, laquelle, en tant qu’infinie, contient en soi objectivement la nature tout entière et dont les différentes pensées s’ordonnent conformément à une loi générale, la loi de la pensée ou des idées. L’âme humaine, selon moi, c’est cette même puissance dont je viens de parler, non pas en tant qu’elle est infinie et perçoit toute la nature, mais en tant qu’elle est finie, c’est-à-dire en tant qu’elle perçoit seulement le corps humain ; et sous ce point de vue, je dis que l’âme humaine est une partie d’une intelligence infinie […] »

L’ouverture du GIEC au temps présent ?

     Les experts du GIEC semblent placer au premier rang des conséquences du changement climatique, les difficultés d’approvisionnement en eau et la problématique de la biodiversité.

Bien qu’il ne soit pas nécessaire d’anticiper les conséquences futures des variations climatiques pour constater dès aujourd’hui les effets de pressions anthropiques excessives sur la ressource en eau et la biodiversité, ce faisant le GIEC ouvre (enfin ?) une voie de dégagement à la mono-communication des calculs climatiques.

Si le changement climatique, entendu au singulier, est un formidable producteur d’incertitude dans l’équation générale drivant les aménagements humains, il n’en demeure pas moins en l’état des connaissances une force globale et abstraite capable d’influer sur les variables réelles que sont l’accès à la ressource en eau, les stocks de la « banque mondiale » génétique, etc. 

Or la vulnérabilité présente de ces variables est encore assez largement indépendante des variations climatiques futures. Et comme ces variables sont porteuses en elles-mêmes d’un potentiel d’atténuation de ces variations, elles en sont donc tout autant des causes que des conséquences.

     La question est donc : quel seront les « états » (qualitatif et quantitatif) futurs des ressources en eau et de la biodiversité ? États à partir desquels les variations climatiques s’exprimeront plus ou moins violement. Il convient ainsi et dès à présent d’apprécier au mieux leurs états actuels, l’ensemble des forces à l’œuvre. Voir à ce titre les remarquables travaux du Millenium Ecosystem Assessment.

D’un point de vue méthodologique, notons que si le GIEC partait de l’hypothèse d’un risque global pour en déduire des conséquences à analyser localement, l’approche du Millenium Ecosystem Assessment, bien que complémentaire, faisait le pari inverse. A savoir qu’à partir de l’observation de la vulnérabilité locale des différents écosystèmes, elle en induit une notion de risque global, sans avoir à raisonner en termes de conséquences, chose bien difficile dans des systèmes ou tout est lié et interagi dans le temps comme l’espace.

Eau et biodiversité ne sont donc pas des conséquences uniquement dérivées de la « question climatique », elles sont des tampons vulnérables, à conjuguer au présent à mesure que leurs états participeront à renforcer ou diminuer les impacts des variations climatiques à venir.

     Le tableau suivant s’appuie sur les données parues dans le monde du 05/04/2007 s’appuyant sur un rapport du WWF « Les 10 plus grands fleuves en danger » (PDF, En). Ici pas besoin de CO2, de courbes et de calculs corrélatifs pour s’expliquer. Pour qu’un hydrosystème fonctionne, il demande une quantité d’eau minimum pour lui-même afin d’éviter les ruptures de cycle entrainant salinisation, eutrophisation, espèces envahissantes, etc. Une quantité d’eau dont il est précisément privé par les dérivations successives (barrages, captages canalisations, endiguements, etc.) Autrement dit, du fait d’un mauvais partage de la ressource en eau entre besoins humain et non-humains.

Quantité et qualité sont bien souvent les deux faces d’un même problème, tout du moins dans le sens suivant : une diminution de la quantité entraine de facto une plus grande concentration des polluants. Ainsi, globalement :

  • dans les régions agricoles les prélèvements excessif afin d’irrigation altèrent le débit des cours d’eau, concentrant et restituant des pollutions organiques (nitrates) et chimiques (pesticides) en retour ;
  • dans les régions urbaine les prélèvements excessif afin domestiques altèrent le débit des cours d’eau, concentrant et restituant des pollutions organiques (bactériales) et chimiques (micropolluants) en retour ;
  • dans les régions industrielles les prélèvements excessifs afin des processus de production altèrent le débit des cours d’eau, concentrant et restituant principalement des pollutions chimiques (métaux lourd) ou thermique (eaux de refroidissement) en retour.

L’ouverture du GIEC au temps présent ? dans -> ACTUS image0011

image001 dans Biodiversité

A mi-chemin entre l’art et la science

A mi-chemin entre l'art et la science dans -> ACTUS image001

     Il est encore assez difficile d’illustrer pratiquement ce que peut-être une écologie créative, catalyseur de nouvelles formes artistiques et expressions capables d’enrichir intuitivement (approche intérieure) notre compréhension des relations, de nous faire sentir et expérimenter l’appartenance à un tout. Sur ce blog nous tentons de rassembler des fragments de ce que pourrait être une écologie étendue, sans supposer de sa forme, juste étirée sur ses bords par l’ensemble de ses divers potentiels ou composantes, du créatif au scientifique. Un petit objet semble satisfaire à ces critères.

L’Ecosphère est un écosystème qui vit et se développe sans aide extérieure autre qu’un peu de lumière. En quelque sorte on pourrait dire que c’est une approximation à petite échelle, plus qu’une reproduction, de notre système terrestre. Il se compose de crevettes, d’une eau de mer filtrée, d’algues, de gorgones et petits cailloux.

L’écosphère se présente donc comme une « mini – batterie » écologique qui accumule l’énergie de la lumière et la transforme en énergie biochimique grâce à l’activité photosynthétique des algues (lumière + CO2 dissout dans l’eau  = production de l’oxygène nécessaires à la respiration des crevettes et des bactéries et donc à la production de nouveau CO2).

Une fois que l’énergie solaire est ainsi rendue utilisable par le système, la chaine alimentaire (les flux de matière et d’énergie)  qui se met en place est la suivante : les crevettes se nourrissent des algues et des bactéries. Les bactéries transforment les déchets animaux (ammoniac) en nutriments consommés à leur tour par les algues (nitrates), c’est le cycle de l’azote bien connu en aquariophilie.

image002 dans -> PERSPECTIVES TRANSVERSES

Source graphique d’après http://www.eco-sphere.fr/

La durée de vie moyenne d’une écosphère est de 2 à 3 ans, jusqu’à 12 ans pour les plus anciens connus, plus de 18 ans pour certains systèmes sans crevette.

L’Ecosphère s’inspire des travaux menés par les Dr. Joe Hanson et Clair Folsome dans le cadre des recherches de la NASA sur la biosphère terrestre, ainsi que sur les systèmes biologiques nécessaires à la construction de stations spatiales d’étude du système solaire.

Voir le site internet

Ressource en eau, énergie et progrès technologique

Eau et énergie

Cadrage initial : le coût de la ressource

Production des biens de consommation 

     On ignore bien souvent les produits qui nécessitent le plus d’eau dans leur processus de production et dont les prix seraient multipliés par x en cas de pénurie. (Métaux, papier, agro-alimentaire, chimie…). Si la demande industrielle a diminué en quantité (rationalisation et procédés économes), elle est devenue plus exigeante concernant la qualité de l’eau utilisée. Les principaux usages industriels de l’eau sont :

intrant du processus de production :

  • 1000T d’eau pour 1T de céréale – qualité exigée : eau potable.
  • 300 à 600T d’eau pour  1 T d’acier,
  • 500T d’eau pour 1T de papier,
  • de 400 à 11000T pour 1T de textile,
  • 10T pour une automobile,
  • X T pour la fabrication de circuits électroniques – qualité exigée : supérieure eau potable.

lavage et l’évacuation des déchets : qualité exigée inférieure eau potable.

fonctionnement des chaudières: qualité exigée inférieure eau potable.

refroidissement des installations (l’essentiel de la consommation industrielle) : qualité exigée inférieure eau potable.

Production d’énergie

     Contrairement à l’agriculture, la production d’énergie implique des prélèvements très importants (59 % du total contre 11% à l’agriculture en France), mais en restitue l’essentiel à l’environnement pour ne représenter que 3 % de la consommation nette (68% pour l’agriculture). En France, le bassin Rhône-Méditerranée-Corse prélève 61 % du volume total prélevé pour la production énergétique nationale. De part sa situation géographique, ce bassin est aussi le plus vulnérable aux conséquences attendues du changement climatique.

Les implications de la production d’énergie se situent donc au niveau de la gestion de la ressource, soit la gestion par EDF des barrages réservoirs pour le bon fonctionnement des centrales nucléaires qui fournissent 84 % de la production énergétique nationale totale. Ces centrales ne peuvent en effet effectuer de rejets dans les cours d’eau que si ces derniers respectent un certain débit. En période de sécheresse, cette nécessité a des conséquences sur la gestion de la ressource et les arbitrages entre les différents usages de l’eau et notamment avec l’irrigation dont les besoins s’accroissent sur ces mêmes périodes.

Dans ce rapport de force, signalons que les réserves des grands barrages français constituent 10 milliards de m3 dont 7 milliards sont des concessions exploitées par EDF. Les réserves de surface sont plus sensibles que les souterraines aux variations de températures du fait de l’évaporation.

Prix de l’eau et régulation 

     L’intensité des effets externes (coût et bénéfices) dans le secteur de l’eau est plus importante que dans tout autre secteur de l’économie, mettant à mal les conditions d’optimisation du libre échange, expliquant pourquoi la ressource a toujours été une ressource régulée par les autorités publiques. Autant il est possible de réguler les coûts externes par les prix pour limiter la pollution (principe pollueur / payeur), autant il est très difficile de s’attaquer aux effets externes positifs par les prix.

Prospective

        Toute chose égale par ailleurs, quelle pourrait-être les projections en extrapolant les tendances actuelles ? Dans un contexte marqué par la diminution des sources d’énergie fossiles, on arrive à la boucle suivante : un pourcentage de plus en plus élevé de l’énergie mondiale est utilisée pour pomper une eau de plus en plus profonde (baisse du niveau des nappes), eau destinée au final à refroidir les centrales thermiques ou nucléaires productrices de cette même énergie.

Même si l’eau est restituée à hauteur de 95% sans réelle baisse de qualité, la hausse moyenne de sa température en sortie de centrale accélère encore l’eutrophisation des cours d’eau. Les risques de canicule dus au changement climatique intensifie les conflits d’usage durant la saison estival là ou la consommation en eau à destination agricole est la plus forte. Par ailleurs l’accélération de l’évaporation de l’eau dans les grands réservoirs soutient encore les pertes sur la ressource et réduit les usages de la ressource pour l’environnement, pour le tourisme…

Renchérissement des inputs de production de par la hausse du prix de l’eau conjuguée à ceux de l’énergie. Inflation généralisée, les horizons de confiance se rabattent sur le court terme, amplifiant encore la hausse des taux d’intérêt pour au final induire une stagnation durable de l’économie mondiale. Baisse de la production, réduction des échanges, replis protectionnistes généralisés, baisse des capacités de négociation.

Qualité et quantité d’eau sont maintenant au niveau mondial des avantages comparatifs de premier plan, source de nombreuse délocalisation selon les besoins (qualité, quantité) de chaque industrie consommatrice. Il existe trois types de pays : ceux qui peuvent fournir de la quantité, ceux qui peuvent encore fournir de la qualité et les autres…

Les conséquences de l’augmentation continue du prix de l’eau, favorisant les économies à court terme, ayant des effets économiques néfastes à long terme. Conflits objectif économique d’allocation optimale de la ressource et objectif social d’accès à l’eau pour tous.

Eau et progrès technologique

Il n’y a pas de produit de substitution à l’eau !

Pour faire face à la demande croissante en denrée agricoles des 3 milliards d’individus supplémentaire en 2050 il faudra :

  • augmenter l’irrigation, soit multiplier par 10 le rythme de construction actuel des barrages ;
  • augmenter le rendement agricole (biotechnologie, amélioration des engrais, pesticides) ;
  • augmenter l’intensité de culture (nombre de récoltes par an) ;
  • augmenter l’efficacité de l’eau destinée à l’irrigation (généralisation des technologies actuelles et nouvelles) ;
  • dessaler l’eau de mer, soit dépenser trois fois la quantité de pétrole produite aujourd’hui sur terre !
  • modifier les régimes alimentaires ;
  • augmenter la superficie des terres arables; (déforestation) ;

Pour faire face à la demande environnementale :

  • en quantité : limiter les autres demandes ;
  • en qualité : améliorer la gestion des déchets et rejets divers.

Ressource en eau, énergie et progrès technologique dans -> NOTIONS D'ECOLOGIE image0014

Projection « business as usual »

    Que pouvons-nous attendre des biotechnologies ? A ce jour, il n’y a pas de gène ou combinaison connue, qui puisse augmenter directement les rendements. Seules quelques avancées sont attendues à court terme, toujours dans le domaine de la résistance aux maladies et parasites. A l’horizon 2025, ceci devrait avoir pour effet d’augmenter la production mondiale de l’ordre de 5 à 10%, croissance sans doute à peine suffisante pour couvrir la hausse de la consommation. Par ailleurs l’incertitude et les doutes « éthiques » entourant les effets des biotechnologies joueront de toute évidence un rôle de frein à l’adoption massive de ces technologies. Au niveau de l’eau, il est espéré que la biotechnologie puisse permettre d’obtenir des plants plus résistent à la sécheresse, plus efficient quant à leur utilisation de l’eau. A titre d’exemple, un stress hydrique au moment de la floraison peut réduire de 60% les rendements du maïs, même si celui-ci a été correctement irrigué le reste de la saison de culture.

Prospective

        Toute chose égale par ailleurs, quelle pourrait-être les projections en extrapolant les tendances actuelles ? Une fracture technologique croissante. Les avancée sur les biotechnologies parviennent à contenir les maladies et parasites mais n’augmentent toujours pas les rendements. Fracture technologique du fait de la hausse des coûts des solutions technologique à efficacité constante.

Concernant le maïs (principal composant de l’alimentation animale – élevage – aquaculture) produit dans la Corn-Belt, compte tenu des conditions climatiques favorables, celui-ci ne nécessitait pas à ce jour d’irrigation. Dans le même temps l’effondrement possible de nappe fossile telle que l’Ogallala. Environ 1/3 de l’eau d’irrigation des USA provient d’une et même source : la nappe fossile d’Ogallala. Avec 95 % des prélèvements effectués dirigés vers l’irrigation, la diminution moyenne des niveaux est de 4m, pour une surface légèrement supérieure à celle… de la France…Avec la mise en place de technologie visant à favoriser la recharge des aquifères souterrains par les eaux de pluie et d’irrigation, la quadrature du cercle revient à comment ne pas transférer les pollutions en même temps ?

Journée mondiale de l’eau 2007 : la raréfaction de la ressource

     Le chapitre 4 – water scarcity, risk and vulnerability - du rapport sur le développement humain 2006 du programme des Nations-Unies pour le développement, est consacré à la fragilisation croissante de l’accès des populations à la ressource en eau.

Nous le savons, la ressource en eau est physiquement inégalement répartie sur la planète, c’est la contrainte ou problématique de l’accès physique à la ressource. Par ailleurs, selon ses ressources économiques, chaque pays est capable ou non de bâtir et entretenir les infrastructures et ouvrages capables d’aller chercher, plus loin ou plus profond, et de stocker une eau non directement accessible à l’homme. C’est l’accessibilité économique et technologique à la ressource. Tout comme la première, celle-ci est également très inégale, comme l’illustre le schéma suivant indiquant les capacités de stockage de différents pays. Notons déjà la situation de l’Inde.

Journée mondiale de l'eau 2007 : la raréfaction de la ressource dans -> ACTUS image00115

     C’est en fonction de cette double accessibilité que les divers groupements humains ont su ou pu s’implanter durablement sur des territoires, pas toujours très riches en eau. Or les changements climatiques, la rupture des cycles naturels de l’eau (diversion, barrage, aqueduc) sont autant de facteurs entraînant des déplacements et modifications géographiques de la ressource, au moment même ou les territoires humains sont de plus en plus spécialisé (zones d’agriculture intensives irriguées, mégapoles de peuplement urbain…) et donc d’autant moins flexibles.

Les deux accessibilités se détachent assez clairement sur le schéma suivant. Pour les pays du Maghreb et de l’Afrique de l’Ouest, c’est l’accessibilité physique qui tient un rôle prépondérant (désertification, croissance démographique). Pour les pays du Sud-est asiatiques, c’est surtout la disponibilité économique dans le cadre d’une forte croissance économique et démographique.

image00210 dans Ressource en eau

L’effet mécanique de la croissance démographique implique une diminution de la ressource disponible par tête, ce que résument les deux schémas suivants :

image0037

     La croissance démographique et le prélèvement d’eau ne sont cependant pas en relation proportionnelle. En cause, on citera l’augmentation des niveaux de vie entraînée par la croissance économique mondiale du siècle dernier :

  • l’élévation du niveau de vie moyen qui implique une montée dans la chaîne alimentaire par une plus grande consommation de protéine animale, l’élevage étant très consommateur en eau,

  • une amélioration des conditions sanitaire par le développement des réseaux associés (eau potable, assainissement et tout à l’égout…),

  • l’augmentation de la consommation d’eau dans les processus industriels.

image0045

image0055

     Le développement des différents usages de l’eau selon son niveau de développement économique se retrouve assez explicite dans le schéma suivant. Dans les pays sous-développés où l’agriculture reste une activité dominante assez peu efficace dans ses usages de l’eau, l’usage agricole représente en moyenne 80% des consommations de la ressource. Or le développement des villes et de l’industrie ne peut se faire sans bouleverser profondément cette répartition des usages de la ressource.

image0064

     Consommation n’est pas prélèvement. En effet les prélèvements d’eau dans l’industrie (refroidissement des machines) n’entrainent qu’une faible consommation de la ressource, une très grande partie de celle-ci étant restituée au milieu après épuration. Il n’en est pas de même pour l’agriculture ou l’eau est soit évaporée, soit enfermée dans les tissus végétaux. Autrement dit une grande partie de la ressource est susceptible de quitter l’hydrosystème local (vente des céréales sur le marché mondial égal vente d’eau).

image0071

     On voit donc poindre ici l’énorme gisement des ressources additionnelles nécessaires à soutenir le développement économique des pays à forte croissance. Ainsi en Asie du Sud-est, la part des usages non agricoles passera de 3 à 25% d’ici à 2050. Quelles en seront les conséquences sur les conditions de production agricoles locales, sur le maintien des paysans sur les territoires ruraux, i.e. sur l’exode urbain ?

image0081

Le tableau suivant illustre cette perspective dans le cas de la Chine.

image0091

La question devient alors : comment satisfaire des besoins croissants dans un monde déjà marqué par la surexploitation de nombreux hydrosystèmes ?

image0101

En Chine, les trois principaux bassins versants (ressources de surfaces) sont déjà soumis à des pressions maximales.

image0111

Au Mexique, beaucoup de ressources souterraines sont exploitées à un rythme qui ne permet plus la recharge naturelle des aquifères.

image0121

     Avec les modèles en notre possession et à partir des divers scénarii concernant l’évolution des émissions des gaz à effet de serre dans l’atmosphère, nous ne pouvons qu’estimer globalement l’impact des changements climatiques sur l’accessibilité de la ressource. Ceux-ci sont à corréler avec d’autres forces que sont la déforestation, la désertification…

image0131

     Les conséquences en termes de productivité agricole sont surtout sensibles pour des pays reposant principalement sur l’agriculture pluviale. Le cas de l’Afrique est caractéristique en l’occurrence. Rappelons que si une augmentation du CO2 dans l’atmosphère est susceptible de favoriser la photosynthèse, l’eau n’en demeure pas moins un facteur limitant. Le carbone étant puisé dans l’air par la plante dans un échange d’eau régulé par les stomates. Pas d’eau, pas de carbone.

Article en ligne : Report outlines global warming’s effects

image014

     Par ailleurs, la fonte des glaciers va profondément impacter notre gestion de la ressource. Jusqu’à présent les précipitations étaient stockées sous forme de glaces lors des saisons froides et humides pour être lentement relâcher à la fonte des neige pour alimenter les cours d’eau en période sèche. Les glaciers tenaient donc un rôle de réservoir naturel essentiel dans la régulation des inondations et sécheresse et l’alimentation agricole. Le cas du Pérou est caractéristique de ce type de vulnérabilité climatique.

image015

     Les estimations concernant un pays comme l’Inde sont plus que préoccupantes. La capacité de ses réservoirs est extraordinairement faible, la révolution verte à largement contribué à épuiser les ressources souterraines, les eaux de l’Indus sont déjà partagées avec le Pakistan…comment nourrir plus d’un milliard d’individus à terme ? Aujourd’hui déjà, pour certains paysans, il est plus facile de gagner sa vie en vendant l’eau de leurs puits aux citadins voisins plutôt qu’en cultivant.

image016

     L’hypothèse de la multiplication des conflits liés à la raréfaction de la ressource est aujourd’hui prise au sérieux par bons nombres de scientifiques. Les données historiques restent cependant contradictoires et ne permettent pas d’affirmer un lien direct entre diminution de la ressource et conflit. Cependant la vision des courbes suivantes pourrait laisser à penser le contraire.

Article en ligne: Water scarcity: scientists see rise in drought-related conflicts

image017

Site internet :

Water for life decade

World Water Day

Tous les schémas sont issus du rapport 2006 du PNUD sur le développement humain.

La « révolution quantique » : un monde sans certitudes ?

D’après l’introduction de l’article de Michel Bitbol paru dans la Revue Internationale de Systémique, 11, 215-239, 1997 et autres compléments.

Introduction

Nuage

     « […] De la mécanique quantique Heisenberg soulignait la «rupture réelle dans la structure de la science», voire le «changement apporté au concept de réalité». »

Dans son article Michel Bitbol développe quatre conceptions de la rupture, en les considérants dans un ordre approximativement chronologique :

« […] Selon la première, la nouveauté revient à introduire des discontinuités dans l’espace des états des objets d’échelle atomique; elle consiste en d’autres termes en une quantification des variables pertinentes. »

«  […] Selon la seconde conception, qui est née à peine plus tard avec les réflexions d’Einstein sur son concept de photon entre 1905 et 1911, mais qui a connu son plein développement au début des années 1920 avec de Broglie, le pas décisif consiste en l’indissoluble association de deux sortes de processus tenus pour mutuellement exclusifs en physique classique: les processus ondulatoires et les processus corpusculaires. »

Autrement dit on considère les particules de matière non pas seulement comme des corpuscules ponctuels, mais aussi comme des ondes, possédant une certaine étendue spatiale. Tout objet physique est bien à la fois une onde et un corpuscule, mais ces deux aspects, mutuellement exclusifs, ne peuvent être observés simultanément. Si l’on observe une propriété ondulatoire, l’aspect corpusculaire disparaît et réciproquement.

« La troisième conception, dont le moment fondateur a été la publication en 1927 de l’article de Heisenberg sur les relations dites d’«incertitude», est que la physique quantique signifie l’abandon de l’idéal laplacien du déterminisme. »

Très grossièrement, le principe d’indétermination énonce donc que pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse. Autrement dit certaines propriétés d’une particule sont mutuellement exclusives et donc que « les expériences destinées à la détermination d’une grandeur physique rendent illusoire la connaissance des autres grandeurs, car elles perturbent d’une manière incontrôlable le système en observation, et, par suite, modifient les valeurs des grandeurs antérieurement déterminées… Les relations d’indétermination se rapportent au degré de précision possible pour la connaissance présente des valeurs simultanées de diverses grandeurs de la théorie des quanta» (Heisenberg).

« Enfin, la quatrième conception, […], consiste à voir dans la mécanique quantique une incitation d’ampleur inégalée à ne pas se contenter de la conception précritique d’une objectivité déjà constituée dans la nature, mais à revenir en permanence aux conditions de l’objectivation. Heisenberg parle d’une perte de la coupure cartésienne entre objet et sujet; Bohr évoque plutôt la relativité des déterminations par rapport aux dispositifs expérimentaux qui contribuent à les définir ; et Schrödinger insiste sur la nécessité d’une refonte complète de l’«ontologie» au sens de Quine, c’est à dire du mode de découpage du champ des phénomènes en entités objectivées (individualisées, permanentes, et susceptibles de recevoir des prédicats) […]»

Lire la suite de l’article sur le site de Michel Bitbol

La « révolution quantique » : un monde sans certitudes ? dans -> CAPTURE de CODES : image0026

     Le développement de la théorie quantique s’est accompagné de débats philosophiques extrêmement riches. La nouveauté conceptuelle de la théorie, la nécessité de se débarrasser des modes de pensée qu’avaient imposés la mécanique classique, la difficulté de construire la nouvelle vision du monde posaient aux fondateurs de la théorie de graves problèmes épistémologiques : la question du rapport entre physique quantique et constitution de l’objectivité, le problème du déterminisme.

On sait que Laplace, via son démon, avait mis l’accent sur le strict déterminisme qui régit la mécanique classique : partant des lois de la dynamique d’un certain système classique (les forces qui s’y exercent), la connaissance de son état à un instant donné détermine de façon unique son état à tout instant ultérieur (et antérieur, d’ailleurs). On entend ici par état à un instant donné l’ensemble des valeurs à cet instant des positions et des vitesses de tous les éléments du système. Les relations de Heisenberg interdisent évidemment à cette assertion de garder un sens en mécanique quantique : suivant leur interprétation courante, la connaissance des positions à un certain instant suppose la méconnaissance des quantités de mouvement ou des vitesses, et empêche donc toute prévision rigoureuse, ruinant ainsi le déterminisme classique.

image0034 dans -> PERSPECTIVES TRANSVERSES

A titre d’exemple, imaginons une boite dans laquelle on enferme un chat avec un bol de lait empoisonné. En mécanique quantique, le chat est la superposition de 2 états : vivant et mort. Il est vivant à 50% et mort à 50%. Son état ne se détermine que lors d’une mesure (c’est-à-dire lorsqu’on ouvre la boite pour regarder). On peut constater qu’il est mort dans 50% des cas mais il est impossible de déterminer son état sans mesure. Il s’agit donc bien d’une théorie non déterministe.

Les discussions philosophiques se sont particulièrement concentrées sur cette théorie quantique de la mesure : quel est l’état du système physique après que la mesure a été effectuée ? Par le fait même qu’une mesure puisse donner lieu à divers résultats, mais que seul un de ces résultats soit, en définitive, obtenu, il est clair que l’opération de mesure modifie l’état du système. Autrement dit comment réussir à comprendre le comportement des particules quand les objets que nous manipulons sont constitués de plusieurs milliards de milliards de ces mêmes particules ?

Deux sites d’introduction (vulgarisée) à la mécanique quantique :

http://www.e-scio.net/mecaq/index.php3

http://www.futura-sciences.com/comprendre/d/dossier188-1.php

123



Secrétaire-Chsct-Crns |
Communication NonViolente -... |
ma vision des choses!!! |
Unblog.fr | Annuaire | Signaler un abus | Boîte à idées
| robert robertson
| Le VP Marie-Victorin