L'entropie du cosmos

De la mécanique au nucléaire, nos physiciens sont à l'écoute
entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

L'entropie du cosmos

par entropik » 22 Avr 2007, 01:21

Bonsoir,
L'entropie est de loin l’un des concepts qui m'a le plus intéressé en physique. La première définition que j'en ai eu était fort simple: "fonction définissant l'état de désordre d'un système". En approfondissant le sujet j’ai découvert l’ampleur du champ d’application de l’entropie.

Dans une émission, j'ai appris que l’on ne pouvait parler de désordre pour désigner l'entropie que si l’on se plaçait à l’échelle des atomes et des molécules. Au niveau macroscopique, il est plus prudent de parler de dégradation, de perte d'information. La physicienne de cette émission avait pris l'exemple du morceau de sucre: avant de le plonger dans du café, on possède une certaine information sur lui, on connaît sa structure puisqu’on l’a fabriqué. Une fois qu'il s'est dissous dans le café, on a perdu de l’information, une structure organisée a été réduite en soupe de molécules. On ne saurait pas dire comment ses molécules se sont réparties dans le café car ce phénomène est soumis au hasard. L’entropie de l’ensemble a alors augmentée.

Dans « L’heure de s’enivrer », Hubert Reeves parle beaucoup d’entropie, il explique notamment que Lévi-Strauss (un anthropologue, ethnologue et philosophe français) pensait que l’entropie de l’univers ne pouvait qu’augmenter. Selon ce dernier, elle était très faible aux premières secondes de l’univers et n’a fait qu’augmenter. Il considérait l’homme comme un agent créateur d’entropie parmi les autres. Voici d’ailleurs un petit extrait de son texte pour mieux comprendre sa pensée :
Lévi-Strauss, Tristes tropiques a écrit:Loin que ce rôle (rôle de l’homme) lui marque une place indépendante et que l’effort de l’homme –même condamné- soit de s’opposer vainement à une déchéance universelle, il apparaît lui-même comme une machine, peut-être plus perfectionnée que les autres, travaillant à la désintégration d’un ordre originel et précipitant une matière puissamment organisée vers une inertie toujours plus grande et qui sera un jour définitive. […] Depuis qu’il a commencé à respirer et à se nourrir jusqu’à l’invention des engins atomiques et thermonucléaires en passant par la découverte du feu –et sauf quand il se reproduit lui-même-, l’homme n’a rien fait d’autre qu’allégrement dissocier des milliards de structures pour les réduire à un état où elles ne sont plus susceptibles d’intégration.


Ensuite Reeves va montrer tout au long de son livre en s’appuyant par exemple sur le rayonnement fossile que par rapport au texte de Lévi-Strauss, tout est à l’envers. La léthargie thermique ne se situe pas dans l’avenir, mais dans le lointain passé.

Reeves consacre un chapitre à la fertilité des déséquilibres, où il aborde le principe de la surfusion, également très intéressant. Ce que j’en ai retenu c’est qu’il faut des différences, des déséquilibres pour réduire l’entropie. En résumé Reeves montre que loin de s’amenuiser, à l’échelle cosmique, l’information est sans cesse croissante. Donc on peut dire que l’entropie diminue il me semble.

Voilà où je veux en venir : dans « Dernière nouvelles du cosmos », Reeves relie l’entropie à la qualité de l’énergie, il ne parle plus du tout d’information. Il insère l’entropie dans son chapitre sur les propriétés du cosmos primordial. Il va montrer que, comme les autres propriétés, l’entropie de l’univers primordial est faible. Que le rayonnement fossile présente une remarquable isothermie (très faibles différences de température), que l’univers présente une faible courbure (faible différence par rapport à la géométrie plane), une faible rotation, … je peux le comprendre mais il me semble qu’il y a une contradiction entre isothermie et faible entropie.

Il donne 2 raisons à la faible valeur de l’entropie initiale : la qualité largement supérieure de l’énergie gravitationnelle et la rareté des trous noirs primordiaux. Je veux bien mais plusieurs passages me font penser que Reeves à changé d’avis depuis « L’heure de s’enivrer », on dirait qu’il est d’accord avec Lévi-Strauss maintenant : l’entropie ne fait qu’augmenter.

Voici le passage qui m’a intrigué :
Reeves, Dernières nouvelles du cosmos a écrit: Considérons le nuage interstellaire qui a donné naissance au Soleil. En cédant à l’appel de la gravité, c’est-à-dire en « tombant », cette nappe de gaz et de poussière transforme entièrement son énergie (potentielle) gravitationnelle en énergie lumineuse (l’étoile brille), thermique (elle est chaude) et mécanique (elle accélère le vent solaire). L’entropie du nuage protosolaire s’accroît tout au long de ces transformations. […] Les observations indiquent que l’univers ancien avait une entropie extrêmement faible.


Il dit aussi que les naines blanches, étoiles à neutrons et trous noirs sont les objets les plus entropiques de l’univers. Avant j’avais compris que l’entropie de l’ensemble de l’univers augmentait, mais que localement, dans les étoiles et les supernovae, l’entropie diminuait, précisément lors de la nucléosynthèse, pour former les éléments que nous trouvons sur terre. Je pensais que les créations de l’homme diminuaient l’entropie, comme par exemple les processeurs, que toutes les formes d’organisation que pouvait concevoir l’homme augmentaient la néguentropie (entropie négative).

Alors voilà j’aimerais qu’on mette les choses au clair avec l’entropie. L’entropie des étoiles ne fait-elle qu’augmenter ? Il y a vraiment un problème entre les 2 livres de Reeves parce que je me rappelle bien que dans le premier il disait que plus il y avait une grande différence entre la température de l’étoile et celle du milieu interstellaire, plus son entropie diminuait. Les photons que l’astre émet augmentent l’entropie de l’espace intersidéral et permettent à l’étoile ou la planète de diminuer son entropie. Dès lors j’aimerais comprendre : quand l’entropie est-elle la plus faible ? Dans la soupe primitive malgré le manque de déséquilibre ou dans le cœur des étoiles et les projections des supernovae ?
Peut-on dire que normalement l’entropie d’un cerveau humain diminue avec l’âge ? Peut-on dire que les mécanismes de la reproduction diminuent l’entropie en créant une nouvelle structure complexe ?
Qu’en est-il de l’entropie du point de vue de la terre ? Peut on dire qu’elle diminue globalement ? Augmente-t-on l’entropie de façon significative en rejetant tout ce carbone dans l’atmosphère ?
Ce n’est pas clair, finalement l’entropie du cosmos augmente ou pas ?



Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 22 Avr 2007, 10:35

bonjour,

Questions préalables:

- de quelle entropie parles-tu : de l'entropie statistique selon la définition de Boltzmann ou de l'entropie thermodynamique de Clausius? La réponse conditionne la manière d'aborder la discussion sur l'entropie d'un système et sa relation avec la théorie de l'information (qui n'a pas de sens si l'on parle d'entropie thermodynamique de Clausius).

- qu'est-ce que le cosmos pour toi? c'est un terme de rêveur ou de philisophe humaniste! Je n'ai rien contre eux, au contraire. Mais en physique, on parle d'univers...

- considères-tu l'univers comme un système fermé ou ouvert (fini ou infini?). Je te rappelle que l'entropie, en thermodynamique, est définie pour un système fermé.

Une fois ces bases établies, on pourra discuter.

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 22 Avr 2007, 14:07

Dominique Lefebvre a écrit:- de quelle entropie parles-tu : de l'entropie statistique selon la définition de Boltzmann ou de l'entropie thermodynamique de Clausius? La réponse conditionne la manière d'aborder la discussion sur l'entropie d'un système et sa relation avec la théorie de l'information (qui n'a pas de sens si l'on parle d'entropie thermodynamique de Clausius).

Oui je parlais bien de l'entropie thermodynamique de Clausius. Mais à propos quand se sers-t-on de l'entropie statistique?

Dominique Lefebvre a écrit:- qu'est-ce que le cosmos pour toi? c'est un terme de rêveur ou de philisophe humaniste! Je n'ai rien contre eux, au contraire. Mais en physique, on parle d'univers...

Pourtant la cosmologie scientifique existe bien comme branche de l'astrophysique qui étudie l'Univers en tant que système physique. Et là on parle bien de cosmos en termes physiques pour désigner l'Univers. Doit-on vraiment faire une distinction?

Dominique Lefebvre a écrit:- considères-tu l'univers comme un système fermé ou ouvert (fini ou infini?). Je te rappelle que l'entropie, en thermodynamique, est définie pour un système fermé.

Je le considère comme un système ouvert et fini. Pourquoi ouvert? Parce que je crois qu'il est constamment en contact avec d'autres univers ou, que sais-je, quelque chose d'inconnu qui ne correspond à rien de ce qu'on pourrait imaginer. Je crois que les trous noirs, entre autres, communiquent avec un au-delà encore bien mystérieux car ces objets dépassent les limites du champ d'application de la physique. Je pense que le fait que le Big Bang soit la conséquence d'une cause extérieure à l'Univers prouve son ouverture.
Je le considère fini tout simplement parce que l'infini est une notion trop éloignée de ce que je peux imaginer et que le considérer fini ne contredit pas les lois actuelles de la physique. Voici les 2 principaux articles d'un astrophysicien français qui m'ont fait prendre cette opinion: Adieu, la physique et L'infini, ça n'existe pas.

Je sais que le deuxième principe de la thermodynamique énonce que l'entropie d'un système fermé ne peut qu'augmenter. Mais pour moi, l'entropie est aussi définie en thermodynamique des systèmes ouverts (on peut d'ailleurs le voir dans ce cours de thermodynamique).
Et lorsque Reeves dit que l'entropie du nuage protosolaire augmente tout au long de ses transformations, il s'agit bien d'un système ouvert non? Je ne vois pas ce qui isolerait un si grand nuage de particules du reste de l'Univers. Donc parler de l'entropie des systèmes ouverts (dont nous faisons partie) a un sens physique.

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 22 Avr 2007, 14:40

Mais les notions d'entropie thermodynamique et d'entropie statistique n'ont elles vraiment aucun lien? Reeves ne précise pas de laquelle il parle quand il dit que l'entropie de la soupe primitive de matière isotrope (et particulièrement isotherme) était extrêmement faible. Mais quand je lis ce passage de l'article de wikipédia, il me semble qu'il y a une contradiction évidente:
Wiki: entropie a écrit:L'expression « degré de désordre du système » introduite par Boltzmann peut se révéler ambigüe. En effet on peut aussi définir l'entropie comme une mesure de l'homogénéité du système considéré. L'entropie d'un système thermique est maximale quand la température est identique en tout point. De même, si on verse un liquide colorant dans un verre d'eau, l'entropie du système coloré sera maximale quand, suite au mélange, la couleur du contenu sera devenue uniforme. L'entropie d'un tableau parfaitement lisse et blanc est maximale et ne contient aucune information visible. Si on y ajoute un point coloré, l'entropie diminue, et une information a été ajoutée. Ceci illustre pourquoi, à la naissance de la théorie de l'information, la quantité d'information contenue dans un système était appelée « néguentropie ». Tout système isolé, siège d'une agitation aléatoire, tend spontanément à s'homogénéiser de manière irréversible. C'est pourquoi la notion d'entropie, telle qu’elle est définie par la physique statistique, a été utilisée en théorie de l'information par Claude Shannon au début des années 1950 pour mesurer la perte d'information. voir aussi l'article détaillé : Entropie de Shannon.


Deuxième chose perturbante: cet article rapporte un lien entre physique statistique et théorie de l'information alors que vous avez dit plus haut que relier entropie et théorie de l'information n'a de sens que si l'on parle d'entropie thermodynamique... encore une contradiction.

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 22 Avr 2007, 14:57

Le second principe de la thermodynamique auquel tu fais allusion n'est applicable qu'à un système fermé. Dans le cas d'un système ouvert, tu as des échanges d'énergie avec l'extérieur qui t'interdisent de dire quoique ce soit a priori sur l'évolution de l'entropie de ton système.

Par exemple, une cellule vivante (au sens biologique) est un système bilogique dont l'organisation croît et donc l'entropie décroît, ce qui semble contraite au second principe. Sauf que le second principe n'est pas applicable car ils'agit d'un système ouvert.

D'autre part, je ne partage pas tes idées sur l'existanecs d'autres univers et de la consèquence que tu en tires, à savoir que l'univers est un système ouvert.

A propos de la relation entre la théorie de l'information et l'entropie j'ai écris :" La réponse conditionne la manière d'aborder la discussion sur l'entropie d'un système et sa relation avec la théorie de l'information (qui n'a pas de sens si l'on parle d'entropie thermodynamique de Clausius)."

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 22 Avr 2007, 15:01

entropik a écrit:Mais les notions d'entropie thermodynamique et d'entropie statistique n'ont elles vraiment aucun lien? Reeves ne précise pas de laquelle il parle quand il dit que l'entropie de la soupe primitive de matière isotrope (et particulièrement isotherme) était extrêmement faible. Mais quand je lis ce passage de l'article de wikipédia, il me semble qu'il y a une contradiction évidente:


De quelle contradiction parles-tu? J'ai écris (voir mon post précédent) que pour parler de théorie de l'information, il fallait employer la définition de Boltzmann de l'entropie et pas celle de Clausius. Je n'ai pas écris qu'elles n'avaient aucun lien! Et d'ailleurs, connais-tu et comprends-tu la différence entre ces deux définitions?

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 22 Avr 2007, 15:18

Dominique Lefebvre a écrit:Le second principe de la thermodynamique auquel tu fais allusion n'est applicable qu'à un système fermé. Dans le cas d'un système ouvert, tu as des échanges d'énergie avec l'extérieur qui t'interdisent de dire quoique ce soit a priori sur l'évolution de l'entropie de ton système.

Par exemple, une cellule vivante (au sens biologique) est un système bilogique dont l'organisation croît et donc l'entropie décroît, ce qui semble contraite au second principe. Sauf que le second principe n'est pas applicable car ils'agit d'un système ouvert.

Donc on peut parler d'entropie sans que le second principe soit applicable. La notion d'entropie n'est donc pas limitée au second principe. C'est ça que je voulais dire.

Dominique Lefebvre a écrit:D'autre part, je ne partage pas tes idées sur l'existanecs d'autres univers et de la consèquence que tu en tires, à savoir que l'univers est un système ouvert.

Pourrais-je avoir votre opinion alors?

Dominique Lefebvre a écrit:A propos de la relation entre la théorie de l'information et l'entropie j'ai écris :" La réponse conditionne la manière d'aborder la discussion sur l'entropie d'un système et sa relation avec la théorie de l'information (qui n'a pas de sens si l'on parle d'entropie thermodynamique de Clausius)." De quelle contradiction parles-tu? J'ai écris (voir mon post précédent) que pour parler de théorie de l'information, il fallait employer la définition de Boltzmann de l'entropie et pas celle de Clausius.

Ah oui pardonnez moi, j'avais mal lu. Donc parler de la relation entre théorie de l'information et entropie n'a de sens que si l'on parle précisément d'entropie statistique.

Dominique Lefebvre a écrit: Je n'ai pas écris qu'elles n'avaient aucun lien! Et d'ailleurs, connais-tu et comprends-tu la différence entre ces deux définitions?
Non pas bien, pourriez vous me l'expliquer?

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 22 Avr 2007, 17:13

Dominique Lefebvre a écrit:De quelle contradiction parles-tu?

En réalité je parlais ici de la contradiction entre la faible entropie de l'univers primordial (justifiée par la rareté des trous noirs et la qualité de l'énergie gravitationnelle) et l'entropie définie comme étant maximale lorsque la température est identique en tout point (ce qui était presque le cas lors de l'émission du rayonnement fossile en tout cas).
Si un jour on parvient à observer le rayonnement fossile de neutrinos cosmiques (que nous reçevons depuis l'époque où l'univers était à dix milliards de degrés) de la même façon que le rayonnement fossile de photons, peut-être pourras-t-on mettre en évidence des déséquilibres thermiques nécessaires à l'émergence de la complexité, à l'augmentation de l'information et de la néguentropie.

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 24 Avr 2007, 19:41

Bonjour,
Voici en résumé les questions sur lesquelles j'aimerais que vous m'éclairiez:

-Quelles sont les différences et le lien entre l'entropie selon Clausius et Boltzmann?

-Considérez vous l'univers comme un système ouvert ou fermé, fini ou infini?

-Je remet cette question ici, ce sera plus approprié: savez vous si l'on a effectué les recherches sur la nucléosynthèse dans le seul but d'expliquer l'existence des élements connus ou as-t-on cherché à connaître la possibilité d'existence d'éléments (chimiques) inconnus?

Et enfin le principal:
-que pensez vous du paradoxe entre les observations qui montrent que l'Univers primordial malgré son isothermie avait une très faible entropie et la définition de l'entropie comme mesure de l'homogénéité du système considéré? ("L'entropie d'un système thermique est maximale quand la température est identique en tout point")

-quel est pour vous vous la période où l'entropie de l'Univers est la plus faible? Lors du Big Bang, pendant d'autres périodes de la nucléosynthèse ou depuis l'émergence du cerveau humain?

-pensez vous que l'entropie de l'ensemble de l'Univers (en fonctions de vos conceptions du cosmos) diminue globalement?

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 24 Avr 2007, 20:10

entropik a écrit:En réalité je parlais ici de la contradiction entre la faible entropie de l'univers primordial (justifiée par la rareté des trous noirs et la qualité de l'énergie gravitationnelle) et l'entropie définie comme étant maximale lorsque la température est identique en tout point (ce qui était presque le cas lors de l'émission du rayonnement fossile en tout cas).
Si un jour on parvient à observer le rayonnement fossile de neutrinos cosmiques (que nous reçevons depuis l'époque où l'univers était à dix milliards de degrés) de la même façon que le rayonnement fossile de photons, peut-être pourras-t-on mettre en évidence des déséquilibres thermiques nécessaires à l'émergence de la complexité, à l'augmentation de l'information et de la néguentropie.


j'aimerai que tu définisses dans quel sens tu emploies les mots complexité, information et néguentropie dans le cadre de la génèse de l'univers selon le modèle du big bang...

j'aimerai aussi comprendre en quoi la rareté des trous noirs (sic) justifie-t-elle la faible entropie de l'univers primordial!

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 24 Avr 2007, 20:38

entropik a écrit:Bonjour,
Voici en résumé les questions sur lesquelles j'aimerais que vous m'éclairiez:

-Quelles sont les différences et le lien entre l'entropie selon Clausius et Boltzmann?


l'entropie thermodynamique est définie par Clausius dans des conditions très particulières (système isolé fermé) de façon relative. Il dit que la variation d'entropie dS = dq/T avec dq représentant la quantité d'énergie infinitésimales fournie de manière réversible au système, sous forme de chaleur à la température de transition T. Cette définition est une autre forme du deuxième principe de la thermodynamique. Elle provient des téudes de Carnot sur les machines thermiques. Ses conditions de définition en font un outil peu approprié pour parler de l'univers...

L'enthropie de Boltzmann mesure le désordre d'un système de particules. Elle peut être définie de manière absolue (contrairement à celle de Clausius) par S = k*ln(W). k est la constante de Boltzmann et W est le nombre de configurations distinctes ou de combinaisons des n particules du système considéré entre tous les niveaux quantiques permis.

Pour un système de particules à l'équilibre (ce qui n'existe pas en pratique), on peut montrer que les deux entropies correspondent.

Il faut remarquer que cette entropie est un concept statistique, issu de la mécanique statistique, avec les approximations de son domaine de validité.


-Considérez vous l'univers comme un système ouvert ou fermé, fini ou infini?

je n'en sais rien, je ne suis pas cosmologiste...


-Je remet cette question ici, ce sera plus approprié: savez vous si l'on a effectué les recherches sur la nucléosynthèse dans le seul but d'expliquer l'existence des élements connus ou as-t-on cherché à connaître la possibilité d'existence d'éléments (chimiques) inconnus?

A priori, tous les éléments chimiques prévus par la MQ sont identifiés, à défaut d'être connus. Par exemple, on sait que des noyaux super-lourds stables (d'une durée de vie de l'ordre de la micro ou milliseconde) peuvent exister même si l'on a pas encore les moyens de les produire...
L'étude de la nucléosynthèse est d'un autre ordre. C'est une coopération entre les physiciens des particules et les astrophysiciens. Elle étudie la physique des étoiles.

Et enfin le principal:
-que pensez vous du paradoxe entre les observations qui montrent que l'Univers primordial malgré son isothermie avait une très faible entropie et la définition de l'entropie comme mesure de l'homogénéité du système considéré? ("L'entropie d'un système thermique est maximale quand la température est identique en tout point")

-quel est pour vous vous la période où l'entropie de l'Univers est la plus faible? Lors du Big Bang, pendant d'autres périodes de la nucléosynthèse ou depuis l'émergence du cerveau humain?

-pensez vous que l'entropie de l'ensemble de l'Univers (en fonctions de vos conceptions du cosmos) diminue globalement?


Je n'en sais rien: je ne suis toujours pas cosmologiste... Et je me méfie des généralisations et des intersections osées... Que vient faire "l'émergence du cerveau humain" dans la mesure de l'entropie de l'univers... Ce mélange soutend des hypothèses que tu devrais expliciter... Et d'ailleurs, c'est quoi l'émergence du cerveau humain?

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 24 Avr 2007, 23:20

Dominique Lefebvre a écrit:j'aimerai que tu définisses dans quel sens tu emploies les mots complexité, information et néguentropie dans le cadre de la génèse de l'univers selon le modèle du big bang...

Bon alors la complexité je dirais que c'est quand un tas d'entités élémentaires s'additionnent pour former une structure d'un ordre de grandeur supérieur.

L'information, c'est la quantité de données dont j'ai besoin pour décrire entièrement un système physique (en l'occurrence de particules élémentaires) à un interlocuteur qui ne peut pas l'observer.

Et la néguentropie, je la vois comme un paramètre dépendant des 2 précédents qui mesure la qualité de l'énergie mais aussi le nombre d'informations auquelles je peux accéder par rapport à celles auquelles je ne peux pas accéder en raison des contraintes physiques de mesure.

En fait je crois que je suis encore loin d'avoir bien compris le concept, il est sûrement plus vaste que je ne l'imagine. Je pense qu'il tient aussi compte du rendement et de l'utilité.
Mais il faut bien tenir compte de l'ordre de grandeur dans lequel on se trouve et c'est peut être pour ça si ma comparaison d'entropies n'a pas de sens.

Je me souvient d'un exemple dont parlais Reeves: si l'on jette des objets ménagers dans un jardin par exemple, on peut dire que l'on crée de l'entropie, on l'augmente. Il y aura du désordre dans la mesure où des structures qui présentaient une régularité -je veux dire par là composées de mailles élémentaires disposées d'une manière étudiée, descriptibles comme un assemblage de petites structures élémentaires- auront été détruites.
Cette action de jeter de détritus qui augmente pour nous l'entropie peut la diminuer à l'échelle d'une fourmis par exemple. Les fourmis pourraient trouver grâce à ces détritus un endroit idéal pour construire leur fourmilière. Ce qui pour elles représente un rendement idéal est une diminution du rendement de la pelouse pour le jardinier.

Dominique Lefebvre a écrit:j'aimerai aussi comprendre en quoi la rareté des trous noirs (sic) justifie-t-elle la faible entropie de l'univers primordial!

Moi aussi, c'est justement pour ça que je vous posais la question. J'ai lu ça dans "Dernières nouvelles du cosmos" et le passage ne m'a pas convaincu:
"Revenons à notre proposition: "Les observations indiquent que l'univers ancien avait une entropie extrêmement faible." Pour en comprendre le sens précis, il nos faut parler un peu plus longuement des trous noirs.
Si peut de trous noirs!
Les trous noirs dont des astres dont le champ de gravité est si intense que rien ne peut s'en extraire, pas même la lumière. Leurs vitesses d'échappement sont supérieur à la vitesse de la lumière. [...] L'univers des premiers temps se présent à nous sous la forme d'un fluide homogène, sans "grumeau" important. Il aurait pu avoir un tou autre aspect. On peut imaginer de vastes régions surdenses en train de s'effondrer, d'autres en expansion accélérée. Des trous noirs auraient pu s'y former en grand nombre pendant le Big Bang. Les hautes densités qui régnaient alors auraient favorisé leur accumulation. Rien n'interdisait a priori la présence d'une quantité considérable de trous noirs de masses variées. Des trous noirs initiaux de masse inférieure à celle d'une grosse montagne terrestre (environ un trillion de tonnes) n'existeraient plus aujourd'hui: ils se seraient "évaporés". Des trous noirs plus massifs perdureraient jusqu'à maintenant. Leur présence se manifesterait clairement. Leurs masses perturberaient les orbites des étoiles voisines. Il y en a très peu. Là encore, nous retrouvons la notion de données initiales minimales: il pourrait y avoir beaucoup de trous noirs, or ils sont très rares.
La question "pourquoi l'entropie initiale était-elle si faible?" est équivalente à la question "pourquoi y avait-il si peu de trous noirs dans la purée initiale?". Ils y sont rares. L'entropie gravitationnelle initiale était très faible. Encore une énigme; encore une valeur minimale à expliquer..."

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 24 Avr 2007, 23:24

Bonsoir,
Donc la grande différence entre ces 2 types d'entropie est que l'une est relative, l'autre absolue.
Sachant cela, il me semble que l'on peut mesurer l'entropie statistique de tout système physique ouvert, que ce soit un ensemble de régions particulières de l'Univers au Big Bang, un ensemble d'agglomérats dans des supernovae, une étoile, ou un cerveau humain, non?

Pour moi l'émergence du cerveau humain, c'est la naissance du premier système neurobiologique des hominidés.
On dit que le cerveau humain actuel -donc normalement plus évolué que les anciens- est l'objet le plus complexe qu'il nous ait jamais été donné d'observer. J'aimerais savoir si l'on peut vraiment dire que c'est l'objet le plus néguentropique de l'univers, s'opposant ainsi au plus entropique: le trou noir.
Ne peut-on pas comparer les valeurs numériques de l'entropie des formes d'organisation de l'univers et de celles du cerveau? (en admettant que l'on se place à une même échelle)

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 25 Avr 2007, 07:22

entropik a écrit:Bonsoir,
Donc la grande différence entre ces 2 types d'entropie est que l'une est relative, l'autre absolue.


Ce n'est pas la grande différence!

Pour cerner la différence, il faut revenir aux sources. L'entropie de Clausius est définie à partir du cycle de Carnot et de l'étude des machines thermiques. Elle résulte d'un modèle mathématique continu, et est représentée par des équations aux dérivées partielles. Elle soutend un milieu continu.

L'entropie statistique provient de l'étude de systèmes mécaniques, formés par un nombre important d'objets élémentaires assimilés à des points. Sur ces systèmes, on applique les lois statistiques. Il serait par exemple tout à fait incorrect et sans signification de parler de l'entropie statistique sur un système de 10 ou 100 objets.
L'entropie statistique soutend un milieu discontinu.

La différence de modèle est fondamentale car elle définit la pertinence de l'utilisation de l'un ou l'autre des modèles.

Prenons l'exemple d'un gaz réel. Dans une enceinte contenant une mole d'O2,tu peux utiliser l'entropie de Clausius, ce que l'on fait classiquement, parce que le nombre d'objets est tellement grand (N) que l'on peut considérer l'approximation du milieu continu comme pertinente. Et donc, dans cette enceinte, moyennant qq précautions, tu peux utiliser l'entropie statistique ou l'entropie de Clausius. Mais avant de te lancer dans le calcul de l'entropie statistique, essaye d'imaginer le nombre d'états quantiques possible sur une population de N molécules...

Maintenant, imaginons que dans cette enceinte, nous disposions 100 molécules d'O2 (dans une expérience de MQ par exemple). Dans ce cas, les hypothèses nécessaires à Clausius ne sont pas respectéeset l'entropie thermodynamique n'a plus de sens...

Conclusion: avant de comprendre toutes les notions d'entropie, il faut se plonger dans un cours de thermodynamique et de mécanique statistique..

Sachant cela, il me semble que l'on peut mesurer l'entropie statistique de tout système physique ouvert, que ce soit un ensemble de régions particulières de l'Univers au Big Bang, un ensemble d'agglomérats dans des supernovae, une étoile, ou un cerveau humain, non?

On ne mesure pas l'entropie statistique, on la calcule...
Ce serait théoriquement possible, sous réserve que nous sachions dénombrer W. Devant la difficulté, on se contente d'approximation...
Je ne vois toujours pas ton attirance pour le calcul de l'entropie du cerveau humain, c'est une fixation! Est-ce qu'il s'agit de calculer l'entropie du système formé par quelques milliard de cellules, dont la masse est de l'ordre du kg? Je ne sais même pas si l'on est capable de déterminer assez précisement le nombre d'états d'une cellule quelconque, y compris un neurone, alors pour ce qui est d'un organe quelconque...


Pour moi l'émergence du cerveau humain, c'est la naissance du premier système neurobiologique des hominidés.
On dit que le cerveau humain actuel -donc normalement plus évolué que les anciens- est l'objet le plus complexe qu'il nous ait jamais été donné d'observer. J'aimerais savoir si l'on peut vraiment dire que c'est l'objet le plus néguentropique de l'univers, s'opposant ainsi au plus entropique: le trou noir.
Ne peut-on pas comparer les valeurs numériques de l'entropie des formes d'organisation de l'univers et de celles du cerveau? (en admettant que l'on se place à une même échelle)


Vaste débat! Tout d'abord, il s'agit de déterminer ce qu'est la complexité d'un système. Et je ne sais pas si cette notion est clair dans ton esprit. Et donc l'affirmation "l'objet le plus complexe qu'il nous ait jamais été donné d'observer" est très discutable, et discutée d'ailleurs! Les "on" qui procèdent à cette affirmation le font très souvent sans préciser leur notion de la complexité et pour des raisons qui sont assez éloignées de la physique.

Et que sais-tu de l'entropie des trous noirs? As-tu lu les travaux de Hawkings et Penrose sur le sujet?

Et enfin, le cerveau humain, 6 milliards environ de ce genre de système, sont des sous-systèmes de l'univers. Sur le plan du calcul de l'entropie de Boltzmann de l'univers, ces organes entrent dans la somme des états possibles de l'univers. Et donc, in fine, l'entropie stat. de l'univers est supérieure à l'entropie d'un de ses sous-systèmes...

entropik
Membre Relatif
Messages: 395
Enregistré le: 11 Sep 2006, 14:49

par entropik » 25 Avr 2007, 15:28

Bonjour,
Merci pour ces précisions.
Dominique Lefebvre a écrit:Est-ce qu'il s'agit de calculer l'entropie du système formé par quelques milliard de cellules, dont la masse est de l'ordre du kg? Je ne sais même pas si l'on est capable de déterminer assez précisement le nombre d'états d'une cellule quelconque, y compris un neurone, alors pour ce qui est d'un organe quelconque...

Mais pourrait-on imaginer au moins l'ordre de grandeur du résultat du calcul? Peut-on supposer que si l'on parvenait à la calculer, l'entropie de certaines étoiles ou amas de matière serait plus élevée que celle du cerveau?

Dominique Lefebvre a écrit:Vaste débat! Tout d'abord, il s'agit de déterminer ce qu'est la complexité d'un système. Et je ne sais pas si cette notion est clair dans ton esprit. Et donc l'affirmation "l'objet le plus complexe qu'il nous ait jamais été donné d'observer" est très discutable, et discutée d'ailleurs! Les "on" qui procèdent à cette affirmation le font très souvent sans préciser leur notion de la complexité et pour des raisons qui sont assez éloignées de la physique.

Ne peut-on pas définir simplement la complexité comme proportionnelle au nombre de particules élémentaires en jeu et au nombre d'ensembles et de sous-ensembles dans lesquels elles sont agencées?

Dominique Lefebvre a écrit:Et que sais-tu de l'entropie des trous noirs? As-tu lu les travaux de Hawkings et Penrose sur le sujet?

Non malheureusement, j'ai tout de même un livre d'Hawking: "Une brève histoire du temps", je compte bien le lire mais il faut dire que les livres de Reeves m'ont déjà bien occupé jusque maintenant.

Dominique Lefebvre a écrit:Et enfin, le cerveau humain, 6 milliards environ de ce genre de système, sont des sous-systèmes de l'univers. Sur le plan du calcul de l'entropie de Boltzmann de l'univers, ces organes entrent dans la somme des états possibles de l'univers. Et donc, in fine, l'entropie stat. de l'univers est supérieure à l'entropie d'un de ses sous-systèmes...

Oui ça je suis bien d'accord, ce que je voulais c'est comparer le cerveau à certains systèmes précis du cosmos, ceux qu'on considère comme les plus organisés. Mais j'aurais aussi trouvé intéressant de pouvoir mesurer la contribution des cerveaux humains à la néguentropie de l'univers. J'aurais voulu connaître dans quelle mesure ils ont pu diminuer l'entropie du cosmos par rapport aux autres sytèmes.
Aussi je me pose des questions du genre: est-ce que la pollution de l'homme augmente tellement l'entropie que toutes les formes d'organisation qu'il engendre ne font plus le poids face à cette augmentation? Est-ce que l'homme, à lui seul, a le pouvoir de modifier la tendance entropique de l'univers (càd diminution ou augmentation)?

Dominique Lefebvre
Membre Légendaire
Messages: 8005
Enregistré le: 03 Déc 2005, 12:00

par Dominique Lefebvre » 25 Avr 2007, 18:12

entropik a écrit:Mais pourrait-on imaginer au moins l'ordre de grandeur du résultat du calcul? Peut-on supposer que si l'on parvenait à la calculer, l'entropie de certaines étoiles ou amas de matière serait plus élevée que celle du cerveau?


Seth Lloyd, un physicien du MIT, a estimé que la quantité d'information contenue dans l'univers visible est de l'ordre de 10^120 bits. Il renvoit à une définition de l'entropie physique basée sur l'information.

Don Page, physicien à l'université d'Alberta, estime lui que l'entropie stat. d'un trou noir de masse égale à celle de notre amas local serait de l'ordre de 10^(10^100) - un nombre appelé Googleplex...Il se sert de la formule de Hawking sur l'entropie des trous noirs pour calculer. Ne me demande pas comment, je ne sais pas...


Ne peut-on pas définir simplement la complexité comme proportionnelle au nombre de particules élémentaires en jeu et au nombre d'ensembles et de sous-ensembles dans lesquels elles sont agencées?

En théorie des systèmes complexes, on se sert de la définition de la complexité de Kolmogorov.
Pour simplifier, on emploie une métrique assez intuitive : la complexité est égale à la taille du programme informatique nécessaire à décrire l'objet dont tu veux mesurer la complexité. par informatique, j'entends bien sur informatique théorique: on se fiche de savoir si le programme est en C ou FORTRAN.


Non malheureusement, j'ai tout de même un livre d'Hawking: "Une brève histoire du temps", je compte bien le lire mais il faut dire que les livres de Reeves m'ont déjà bien occupé jusque maintenant.

J'aime bien Reeves, mais bon! La lecture de Hawking et Penrose sur les trous noir te sera plus profitable... Et au delà de "une brève..." qui est un livre de vulgarisation.


Oui ça je suis bien d'accord, ce que je voulais c'est comparer le cerveau à certains systèmes précis du cosmos, ceux qu'on considère comme les plus organisés. Mais j'aurais aussi trouvé intéressant de pouvoir mesurer la contribution des cerveaux humains à la néguentropie de l'univers. J'aurais voulu connaître dans quelle mesure ils ont pu diminuer l'entropie du cosmos par rapport aux autres sytèmes.
Aussi je me pose des questions du genre: est-ce que la pollution de l'homme augmente tellement l'entropie que toutes les formes d'organisation qu'il engendre ne font plus le poids face à cette augmentation? Est-ce que l'homme, à lui seul, a le pouvoir de modifier la tendance entropique de l'univers (càd diminution ou augmentation)?

Bizarre tes questions...

 

Retourner vers ⚛ Physique

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 2 invités

Tu pars déja ?



Fais toi aider gratuitement sur Maths-forum !

Créé un compte en 1 minute et pose ta question dans le forum ;-)
Inscription gratuite

Identification

Pas encore inscrit ?

Ou identifiez-vous :

Inscription gratuite