Informations

Thermodynamique - Biologie

Thermodynamique - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les cellules ont besoin d'énergie pour

Au niveau cellulaireAu niveau moléculaire
mouvementtransport d'ions, formation de liaisons réversibles
grandirsynthèse et polymérisation
maintenir l'homéostasieproduction de chaleur, réduction d'entropie

Lois de la thermodynamique

0) Tous les systèmes fermés se dirigent vers l'équilibre.
1) L'énergie (travail, chaleur, etc.) d'un système fermé est conservée.
2) L'entropie d'un système fermé augmente.
3) Il est impossible d'atteindre le zéro absolu (0K)
  • Cependant, la deuxième loi pose problème : comment les cellules peuvent-elles se reproduire pour fabriquer plus de cellules en utilisant des matières premières désordonnées, et ainsi créer de l'ordre ? Les cellules ne sont pas des systèmes fermés, elles interagissent avec leur environnement.

Scellule + Senvironnement = Ssystème

Énergie biochimique

Afin d'appliquer la thermodynamique aux réactions biologiques, nous avons besoin d'une mesure de l'énergie qui s'applique aux conditions de vie.
  • Considérons la réaction X↔Y :
    • Les états X et Y ont une énergie interne (E), une pression (P), un volume (V), une température (T) et une entropie (S).
    • G(énergie libre de Gibb)=E+PV-TS
    • G représente les changements d'énergie interne et d'entropie pour toute réaction à température et pression constantes
    • Pour la réaction X↔Y, G dépend des concentrations de réactifs et de produits ainsi que des variables d'état E, P, V, T, S :

??G=??go+RTln([Y]/[X])

  • dans des conditions standard : 1 M de substrat, 1 M de produit, 25oC, pression atmosphérique : ΔG=ΔGo
  • Si X→Y est spontané, G diminue et la réaction est considérée comme exergonique :ΔG=G(des produits)-G(réactifs)<0
    • [graphique] lorsque G est au minimum, supposons que la réaction est à l'équilibre et ΔG=0.
  • Soit K=[Y]/[X], et supposons que la réaction soit à l'équilibre (ΔG=0) :

G=ΔGo+RTln([Y]/[X])
0=ΔGo+RTlnKéq
??go=-RTlnKéq

  • À pH 7, Go=-RTlnKéq où [H+]=10-7M. Cela fait une différence lorsque H+ est un réactif ou un produit.

Réactions couplées

  • Pour deux réactions : X↔Y ΔG1
    A↔B ΔG2
    • S'ils sont couplés (se produisent ensemble), alors X+A↔Y+B et :

G=ΔG1+ΔG2
Go=ΔGo1+ΔGo2

  • La réaction couplée se déroule (est spontanée) si ΔG<0.
  • Cela signifie que les conditions conduisant à des réactions exergoniques (ΔG<0) peuvent être utilisées pour alimenter des réactions endergoniques (ΔG>0) :
    • Réactions exergoniques :
      • absorption lumineuse
      • relaxation du déséquilibre redox
      • rupture/dégradation de la liaison
    • Réactions endergoniques :
      • synthèse
      • polymérisation
      • homéostasie
  • Exemple:

PPE + H2O → pyruvate + Pje ΔG=-78 kJ/mol (exergonique)
ADP + Pje → ATP + H2O ΔG=55 kJ/mol (endergonique)

  • combiner les deux réactions, et additionner leurs valeurs ΔG :

PEP + ADP → pyruvate + ATP ΔG=-23 kJ/mol (exergonique)


Qu'est-ce que la thermodynamique ? (Avec des photos)

La thermodynamique est le domaine de la science qui comprend la relation entre la chaleur et d'autres types d'énergie. La thermodynamique a été découverte et étudiée à partir des années 1800. À cette époque, elle était liée et prenait de l'importance en raison de l'utilisation de machines à vapeur.

La thermodynamique peut être décomposée en quatre lois. Bien qu'ajoutée aux lois de la thermodynamique après les trois autres lois, la loi zéro est généralement discutée en premier. Il indique que si deux systèmes sont en équilibre thermique avec un troisième système, alors ils sont en équilibre thermique l'un avec l'autre. En d'autres termes, si deux systèmes ont la même température qu'un troisième système, alors tous les trois ont la même température.

La première loi de la thermodynamique stipule que l'énergie totale d'un système reste constante, même si elle est convertie d'une forme à une autre. Par exemple, l'énergie cinétique - l'énergie qu'un objet possède lorsqu'il se déplace - est convertie en énergie thermique lorsqu'un conducteur appuie sur les freins de la voiture pour la ralentir. Il y a souvent des slogans pour aider les gens à se souvenir de la première loi de la thermodynamique : « Le travail c'est la chaleur, et la chaleur c'est le travail ». Fondamentalement, le travail et la chaleur sont équivalents.

La deuxième loi de la thermodynamique est l'une des lois les plus fondamentales de la science. Il indique que la chaleur ne peut pas s'écouler de son propre gré vers un système à une température plus élevée à partir d'un système à une température plus basse. Pour qu'une telle action se produise, le travail doit être fait. Si un glaçon est placé dans une tasse d'eau chaude, le glaçon fond à mesure que la chaleur de l'eau s'y écoule. Le résultat final est une tasse d'eau légèrement plus fraîche. Les glaçons ne peuvent se former que si de l'énergie est utilisée.

Un autre exemple de la deuxième loi fonctionnant uniquement avec l'ajout d'énergie peut être vu avec un réfrigérateur plus ancien. Dans ce cas, le refroidissement de l'intérieur du réfrigérateur en réchauffe l'extérieur. Ainsi, le travail est fait et le travail fait de la chaleur. Le travail est complété par la pompe du réfrigérateur.

La deuxième loi de la thermodynamique dit aussi que les choses peuvent s'user. Par exemple, si une maison en brique n'est pas entretenue, elle finira par s'effondrer à cause du vent, de la pluie, du froid et d'autres conditions météorologiques. Cependant, si un tas de briques est laissé sans surveillance, il ne formera jamais une maison, à moins que du travail ne soit ajouté au mélange.

La troisième loi de la thermodynamique stipule que le changement d'entropie d'un système lorsqu'il passe d'une forme à une autre se rapproche de zéro lorsque sa température se rapproche de zéro sur l'échelle Kelvin. Le zéro sur l'échelle Kelvin est la limite inférieure absolue de la température - lorsque les atomes et les molécules ont le moins d'énergie possible. L'entropie est définie comme la disponibilité de l'énergie d'un système pour effectuer un travail. Il s'ensuit donc qu'il existe une échelle d'entropie absolue. Par conséquent, aucun système réel ne peut jamais atteindre zéro degré sur l'échelle Kelvin.


Glaçon fondant

Chaque jour, la glace doit être maintenue à une température inférieure au point de congélation de l'eau pour rester solide. Pendant les chaudes journées d'été, cependant, les gens sortent souvent un plateau de glace pour refroidir les boissons. Dans le processus, ils sont témoins des première et deuxième lois de la thermodynamique. Par exemple, quelqu'un pourrait mettre un glaçon dans un verre de limonade chaude et oublier ensuite de boire la boisson. Une heure ou deux plus tard, ils remarqueront que la glace a fondu mais que la température de la limonade s'est refroidie. En effet, la quantité totale de chaleur dans le système est restée la même, mais vient de graviter vers l'équilibre, où l'ancien glaçon (maintenant l'eau) et la limonade ont la même température. Il ne s'agit bien sûr pas d'un système complètement fermé. La limonade finira par redevenir chaude, car la chaleur de l'environnement est transférée au verre et à son contenu.


Une nouvelle théorie physique de la vie

Un physicien du MIT a proposé l'idée provocatrice que la vie existe parce que la loi de l'entropie croissante pousse la matière à acquérir des propriétés physiques réalistes.

Lire plus tard

Jeremy England, un physicien de 31 ans au MIT, pense avoir trouvé la physique sous-jacente à l'origine et à l'évolution de la vie.

Katherine Taylor pour Quanta Magazine

Natalie Wolchover

Les hypothèses populaires créditent une soupe primordiale, un coup de foudre et un coup de chance colossal. Mais si une nouvelle théorie provocatrice est correcte, la chance peut avoir peu à voir avec elle. Au lieu de cela, selon le physicien proposant l'idée, l'origine et l'évolution ultérieure de la vie découlent des lois fondamentales de la nature et "devraient être aussi peu surprenantes que des rochers qui descendent une pente".

Du point de vue de la physique, il existe une différence essentielle entre les êtres vivants et les amas inanimés d'atomes de carbone : les premiers ont tendance à mieux capter l'énergie de leur environnement et à dissiper cette énergie sous forme de chaleur. Jeremy England, un professeur assistant de 31 ans au Massachusetts Institute of Technology, a dérivé une formule mathématique qui, selon lui, explique cette capacité. La formule, basée sur la physique établie, indique que lorsqu'un groupe d'atomes est entraîné par une source d'énergie externe (comme le soleil ou un combustible chimique) et entouré d'un bain de chaleur (comme l'océan ou l'atmosphère), il se restructure souvent progressivement. lui-même afin de dissiper de plus en plus d'énergie. Cela pourrait signifier que dans certaines conditions, la matière acquiert inexorablement l'attribut physique clé associé à la vie.

"Vous commencez avec un groupe aléatoire d'atomes, et si vous l'éclairez suffisamment longtemps, il ne devrait pas être si surprenant que vous obteniez une plante", a déclaré England.

La théorie de l'Angleterre est censée sous-tendre, plutôt que remplacer, la théorie de l'évolution de Darwin par la sélection naturelle, qui fournit une description puissante de la vie au niveau des gènes et des populations. "Je ne dis certainement pas que les idées darwiniennes sont fausses", a-t-il expliqué. "Au contraire, je dis juste que du point de vue de la physique, vous pourriez appeler l'évolution darwinienne un cas particulier d'un phénomène plus général."

Son idée, détaillée dans un article récent et approfondie dans une conférence qu'il donne dans des universités du monde entier, a suscité la controverse parmi ses collègues, qui la considèrent comme une avancée ténue ou potentielle, ou les deux.

L'Angleterre a fait "un pas très courageux et très important", a déclaré Alexander Grosberg, professeur de physique à l'Université de New York qui a suivi les travaux de l'Angleterre depuis ses débuts. Le "grand espoir" est qu'il a identifié le principe physique sous-jacent à l'origine et à l'évolution de la vie, a déclaré Grosberg.

"Jeremy est à peu près le jeune scientifique le plus brillant que j'aie jamais rencontré", a déclaré Attila Szabo, biophysicien au Laboratoire de physique chimique des National Institutes of Health qui a correspondu avec l'Angleterre au sujet de sa théorie après l'avoir rencontré lors d'une conférence. « J'ai été frappé par l'originalité des idées.

D'autres, comme Eugene Shakhnovich, professeur de chimie, de biologie chimique et de biophysique à l'Université Harvard, ne sont pas convaincus. "Les idées de Jeremy sont intéressantes et potentiellement prometteuses, mais à ce stade sont extrêmement spéculatives, en particulier lorsqu'elles sont appliquées aux phénomènes de la vie", a déclaré Shakhnovich.

Les résultats théoriques de l'Angleterre sont généralement considérés comme valides. C'est son interprétation - que sa formule représente la force motrice derrière une classe de phénomènes dans la nature qui inclut la vie - qui reste à prouver. Mais déjà, il y a des idées sur la façon de tester cette interprétation en laboratoire.

"Il essaie quelque chose de radicalement différent", a déclaré Mara Prentiss, professeur de physique à Harvard qui envisage une telle expérience après avoir pris connaissance des travaux de l'Angleterre. «En tant qu'objectif organisateur, je pense qu'il a une idée fabuleuse. À tort ou à raison, cela vaudra vraiment la peine d'être étudié. »

Au cœur de l'idée de l'Angleterre se trouve la deuxième loi de la thermodynamique, également connue sous le nom de loi de l'entropie croissante ou « flèche du temps ». Les choses chaudes se refroidissent, le gaz se diffuse dans l'air, les œufs se brouillent mais ne se débrouillent jamais spontanément, bref, l'énergie a tendance à se disperser ou à s'étaler au fil du temps. L'entropie est une mesure de cette tendance, quantifiant à quel point l'énergie est dispersée parmi les particules d'un système et à quel point ces particules sont diffuses dans l'espace. Elle augmente comme une simple question de probabilité : il y a plus de manières de répartir l'énergie que de la concentrer. Ainsi, au fur et à mesure que les particules d'un système se déplacent et interagissent, elles auront tendance, par pur hasard, à adopter des configurations dans lesquelles l'énergie est répartie. Finalement, le système arrive à un état d'entropie maximale appelé « équilibre thermodynamique », dans lequel l'énergie est uniformément répartie. Une tasse de café et la pièce dans laquelle elle se trouve deviennent à la même température, par exemple. Tant que la tasse et la pièce sont laissées seules, ce processus est irréversible. Le café ne se réchauffe jamais spontanément parce que les chances sont écrasantes contre une si grande partie de l'énergie de la pièce se concentrant au hasard dans ses atomes.

Bien que l'entropie doive augmenter avec le temps dans un système isolé ou « fermé », un système « ouvert » peut maintenir son entropie faible, c'est-à-dire diviser l'énergie de manière inégale entre ses atomes, en augmentant considérablement l'entropie de son environnement. Dans sa monographie influente de 1944 « Qu'est-ce que la vie ? » l'éminent physicien quantique Erwin Schrödinger a soutenu que c'est ce que les êtres vivants doivent faire. Une plante, par exemple, absorbe une lumière solaire extrêmement énergétique, l'utilise pour fabriquer des sucres et éjecte de la lumière infrarouge, une forme d'énergie beaucoup moins concentrée. L'entropie globale de l'univers augmente pendant la photosynthèse à mesure que la lumière du soleil se dissipe, même si la plante s'empêche de se décomposer en maintenant une structure interne ordonnée.

La vie ne viole pas la deuxième loi de la thermodynamique, mais jusqu'à récemment, les physiciens étaient incapables d'utiliser la thermodynamique pour expliquer pourquoi elle devrait survenir en premier lieu. A l'époque de Schrödinger, ils ne pouvaient résoudre les équations de la thermodynamique que pour les systèmes fermés en équilibre. Dans les années 1960, le physicien belge Ilya Prigogine a fait des progrès dans la prédiction du comportement des systèmes ouverts faiblement alimentés par des sources d'énergie externes (pour lequel il a remporté le prix Nobel de chimie en 1977). Mais le comportement de systèmes éloignés de l'équilibre, connectés à l'environnement extérieur et fortement poussés par des sources d'énergie externes, n'a pas pu être prédit.

Cette situation a changé à la fin des années 1990, principalement grâce au travail de Chris Jarzynski, maintenant à l'Université du Maryland, et de Gavin Crooks, maintenant au Lawrence Berkeley National Laboratory. Jarzynski et Crooks ont montré que l'entropie produite par un processus thermodynamique, comme le refroidissement d'une tasse de café, correspond à un rapport simple : la probabilité que les atomes subissent ce processus divisée par leur probabilité de subir le processus inverse (c'est-à-dire , interagissant spontanément de manière à ce que le café se réchauffe). À mesure que la production d'entropie augmente, ce rapport augmente également : le comportement d'un système devient de plus en plus « irréversible ». La formule simple mais rigoureuse pourrait en principe être appliquée à n'importe quel processus thermodynamique, peu importe à quelle vitesse ou loin de l'équilibre. "Notre compréhension de la mécanique statistique loin de l'équilibre s'est considérablement améliorée", a déclaré Grosberg. L'Angleterre, qui est formée à la fois en biochimie et en physique, a créé son propre laboratoire au MIT il y a deux ans et a décidé d'appliquer les nouvelles connaissances de la physique statistique à la biologie.

En utilisant la formulation de Jarzynski et Crooks, il a dérivé une généralisation de la deuxième loi de la thermodynamique qui s'applique aux systèmes de particules avec certaines caractéristiques : les systèmes sont fortement entraînés par une source d'énergie externe telle qu'une onde électromagnétique, et ils peuvent déverser de la chaleur dans un bain environnant. Cette classe de systèmes comprend tous les êtres vivants. L'Angleterre a ensuite déterminé comment de tels systèmes ont tendance à évoluer au fil du temps à mesure qu'ils augmentent leur irréversibilité. "Nous pouvons montrer très simplement à partir de la formule que les résultats évolutifs les plus probables seront ceux qui ont absorbé et dissipé plus d'énergie des disques externes de l'environnement sur le chemin pour y arriver", a-t-il déclaré. La découverte est logique : les particules ont tendance à dissiper plus d'énergie lorsqu'elles entrent en résonance avec une force motrice ou se déplacent dans la direction dans laquelle elle les pousse, et elles sont plus susceptibles de se déplacer dans cette direction que toute autre à un moment donné.

"Cela signifie que des amas d'atomes entourés d'un bain à une certaine température, comme l'atmosphère ou l'océan, devraient avoir tendance au fil du temps à s'arranger pour résonner de mieux en mieux avec les sources de travail mécanique, électromagnétique ou chimique dans leur environnement", a expliqué l'Angleterre. .

L'auto-réplication (ou la reproduction, en termes biologiques), le processus qui conduit l'évolution de la vie sur Terre, est l'un de ces mécanismes par lequel un système peut dissiper une quantité croissante d'énergie au fil du temps. Comme l'a dit l'Angleterre, "Un excellent moyen de dissiper plus est de faire plus de copies de vous-même." Dans un article de septembre dans le Journal of Chemical Physics, il a rapporté la quantité minimale théorique de dissipation qui peut se produire pendant l'auto-réplication des molécules d'ARN et des cellules bactériennes, et a montré qu'elle est très proche des quantités réelles que ces systèmes dissipent lors de la réplication. . Il a également montré que l'ARN, l'acide nucléique qui, selon de nombreux scientifiques, a servi de précurseur à la vie basée sur l'ADN, est un matériau de construction particulièrement bon marché. Une fois que l'ARN est apparue, soutient-il, sa « prise de contrôle darwinienne » n'était peut-être pas surprenante.

La chimie de la soupe primordiale, les mutations aléatoires, la géographie, les événements catastrophiques et d'innombrables autres facteurs ont contribué à la finesse des détails de la flore et de la faune diversifiées de la Terre. Mais selon la théorie de l'Angleterre, le principe sous-jacent de l'ensemble du processus est l'adaptation de la matière par dissipation.

Ce principe s'appliquerait également à la matière inanimée. "Il est très tentant de spéculer sur les phénomènes de la nature que nous pouvons désormais intégrer sous cette grande tente d'organisation adaptative axée sur la dissipation", a déclaré England. « De nombreux exemples pourraient être juste sous notre nez, mais parce que nous ne les avons pas recherchés, nous ne les avons pas remarqués. »

Les scientifiques ont déjà observé une auto-réplication dans des systèmes non vivants. Selon de nouvelles recherches menées par Philip Marcus de l'Université de Californie à Berkeley, et rapportées dans Physical Review Letters en août, les tourbillons dans les fluides turbulents se répliquent spontanément en tirant l'énergie du cisaillement dans le fluide environnant. Et dans un article paru en ligne cette semaine dans Actes de la National Academy of Sciences, Michael Brenner, professeur de mathématiques appliquées et de physique à Harvard, et ses collaborateurs présentent des modèles théoriques et des simulations de microstructures qui s'auto-répliquent. Ces amas de microsphères spécialement revêtues dissipent l'énergie en enroulant les sphères voisines pour former des amas identiques. "Cela rejoint beaucoup ce que dit Jeremy", a déclaré Brenner.

Outre l'auto-réplication, une plus grande organisation structurelle est un autre moyen par lequel les systèmes fortement entraînés augmentent leur capacité à dissiper l'énergie. Une plante, par exemple, est bien meilleure pour capter et acheminer l'énergie solaire à travers elle-même qu'un amas non structuré d'atomes de carbone. Ainsi, l'Angleterre soutient que dans certaines conditions, la matière s'auto-organisera spontanément. Cette tendance pourrait expliquer l'ordre interne des êtres vivants et de nombreuses structures inanimées. "Les flocons de neige, les dunes de sable et les tourbillons turbulents ont tous en commun le fait qu'ils sont des structures aux motifs saisissants qui émergent dans des systèmes à nombreuses particules entraînés par un processus dissipatif", a-t-il déclaré. La condensation, le vent et la traînée visqueuse sont les processus pertinents dans ces cas particuliers.

"Il me fait penser que la distinction entre matière vivante et matière non vivante n'est pas nette", a déclaré Carl Franck, physicien biologiste à l'Université Cornell, dans un e-mail. "Je suis particulièrement impressionné par cette notion quand on considère des systèmes aussi petits que des circuits chimiques impliquant quelques biomolécules."

L'idée audacieuse de l'Angleterre sera probablement examinée de près dans les années à venir. Il exécute actuellement des simulations informatiques pour tester sa théorie selon laquelle les systèmes de particules adaptent leurs structures pour mieux dissiper l'énergie. La prochaine étape consistera à mener des expériences sur des systèmes vivants.

Prentiss, qui dirige un laboratoire de biophysique expérimentale à Harvard, affirme que la théorie de l'Angleterre pourrait être testée en comparant des cellules présentant différentes mutations et en recherchant une corrélation entre la quantité d'énergie dissipée par les cellules et leurs taux de réplication. "Il faut être prudent car toute mutation peut faire beaucoup de choses", a-t-elle déclaré. "Mais si l'on continuait à faire beaucoup de ces expériences sur différents systèmes et si [le succès de la dissipation et de la réplication] sont effectivement corrélés, cela suggérerait que c'est le principe d'organisation correct."

Brenner a déclaré qu'il espérait relier la théorie de l'Angleterre à ses propres constructions de microsphères et déterminer si la théorie prédit correctement quels processus d'auto-réplication et d'auto-assemblage peuvent se produire - "une question fondamentale en science", a-t-il déclaré.

Avoir un principe global de vie et d'évolution donnerait aux chercheurs une perspective plus large sur l'émergence de la structure et de la fonction des êtres vivants, ont déclaré de nombreux chercheurs. "La sélection naturelle n'explique pas certaines caractéristiques", a déclaré Ard Louis, biophysicien à l'Université d'Oxford, dans un e-mail. Ces caractéristiques comprennent un changement héréditaire de l'expression des gènes appelé méthylation, une complexité accrue en l'absence de sélection naturelle et certains changements moléculaires que Louis a récemment étudiés.

Si l'approche de l'Angleterre résiste à davantage de tests, elle pourrait libérer davantage les biologistes de la recherche d'une explication darwinienne pour chaque adaptation et leur permettre de penser plus généralement en termes d'organisation axée sur la dissipation. Ils pourraient trouver, par exemple, que « la raison pour laquelle un organisme présente la caractéristique X plutôt que Y n'est peut-être pas parce que X est plus en forme que Y, mais parce que les contraintes physiques facilitent l'évolution de X que de Y pour évoluer », Louis mentionné.

"Les gens sont souvent bloqués en pensant à des problèmes individuels", a déclaré Prentiss. Que les idées de l'Angleterre se révèlent être exactes ou non, a-t-elle déclaré, "penser plus largement est l'endroit où de nombreuses percées scientifiques sont réalisées".

Correction : Cet article a été révisé le 22 janvier 2014 pour refléter le fait qu'Ilya Prigogine a remporté le prix Nobel de chimie et non de physique.


Vue microscopique (ou statistique)

En vue microscopique, nous essayons de déterminer le comportement d'un système par les événements qui se produisent au niveau moléculaire.

Nous pouvons facilement trouver que le comportement macroscopique est toujours lié au comportement microscopique car une matière est toujours composée de molécules.

On peut voir que le comportement macroscopique est une moyenne du comportement microscopique d'un grand nombre de molécules sur une période de temps considérable.

La pression est une propriété macroscopique, elle peut être détectée, mais elle a aussi une explication microscopique. La pression peut également être expliquée comme le changement de quantité de mouvement dû à une collision moléculaire.


Un arbre transforme le désordre en ordre avec un peu d'aide du soleil

Le concept d'entropie et la deuxième loi de la thermodynamique suggèrent que les systèmes progressent naturellement de l'ordre au désordre. Si oui, comment les systèmes biologiques se développent-ils et maintiennent-ils un degré d'ordre aussi élevé ? Est-ce une violation de la deuxième loi de la thermodynamique ?

L'ordre peut être produit avec une dépense d'énergie, et l'ordre associé à la vie sur terre est produit à l'aide de l'énergie du soleil. Les matières premières des nutriments nécessaires à la vie sur Terre ne sont que du dioxyde de carbone et de l'eau ! Les mécanismes de la vie végétale et animale avancée ajoutent de l'azote, du phosphore et du soufre à la plupart des mécanismes opérationnels de la vie accomplis avec les éléments résumés dans le mnémonique CHONPS.

Les matériaux de construction sont dans un état très désordonné - gaz, liquides et vapeurs. L'arbre absorbe le dioxyde de carbone de l'air, l'eau de la terre ainsi qu'une petite quantité de vapeur d'eau dans l'air. À partir de ce début désordonné, il produit les molécules de sucre hautement ordonnées et fortement contraintes, comme le glucose. L'énergie rayonnante du Soleil est transférée aux énergies de liaison des carbones et des autres atomes de la molécule de glucose. En plus de fabriquer les sucres, les plantes libèrent également de l'oxygène, essentiel à la vie animale.

Les feuilles utilisent l'énergie du soleil dans de minuscules usines d'énergie appelées chloroplastes. En utilisant la chlorophylle dans le processus appelé photosynthèse, ils convertissent l'énergie du soleil en une forme stockable dans des molécules de sucre ordonnées.

Comme exemple de la portée de ce processus, considérons un érable mature. Il peut avoir 500 livres de feuilles vertes utilisées dans le processus de photosynthèse. D'une surface foliaire de plusieurs centaines de mètres carrés, il est capable de fabriquer environ 2 tonnes de sucre.

Le processus de photosynthèse chez les plantes stocke de l'énergie dans les plantes qui peut être utilisée pour accomplir un travail. Une partie de l'énergie est utilisée pour la synthèse des glucides. Ces glucides peuvent être des sucres simples comme le glucose ou des combinaisons complexes de sucres. Certains des glucides courants sont :

Cellulose Longues chaînes de molécules de glucose qui sont assez linéaires. Ils aident à maintenir la structure de la plante - le bois des arbres est principalement de la cellulose.
Amidon Chaînes plus ramifiées de molécules de glucose. Ils sont produits par les plantes et servent de ressources énergétiques pour les plantes. Ils peuvent être métabolisés par les humains et d'autres animaux pour produire de l'énergie.
Glycogène Chaînes de glucose encore plus ramifiées, mais similaires aux amidons. Utilisé par les plantes et les animaux pour le stockage d'énergie. Pour les animaux, ce stockage de glycogène se fait principalement dans les muscles.

Dans les systèmes animaux, il existe également de petites structures à l'intérieur des cellules appelées mitochondries qui utilisent l'énergie stockée dans les molécules de sucre provenant des aliments pour former des structures plus hautement ordonnées.


Entropie

Nos rédacteurs examineront ce que vous avez soumis et détermineront s'il faut réviser l'article.

entropie, la mesure de l'énergie thermique d'un système par unité de température qui n'est pas disponible pour effectuer un travail utile. Parce que le travail est obtenu à partir d'un mouvement moléculaire ordonné, la quantité d'entropie est également une mesure du désordre moléculaire, ou du caractère aléatoire, d'un système. Le concept d'entropie fournit un aperçu approfondi de la direction du changement spontané pour de nombreux phénomènes quotidiens. Son introduction par le physicien allemand Rudolf Clausius en 1850 est un moment fort de la physique du XIXe siècle.

L'idée d'entropie fournit un moyen mathématique de coder la notion intuitive dont les processus sont impossibles, même s'ils ne violeraient pas la loi fondamentale de la conservation de l'énergie. Par exemple, un bloc de glace placé sur un poêle chaud fond sûrement, tandis que le poêle se refroidit. Un tel processus est appelé irréversible car aucun léger changement ne fera que l'eau fondue se transformera en glace pendant que le poêle chauffe. En revanche, un bloc de glace placé dans un bain d'eau glacée va soit décongeler un peu plus, soit geler un peu plus, selon qu'une petite quantité de chaleur est ajoutée ou soustraite du système. Un tel processus est réversible car seule une quantité infinitésimale de chaleur est nécessaire pour changer sa direction de la congélation progressive à la décongélation progressive. De même, le gaz comprimé confiné dans une bouteille pourrait soit se dilater librement dans l'atmosphère si une vanne était ouverte (un processus irréversible), soit il pourrait faire un travail utile en poussant un piston mobile contre la force nécessaire pour confiner le gaz. Ce dernier processus est réversible car seule une légère augmentation de la force de retenue pourrait inverser le sens du processus de l'expansion à la compression. Pour les processus réversibles, le système est en équilibre avec son environnement, alors que pour les processus irréversibles, il ne l'est pas.

Pour fournir une mesure quantitative de la direction du changement spontané, Clausius a introduit le concept d'entropie comme un moyen précis d'exprimer la deuxième loi de la thermodynamique. La forme Clausius de la deuxième loi stipule que le changement spontané d'un processus irréversible dans un système isolé (c'est-à-dire qui n'échange pas de chaleur ou ne travaille pas avec son environnement) procède toujours dans le sens d'une entropie croissante. Par exemple, le bloc de glace et le réchaud constituent deux parties d'un système isolé dont l'entropie totale augmente à mesure que la glace fond.

Selon la définition de Clausius, si une quantité de chaleur Q s'écoule dans un grand réservoir de chaleur à température T au-dessus du zéro absolu, alors l'augmentation d'entropie estS = Q/T. Cette équation donne effectivement une autre définition de la température qui est en accord avec la définition habituelle. Supposons qu'il y ait deux réservoirs de chaleur R1 et R2 à des températures T1 et T2 (comme le poêle et le bloc de glace). Si une quantité de chaleur Q coule de R1 à R2, alors la variation nette d'entropie pour les deux réservoirs est ce qui est positif à condition que T1 > T2. Ainsi, l'observation que la chaleur ne s'écoule jamais spontanément du froid vers le chaud équivaut à exiger que le changement net d'entropie soit positif pour un flux spontané de chaleur. Si T1 = T2, alors les réservoirs sont en équilibre, aucun flux de chaleur, et ΔS = 0.

L'étatS ≥ 0 détermine l'efficacité maximale possible des moteurs thermiques, c'est-à-dire des systèmes tels que les moteurs à essence ou à vapeur qui peuvent fonctionner de manière cyclique. Supposons qu'un moteur thermique absorbe de la chaleur Q1 de R1 et évacue la chaleur Q2 à R2 pour chaque cycle complet. Par conservation de l'énergie, le travail effectué par cycle est W = Q1Q2, et la variation nette d'entropie est Faire W le plus grand possible, Q2 doit être le plus petit possible par rapport à Q1. Cependant, Q2 ne peut pas être nul, car cela ferait ΔS négatif et violer ainsi la deuxième loi. La plus petite valeur possible de Q2 correspond à la conditionS = 0, donnant /> comme équation fondamentale limitant l'efficacité de tous les moteurs thermiques. Un processus pour lequel ΔS = 0 est réversible car une variation infinitésimale suffirait à faire tourner le moteur thermique à l'envers comme un réfrigérateur.

Le même raisonnement peut également déterminer le changement d'entropie pour la substance active dans le moteur thermique, comme un gaz dans un cylindre avec un piston mobile. Si le gaz absorbe une quantité supplémentaire de chaleur Q d'un réservoir de chaleur à température T et se dilate de manière réversible contre la pression de retenue maximale possible P, alors il fait le maximum de travail W = P V, où V est le changement de volume. L'énergie interne du gaz peut également changer d'une quantité U à mesure qu'il s'étend. Puis par conservation de l'énergie, Q = U + P V. Parce que le changement net d'entropie pour le système plus le réservoir est nul lorsque le travail maximum est effectué et que l'entropie du réservoir diminue d'une quantité Sréservoir = −Q/T, ceci doit être contrebalancé par une augmentation d'entropie de pour le gaz de travail de sorte que Ssystème + Sréservoir = 0. Pour tout processus réel, moins que le travail maximum serait effectué (à cause du frottement, par exemple), et donc la quantité réelle de chaleur Q′ absorbé par le réservoir de chaleur serait inférieur à la quantité maximale Q. Par exemple, le gaz pourrait être autorisé à se dilater librement dans le vide et à ne faire aucun travail. Par conséquent, on peut affirmer que /> avec Q′ = Q dans le cas d'un travail maximum correspondant à un processus réversible.

Cette équation définit Ssystème en tant que variable d'état thermodynamique, ce qui signifie que sa valeur est complètement déterminée par l'état actuel du système et non par la façon dont le système a atteint cet état. L'entropie est une propriété extensive en ce sens que son amplitude dépend de la quantité de matière dans le système.

Dans une interprétation statistique de l'entropie, on constate que pour un très grand système en équilibre thermodynamique, l'entropie S est proportionnel au logarithme népérien d'une quantité représentant le nombre maximum de chemins microscopiques dont l'état macroscopique correspondant à S peut être réalisé c'est-à-dire S = k ln , dans lequel k est la constante de Boltzmann qui est liée à l'énergie moléculaire.

Tous les processus spontanés sont irréversibles, c'est pourquoi il a été dit que l'entropie de l'univers augmente : c'est-à-dire que de plus en plus d'énergie devient indisponible pour être convertie en travail. À cause de cela, on dit que l'univers « s'épuise ».


Déconvolution de la thermodynamique de la biologie dans le modèle du réseau trophique aquatique

Cet article a été accepté pour publication et a fait l'objet d'une évaluation complète par les pairs, mais n'a pas été soumis au processus de révision, de composition, de pagination et de relecture, ce qui peut entraîner des différences entre cette version et la version officielle. Veuillez citer cet article comme doi : 10.1002/etc.5106

ABSTRAIT

La bioaccumulation de polluants hydrophobes dans un réseau trophique aquatique est régie par les concentrations d'exposition dans les phases sédimentaire et aquatique et par des interactions trophiques complexes entre les différentes espèces. Ici, nous démontrons que les interactions biologiques et l'exposition de l'environnement chimique peuvent être déconvoluées pour les réseaux trophiques aquatiques afin de permettre des évaluations plus claires du rôle des moteurs thermodynamiques des phases sédiments et eaux de surface. We first demonstrate the feasibility of this deconvolution mathematically for hypothetical food webs with three and four interacting species and for more realistic real-world food webs with more than 10 species of aquatic organisms, i.e. the freshwater lake food-web in Western Lake Erie and the marine food-web in New Bedford Harbor. Our results show both mathematically (for the simple food-webs) and computationally (for the more complex food-webs), that a deconvoluted food web model parameterized for site specific conditions can predict the bioaccumulation of PCBs in aquatic organisms similar to that of existing complex food web models. The merit of this approach is that once the thermodynamic and biological contributions to food-web bioaccumulation are computed for an ecosystem, the deconvoluted model provides a relatively simple approach for calculating concentrations of chemicals in organisms for a range of possible surface water and sedimentary concentrations. This approach is especially useful for calculating bioaccumulation of pollutants from freely dissolved concentrations measured using passive sampling devices or predicted by fate and transport models. The deconvoluted approach makes it possible to develop regulatory guidelines for a set of surface water and sediment (or porewater) concentration combinations for a water body that is able to achieve a risk-based target for fish concentration.

This article is protected by copyright. Tous les droits sont réservés.

This article includes online-only Supplemental Data.

Nom de fichier La description
etc5106-sup-0001-Thermodynamic_FWB_Supplemental-April7_2021-clean.docx171.3 KB Supporting information.

Remarque : L'éditeur n'est pas responsable du contenu ou de la fonctionnalité des informations fournies par les auteurs. Toute question (autre que le contenu manquant) doit être adressée à l'auteur correspondant à l'article.

Accepted, unedited articles published online and citable. The final edited and typeset version of record will appear in the future.


Zeroth law of thermodynamics

This is very easy, trust me.

I’ll explain to you the zeroth law of thermodynamics with this simple animation.

As a student, you should have one question in your mind.

Why is this law named zeroth? It should start from one.

It should be like first, second, third, etc. But why is it named “zeroth”?

Why is there a zeroth law of thermodynamics?

Ralph H Fowler (Wikipedia)

It was 1935, when Ralph Fowler was reading a book and he came upon one text – “Every physical quantity must be measurable in some numeric terms”

No one was knowing about the term “Température” before 1935.

And main thing, all the three laws of thermodynamics (first, second and third law) were already discovered before 1935.

In 1935, Fowler discovered the title “Zeroth law of thermodynamics” and thermal equilibrium.

Fowler realized that this phenomenon of thermal equilibrium is very important and it should be discussed before the first law of thermodynamics as this law shows the presence of one important property “Temperature”.

But already so many books were published with the first law, second law and third law. Now changing the number of these three laws can create a lot of confusion.

Thus he was forced to adopt the number “zero” for his law.

This is the reason why this law is called the zeroth law of thermodynamics.

What is the zeroth law of thermodynamics?

Consider three bodies. Body A, body B, and body C.

Zeroth law of thermodynamics states that

“If two bodies A and B are in thermal equilibrium with third body C, then body A and B are also in thermal equilibrium with each other.”

This may be difficult for you to understand. Let me explain to you in a simple way.

Just see the above animation. Consider 3 bodies A,B and C. All these three bodies are initially at different temperatures.

Body A and body B are separated from each other (see animation). And both these bodies are in contact with the third body C.

After few minutes, body A will be in thermal equilibrium with body C and same way body B will also be in thermal equilibrium with body C.

After this condition, if body A and body B are kept in contact with each other, then there will be no heat transfer between them. This means that both these bodies (A & B) are now in thermal equilibrium with each other. (Just see the color change in the animation as well as above image. You will get the exact idea)

Thus if body A is in thermal equilibrium with body C and body B is also in thermal equilibrium with body C, then body A and B are also in thermal equilibrium with each other.

Thus can be written mathematical as

If Ta = Tc and Tb = Tc, then according to zeroth law of thermodynamics Ta = Tb. Where Ta, Tb and Tc are the temperatures of body A, B and C respectively.

Now something amazing is coming.

What did you find from the zeroth law of thermodynamics?

Yes, it’s a fundamental property “Temperature”.

This physical property tells us whether two bodies are in thermal equilibrium or not.

If the temperature of bodies are same, then the bodies are in thermal equilibrium with each other.

Simply I just want to say that the 0th law of thermodynamics helps us in finding the temperature of the object or body.

Application of zeroth law of thermodynamics

1). Measuring human body temperature

2. Measuring atmospheric temperature

3. Temperature measurement for industrial applications

4. Temperature measurement in air conditioner

5. Temperature measurement in refrigerator

6. Application in food processing industries

More detailed information about temperature, temperature measuring instruments and how temperature is related to the zeroth law of thermodynamics, what is thermal equilibrium and how it is related to zeroth law and many more things are discussed in the separate article of “Zeroth law of thermodynamics“.

Do check out this article too.

Now let us discuss remaining three laws of thermodynamics in a simple way.


Thermodynamics - Biology

Does Life On Earth Violate the Second Law of Thermodynamics?

The second law of thermodynamics (the law of increase of entropy) is sometimes used as an argument against evolution. Evolution, the argument goes, is a decrease of entropy, because it involves things getting more organized over time, while the second law says that things get more disordered over time. So evolution violates the second law.

There are many things wrong with this argument, and it has been discussed ad infinitum. A summary of the arguments on both sides can be found on the links at www.talkorigins.org/faqs/thermo.html. These discussions never seem to involve any numerical calculations. This is unfortunate, since a very simple calculation shows that it is physically impossible for evolution to violate the second law of thermodynamics.

It is important to note that the earth is not an isolated system: it receives energy from the sun, and radiates energy back into space. The second law doesn't claim that the entropy of any part of a system increases: if it did, ice would never form and vapor would never condense, since both of those processes involve a decrease of entropy. Rather, the second law says that the le total entropy of the whole system must increase. Any decrease of entropy (like the water freezing into ice cubes in your freezer) must be compensated by an increase in entropy elsewhere (the heat released into your kitchen by the refrigerator).

A slightly more sophisticated form of the anti-evolution argument recognizes that the earth is not an isolated system it receives energy from the sun. But, the argument goes on, the sun's energy only augmente désordre. It speeds the processes of breakdown and decay. Therefore, even with an energy source, evolution still violates the second law.

For the earth, though, we have to take into account the change of entropy involved with les deux the absorption of energy from the sun et the radiation of energy into space. Think of the sun as a heat reservoir that maintains a constant temperature T1 = 6000 K. (I am using the absolute, or Kelvin, temperature scale.) That's the temperature of the radiating surface of the sun, and so it's the effective temperature of the energy we receive from the sun. When the earth absorbs some amount of heat, Q, from this reservoir, the reservoir loses entropy:

On average, the earth's temperature is neither increasing nor decreasing. Therefore, in the same time that it absorbs heat energy Q from the sun's radiation, it must radiate the same amount of heat into space. This energy is radiated at a much lower temperature that is approximately equal to the average surface temperature of the earth, T2 = 280 K. We can think of space as a second heat reservoir that absorbs the heat Q and consequently undergoes an entropy increase

Depuis T1 est beaucoup plus grand que T2, it is clear that the net entropy of the two reservoirs increases:

Even if it is true that the processes of life on earth result in an entropy decrease of the earth, the second law of thermodynamics will not be violated unless that decrease is larger than the entropy increase of the two heat reservoirs. Any astronomy textbook will tell you that the earth absorbs 1.1 x 10 17 Joules per second of power from the sun, so in one year we get (1.1 x 10 17 J/sec)x(365 days/year)x(24 hours/day)x(60 min/hr)x(60 sec/min) = 3.5 x 10 24 Joules of energy from the sun. This corresponds to an entropy increase in the heat reservoirs of

Just how big is this increase? For comparison, let's calculate the entropy change needed to freeze the earth's oceans solid. The heat energy involved is

Q = (latent heat of fusion)x(mass of ocean water) =

Water freezes at 273 K on the absolute scale, so the corresponding entropy change is

Comparing with the entropy increase of the two heat reservoirs, we see that this is a factor of (1.6x10 24 J/K)/(1.2x10 22 J/K) = 140 larger. Remember, though, that the number for the heat reservoirs was for one year. Each year, more entropy is generated. The second law will only be violated if all the oceans freeze over in about 140 years or less.

Now, the mass of all the living organisms on earth, known as the biomasse, is considerably less than the mass of the oceans (by a very generous estimate, about 10 16 kilograms. If we perform a similar calculation using the earth's biomass, instead of the mass of the oceans, we find that the second law of thermodynamics will only be violated if the entire biomass is somehow converted from a highly disorganized state (say, a gas at 10,000 K) to a highly organized state (say, absolute zero) in about a month or less.

Evolutionary processes take place over millions of years clearly they cannot cause a violation of the second law.


Les références

Asimov I. The ‘threat’ of ceationism. In: Montagu A, editor. Science and creationism. New York: Oxford University Press 1984. p. 182–93.

Bunn EF. Evolution and the second law of thermodynamics. Am J Phys. 200977(10):922–5.

Gould SJ. Full house: the spread of excellence from Plato to Darwin. New York: Three Rivers Press 1997.

Kaila VRI, Annila A. Natural selection for least action. Proc R Soc A. 2008464:3055–70.

Margulis L, Sagan D. What is life? New York: Simon & Schuster 1995.

Morris H. Scientific creationism. El Cajon: Master Books 1987.

Penrose R. The Emperor's new mind: concerning computers, minds, and the laws of physics. Oxford: Oxford University Press 1989.

Prigogine I, Stengers I. Order out of chaos: man's new dialogue with nature. London: Flamingo 1984.

Reif F. Fundamentals of statistical and thermal physics. New York: McGraw-Hill 1965.

Schrödinger E. What is life? Mind and matter. Cambridge: Cambridge University Press 1944.


Voir la vidéo: INTRODUCTION A LA THERMODYNAMIQUE: Energie interne, Entropie, Système isolé, fermé et ouvert (Mai 2022).


Commentaires:

  1. Orson

    Vous vous trompez ... spécifiquement tort

  2. Corbenic

    Idée merveilleuse

  3. Collins

    Beaucoup d'informations utiles

  4. Zolohn

    Ne frappez jamais quelqu'un qui est allongé, car il peut se relever. Emblème du marteau et de la faucille. Tondre et marteler ! Extrait d'une publicité pour un shampoing : Mes cheveux étaient secs et sans vie, mais maintenant ils sont humides et ondulent. Image : "Ivan le Terrible fait un tir de contrôle."



Écrire un message