Expliquez moi l'ENTROPIE comme si j'étais un énorme attardé mental
glycoproteine
2023-03-09 21:07:12
Le 09 mars 2023 à 21:05:41 :
Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png
Tu dois être belle quand tu réfléchis.
C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png
RightArrow
2023-03-09 21:07:29
Le 09 mars 2023 à 21:07:12 :
Le 09 mars 2023 à 21:05:41 :
Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png
Tu dois être belle quand tu réfléchis.
C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png
Non
Nysaelia_
2023-03-09 21:07:32
Le 09 mars 2023 à 20:57:16 :
L'entropie est une mesure du désordre ou de l'incertitude dans un système. Plus un système est désorganisé ou incertain, plus son entropie est élevée. Par exemple, une pièce en désordre a une entropie plus élevée qu'une pièce bien rangée. En physique, l'entropie est souvent associée à la tendance naturelle d'un système à passer d'un état organisé à un état plus désordonné, connue sous le nom de la "deuxième loi de la thermodynamique".
merci pour l'explication , moi aussi je savais pas ce que c'était mais tu as bien expliqué, contrairement a l'auteur qui prétend l'inverse car c'est un bouffon troll au vu de ses nombreux talcs et topic et spammage dehttps://image.noelshack.com/fichiers/2021/11/2/1615919766-image-removebg-preview.png
PetitChatQuiPue
2023-03-09 21:07:41
Le 09 mars 2023 à 21:06:46 RightArrow a écrit :
Le 09 mars 2023 à 21:06:11 :
Le 09 mars 2023 à 21:05:41 RightArrow a écrit :
Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png
Tu dois être belle quand tu réfléchis.
https://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png
Ça te fais rire ? Moi à ta place je commencerais par prendre une douche.
non j'aime pas l'eauhttps://image.noelshack.com/fichiers/2022/20/7/1653225777-catharsis-huge-glasses.png
PetitChatQuiPue
2023-03-09 21:07:56
Le 09 mars 2023 à 21:07:32 Nysaelia_ a écrit :
Le 09 mars 2023 à 20:57:16 :
L'entropie est une mesure du désordre ou de l'incertitude dans un système. Plus un système est désorganisé ou incertain, plus son entropie est élevée. Par exemple, une pièce en désordre a une entropie plus élevée qu'une pièce bien rangée. En physique, l'entropie est souvent associée à la tendance naturelle d'un système à passer d'un état organisé à un état plus désordonné, connue sous le nom de la "deuxième loi de la thermodynamique".
merci pour l'explication , moi aussi je savais pas ce que c'était mais tu as bien expliqué, contrairement a l'auteur qui prétend l'inverse car c'est un bouffon troll au vu de ses nombreux talcs et topic et spammage dehttps://image.noelshack.com/fichiers/2021/11/2/1615919766-image-removebg-preview.png
hop ddbhttps://image.noelshack.com/fichiers/2022/20/7/1653225777-catharsis-huge-glasses.png
Patinax12
2023-03-09 21:07:57
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :
- Positivité
- Croissance pour un système isolé
- Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants
De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann
PetitChatQuiPue
2023-03-09 21:08:18
Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :
- Positivité
- Croissance pour un système isolé
- Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants
De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
2_sur_10
2023-03-09 21:08:28
Le 09 mars 2023 à 21:05:41 RightArrow a écrit :
Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png
Tu dois être belle quand tu réfléchis.
C'est parce qu'elle est maquillée
glycoproteine
2023-03-09 21:08:38
Le 09 mars 2023 à 21:04:37 :
C'est la chaleur, tout ce qui est au dessus du zero absolu possède une entropie qui lui est propre
L'entropie c'est pas de la "chaleur". La chaleur est une forme d'entropie, oui mais la chaleur ne définit pas ce qu'est l'entropie.
La diffusion d'un soluté dans un liquide est également de l'entropie
Patinax12
2023-03-09 21:09:29
Le 09 mars 2023 à 21:08:18 :
Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :
- Positivité
- Croissance pour un système isolé
- Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants
De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
PetitChatQuiPue
2023-03-09 21:09:50
Le 09 mars 2023 à 21:09:29 Patinax12 a écrit :
Le 09 mars 2023 à 21:08:18 :
Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :
- Positivité
- Croissance pour un système isolé
- Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants
De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
euh . . .https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png
RightArrow
2023-03-09 21:10:05
Donc si j'ai bien compris c'est des particules qui passent d'un état stable à agité ?
PetitChatQuiPue
2023-03-09 21:10:29
Le 09 mars 2023 à 21:10:05 RightArrow a écrit :
Donc si j'ai bien compris c'est des particules qui passent d'un état stable à agité ?
non c'est la radioactivité çahttps://image.noelshack.com/fichiers/2020/05/4/1580365468-eclatax.png
-Henriette2
2023-03-09 21:11:01
Cest un phenomene dynamique qui dis que l energie se dissipe naturellement . Ca a été mis en évidence avec lexemple de la machine a vapeur. Et des physiciens ont decouvert suite à cette constatation que l univers entier etait touché par ce phenomene de dissipation irreversible de l energie.
Cest comme ca qu'on decouvre que l univers est en perpetuel expension . Ca cest au sens physique du terme. Si tu place ce therme dans un contexte philosophique cest encore autre chose
glycoproteine
2023-03-09 21:11:27
Le 09 mars 2023 à 21:07:29 :
Le 09 mars 2023 à 21:07:12 :
Le 09 mars 2023 à 21:05:41 :
Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png
Tu dois être belle quand tu réfléchis.
C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png
Non
Ayaaa bahhhh merci c'est gentilhttps://image.noelshack.com/fichiers/2022/20/2/1652811711-jesus-fille-anime-rougit-2sreup.png
LaVerve
2023-03-09 21:11:31
Pas « comme si j'étais » mais plutôt « comme je suis »
_MissTeigne
2023-03-09 21:11:33
Asie: faible entropie
Afrique : grosse entropie (NB: le Magreb est en Afrique)
Bobcotlepulco8
2023-03-09 21:11:35
Je défèque actuellement dans mon chiottardhttps://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png
PetitChatQuiPue
2023-03-09 21:11:49
Le 09 mars 2023 à 21:11:01 -Henriette2 a écrit :
Cest un phenomene dynamique qui dis que l energie se dissipe naturellement . Ca a été mis en évidence avec lexemple de la machine a vapeur. Et des physiciens ont decouvert suite à cette constatation que l univers entier etait touché par ce phenomene de dissipation irreversible de l energie.
Cest comme ca qu'on decouvre que l univers est en perpetuel expension . Ca cest au sens physique du terme. Si tu place ce therme dans un contexte philosophique cest encore autre chose
euh tu peux écrire dans un français correct par contre stp ?https://image.noelshack.com/fichiers/2019/45/6/1573317015-euldjohnnyguiltygear.png
Patinax12
2023-03-09 21:11:54
Le 09 mars 2023 à 21:09:50 :
Le 09 mars 2023 à 21:09:29 Patinax12 a écrit :
Le 09 mars 2023 à 21:08:18 :
Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :
- Positivité
- Croissance pour un système isolé
- Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants
De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png
euh . . .https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png
Oui?https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png