Expliquez moi l'ENTROPIE comme si j'étais un énorme attardé mental

glycoproteine
2023-03-09 21:07:12

Le 09 mars 2023 à 21:05:41 :

Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png

Tu dois être belle quand tu réfléchis.

C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png

RightArrow
2023-03-09 21:07:29

Le 09 mars 2023 à 21:07:12 :

Le 09 mars 2023 à 21:05:41 :

Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png

Tu dois être belle quand tu réfléchis.

C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png

Non :coeur:

Nysaelia_
2023-03-09 21:07:32

Le 09 mars 2023 à 20:57:16 :
L'entropie est une mesure du désordre ou de l'incertitude dans un système. Plus un système est désorganisé ou incertain, plus son entropie est élevée. Par exemple, une pièce en désordre a une entropie plus élevée qu'une pièce bien rangée. En physique, l'entropie est souvent associée à la tendance naturelle d'un système à passer d'un état organisé à un état plus désordonné, connue sous le nom de la "deuxième loi de la thermodynamique".

merci pour l'explication , moi aussi je savais pas ce que c'était mais tu as bien expliqué, contrairement a l'auteur qui prétend l'inverse car c'est un bouffon troll au vu de ses nombreux talcs et topic et spammage dehttps://image.noelshack.com/fichiers/2021/11/2/1615919766-image-removebg-preview.png

PetitChatQuiPue
2023-03-09 21:07:41

Le 09 mars 2023 à 21:06:46 RightArrow a écrit :

Le 09 mars 2023 à 21:06:11 :

Le 09 mars 2023 à 21:05:41 RightArrow a écrit :

Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png

Tu dois être belle quand tu réfléchis.

https://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png

Ça te fais rire ? Moi à ta place je commencerais par prendre une douche.

non j'aime pas l'eauhttps://image.noelshack.com/fichiers/2022/20/7/1653225777-catharsis-huge-glasses.png

PetitChatQuiPue
2023-03-09 21:07:56

Le 09 mars 2023 à 21:07:32 Nysaelia_ a écrit :

Le 09 mars 2023 à 20:57:16 :
L'entropie est une mesure du désordre ou de l'incertitude dans un système. Plus un système est désorganisé ou incertain, plus son entropie est élevée. Par exemple, une pièce en désordre a une entropie plus élevée qu'une pièce bien rangée. En physique, l'entropie est souvent associée à la tendance naturelle d'un système à passer d'un état organisé à un état plus désordonné, connue sous le nom de la "deuxième loi de la thermodynamique".

merci pour l'explication , moi aussi je savais pas ce que c'était mais tu as bien expliqué, contrairement a l'auteur qui prétend l'inverse car c'est un bouffon troll au vu de ses nombreux talcs et topic et spammage dehttps://image.noelshack.com/fichiers/2021/11/2/1615919766-image-removebg-preview.png

hop ddbhttps://image.noelshack.com/fichiers/2022/20/7/1653225777-catharsis-huge-glasses.png

Patinax12
2023-03-09 21:07:57

L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :

  1. Positivité
  2. Croissance pour un système isolé
  3. Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants

De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann :ok:

PetitChatQuiPue
2023-03-09 21:08:18

Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :

  1. Positivité
  2. Croissance pour un système isolé
  3. Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants

De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann :ok:

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

2_sur_10
2023-03-09 21:08:28

Le 09 mars 2023 à 21:05:41 RightArrow a écrit :

Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png

Tu dois être belle quand tu réfléchis.

C'est parce qu'elle est maquillée :(

glycoproteine
2023-03-09 21:08:38

Le 09 mars 2023 à 21:04:37 :
C'est la chaleur, tout ce qui est au dessus du zero absolu possède une entropie qui lui est propre

L'entropie c'est pas de la "chaleur". La chaleur est une forme d'entropie, oui mais la chaleur ne définit pas ce qu'est l'entropie.

La diffusion d'un soluté dans un liquide est également de l'entropie :noel:

Patinax12
2023-03-09 21:09:29

Le 09 mars 2023 à 21:08:18 :

Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :

  1. Positivité
  2. Croissance pour un système isolé
  3. Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants

De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann :ok:

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

PetitChatQuiPue
2023-03-09 21:09:50

Le 09 mars 2023 à 21:09:29 Patinax12 a écrit :

Le 09 mars 2023 à 21:08:18 :

Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :

  1. Positivité
  2. Croissance pour un système isolé
  3. Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants

De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann :ok:

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

euh . . .https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png

RightArrow
2023-03-09 21:10:05

Donc si j'ai bien compris c'est des particules qui passent d'un état stable à agité ?

PetitChatQuiPue
2023-03-09 21:10:29

Le 09 mars 2023 à 21:10:05 RightArrow a écrit :
Donc si j'ai bien compris c'est des particules qui passent d'un état stable à agité ?

non c'est la radioactivité çahttps://image.noelshack.com/fichiers/2020/05/4/1580365468-eclatax.png

-Henriette2
2023-03-09 21:11:01

Cest un phenomene dynamique qui dis que l energie se dissipe naturellement . Ca a été mis en évidence avec lexemple de la machine a vapeur. Et des physiciens ont decouvert suite à cette constatation que l univers entier etait touché par ce phenomene de dissipation irreversible de l energie.

Cest comme ca qu'on decouvre que l univers est en perpetuel expension . Ca cest au sens physique du terme. Si tu place ce therme dans un contexte philosophique cest encore autre chose

glycoproteine
2023-03-09 21:11:27

Le 09 mars 2023 à 21:07:29 :

Le 09 mars 2023 à 21:07:12 :

Le 09 mars 2023 à 21:05:41 :

Le 09 mars 2023 à 21:03:54 :
L'OP qui me rappelle de réviser mes courshttps://image.noelshack.com/fichiers/2021/03/3/1611133513-ahihaitriste.png

Tu dois être belle quand tu réfléchis.

C'est du sarcasme ?https://image.noelshack.com/fichiers/2022/42/1/1666030940-risitas-triste-tison.png

Non :coeur:

Ayaaa bahhhh merci c'est gentilhttps://image.noelshack.com/fichiers/2022/20/2/1652811711-jesus-fille-anime-rougit-2sreup.png

LaVerve
2023-03-09 21:11:31

Pas « comme si j'étais » mais plutôt « comme je suis »

_MissTeigne
2023-03-09 21:11:33

Asie: faible entropie
Afrique : grosse entropie (NB: le Magreb est en Afrique)

Bobcotlepulco8
2023-03-09 21:11:35

Je défèque actuellement dans mon chiottardhttps://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

PetitChatQuiPue
2023-03-09 21:11:49

Le 09 mars 2023 à 21:11:01 -Henriette2 a écrit :
Cest un phenomene dynamique qui dis que l energie se dissipe naturellement . Ca a été mis en évidence avec lexemple de la machine a vapeur. Et des physiciens ont decouvert suite à cette constatation que l univers entier etait touché par ce phenomene de dissipation irreversible de l energie.

Cest comme ca qu'on decouvre que l univers est en perpetuel expension . Ca cest au sens physique du terme. Si tu place ce therme dans un contexte philosophique cest encore autre chose

euh tu peux écrire dans un français correct par contre stp ?https://image.noelshack.com/fichiers/2019/45/6/1573317015-euldjohnnyguiltygear.png

Patinax12
2023-03-09 21:11:54

Le 09 mars 2023 à 21:09:50 :

Le 09 mars 2023 à 21:09:29 Patinax12 a écrit :

Le 09 mars 2023 à 21:08:18 :

Le 09 mars 2023 à 21:07:57 Patinax12 a écrit :
L'entropie est une mesure du manque d'information générée par l'approche probabiliste de la physique statistique. Il s'agit d'un concept formalisé par l'information, que nous pouvons construire selon les propriétés suivantes (Nous notons S l'entropie d'un système) :

  1. Positivité
  2. Croissance pour un système isolé
  3. Morphisme : S(AxB) = S(A) +S (B), pour A, B indépendants

De ces propriétés, nous en déduisons que la seule solution est un logarithme, donc nous pouvons noter S = a.ln. La constante a se déduit de l'expérience, et en physique statisque est égale à la constante de Bolztmann :ok:

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

https://image.noelshack.com/fichiers/2018/34/4/1535040519-1529680164-risiboulbepetit.png

euh . . .https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png

Oui?https://image.noelshack.com/fichiers/2019/31/6/1564850717-1563918100huhu008-bhbq.png

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.