[MATHÉMATIQUES] à quoi sert une dérivée ?
tata_yoyo1
2021-03-27 13:12:12
En physique ça permet d'analyser une courbe à un point précis
ex :
En dérivant une position dans le temps tu peux connaître la vitesse
En dérivant une vitesse tu peux connaître l'accélération
IgoentAnormal
2021-03-27 13:12:59
Trouver les EXTREMUMS d'une fonction pour optimiser un processus
Shintamaru
2021-03-27 13:13:07
en math je me suis arrêté aux repères orthonormés et équations
https://image.noelshack.com/fichiers/2017/02/1484230020-mokou-embarassed-2.png
Ass2Pick
2021-03-27 13:13:38
Le 27 mars 2021 à 13:13:07 Shintamaru a écrit :
en math je me suis arrêté aux repères orthonormés et équations
https://image.noelshack.com/fichiers/2017/02/1484230020-mokou-embarassed-2.png
Ahi
KheyDalto29
2021-03-27 13:14:29
Le 27 mars 2021 à 13:02:06 Jadicle a écrit :
La dérivée est censée nous donner la tendance de la courbe. Mais la tendance elle ne de voit pas directement sur la courbe initiale ? Ça se voit tout de suite si la progression est exponentielle, linéaire ou autre non ?
On dispose pas toujours de la courbe initiale ahurin
BarryStein
2021-03-27 13:15:34
C'est la base de la mécanique.
Seconde loi de Newton: Somme des forces ext = masse x dérivée seconde de la position.
Shintamaru
2021-03-27 13:17:03
je suis pas très loin de la vérité en parlant de formulation d'un mouvement on dirait mais je comprends à moitié ce que vous dîtes
https://image.noelshack.com/fichiers/2017/23/1496664867-mmokou.png
en entendant dérivée ça m'a toujours fait penser aux bateaux
GalaxyA71
2021-03-27 13:17:03
La généralisation d'une dérivée (qu'on appelle un gradient) permet un nombre incroyable d'applications.
Notamment, pour parler de ce que je connais, d'optimiser des fonctions (trouver des minimums) dans le cadre du machine learning.
BanonLeBani
2021-03-27 13:18:46
Le 27 mars 2021 à 13:17:03 GalaxyA71 a écrit :
La généralisation d'une dérivée (qu'on appelle un gradient) permet un nombre incroyable d'applications.
Notamment, pour parler de ce que je connais, d'optimiser des fonctions (trouver des minimums) dans le cadre du machine learning.
Oui la descente gradient, c'est ultra classique.
Sinon la généralisation de dérivée c'est plutôt du côté des différentielles (sur des variétés, ou Frechet, Gateau, …).