algorithme d'optimisation
Wikipedia
fr.wikipedia.org › wiki › Algorithme_du_gradient
Algorithme du gradient — Wikipédia
December 3, 2025 - L'idée consiste à effectuer des étapes répétées dans la direction opposée au gradient (ou gradient approximatif) de la fonction au point actuel, car il s'agit de la direction de descente la plus raide. À l'inverse, se déplacer dans la direction du gradient conduira à une trajectoire qui maximise cette fonction ; la procédure est alors connue sous le nom d'ascension du gradient.
Exo7math
exo7math.github.io › deepmath-exo7 › descente › descente.pdf pdf
Descente de gradient Vidéo ■partie 8.1. Descente de gradient classique
f (amin) = 1. Retrouvons ceci par la descente de gradient. Partant d’une valeur a0 quelconque, la formule de récurrence est :
Videos
12:09
Les bases de la descente de gradient | Réseaux de neurones 7 - ...
[Deepmath] 8.2. Descente de gradients : exemples
10:54
DESCENTE DE GRADIENT. Algorithme de descente de gradient ...
15:24
[Deepmath] 8.3. Descente de gradient et régression linéaire - ...
10:59
[Deepmath] 8.1. Descente de gradient classique - YouTube
12:35
[Deepmath] 8.4. Descente de gradient stochastique - YouTube
Descente du gradient : Formalisation mathématiques
La descente du gradient est un des nombreux algorithmes dits de descente dont la formule générale a pour but à chaque itération d’avoir une fonction convexe que l’on souhaite minimiser.
liora.io
liora.io › blog › algorithme de descente de gradient : qu’est-ce que c’est ?
Algorithme de descente de gradient : Qu'est-ce que c'est ?
Un grand taux d’apprentissage ?
Un taux d’apprentissage élevé produit une grande instabilité de l’approximation linéaire, ce qui ralentit la diminution de la valeur de la fonction de perte.
liora.io
liora.io › blog › algorithme de descente de gradient : qu’est-ce que c’est ?
Algorithme de descente de gradient : Qu'est-ce que c'est ?
La complexité du taux d’apprentissage
Le taux d’apprentissage joue un rôle crucial car un taux trop élevé peut faire diverger l’algorithme tandis qu’un taux trop faible allonge la convergence.
liora.io
liora.io › blog › algorithme de descente de gradient : qu’est-ce que c’est ?
Algorithme de descente de gradient : Qu'est-ce que c'est ?
Dridk
dridk.me › gradient_descendant.html
L'algorithme de descente en gradient // Sacha Schutz // bioinformatique génétique médecine
La méthode de descente en gradient consiste à prendre une valeur de «a» au hasard et la faire varier plus ou moins fortement par rapport à la pente de la fonction objective. Au lieu de tester toutes les valeurs de «a», vous faites varier sa valeur avec des pas variables qui deviennent de plus en plus petits au fur et à mesure que l'on se rapproche du minimum.
Google
developers.google.com › machine learning › linear regression: gradient descent
Linear regression: Gradient descent | Machine Learning | Google for Developers
February 3, 2026 - Determine the direction to move the weights and bias that reduce loss. Move the weight and bias values a small amount in the direction that reduces loss. Return to step one and repeat the process until the model can't reduce the loss any further. The diagram below outlines the iterative steps gradient descent performs to find the weights and bias that produce the model with the lowest loss.
Université Paris-Saclay
imo.universite-paris-saclay.fr › ~blanche.buet › teachingFiles › L3MAG373 › C3DescenteGradient.pdf pdf
Optimisation et descente de gradient à pas fixe.
En effet, comme ⟨∇f(x), −∇f(x)⟩= −∥∇f(x)∥2 < 0 (∇f(x) ̸= 0), c’est bien une direction de descente · (en utilisant le point précédent). C’est la direction “de plus grande pente” au sens où −d ... avec égalité si et seulement si h et −∇f(x) sont positivement ...
IBM
ibm.com › think › topics › gradient-descent
Qu'est-ce que la descente de gradient ?
November 17, 2025 - You may also recall plotting a scatterplot in statistics and finding the line of best fit, which required calculating the error between the actual output and the predicted output (y-hat) using the mean squared error formula. The gradient descent algorithm behaves similarly, but it is based on a convex function. The starting point is just an arbitrary point for us to evaluate the performance. From that starting point, we will find the derivative (or slope), and from there, we can use a tangent line to observe the steepness of the slope.
Math for Engineers
mathforengineers.com › french › multivariable-calculus › gradient-descent.html
Descente de Gradient
Cet ajustement est guidé par la formule de mise à jour : \[ \mathbf{x}_{k+1} = \mathbf{x}_k - r \nabla f(\mathbf{x}_k) \] où \( \mathbf{x} \) est un vecteur de variables, \( r \) tel que \( r \gt 0 \) est le taux d'apprentissage, et \( \nabla f(\mathbf{x}_k) \) est le gradient de la fonction ...
Brigitte Le ROUX
helios2.mi.parisdescartes.fr › ~bouzy › Doc › AA1 › DescenteGradient.pdf pdf
Descente de gradient Bruno Bouzy 5 octobre 2005 Introduction
Dans · la formule de la DG, la jième coordonnée de X, xj, est mise à jour avec : ∆xj = – η ∂/ E ∂xj(X)= – η ∂/ E ∂xj(x1, x2, ..., xn) Une implémentation en C · // descente de gradient pour z = E(x,y) #include <stdio.h> int main() { float nu = 0.01; printf("(nu = %f)\n", ...
Frama
majpeulsia-884208.frama.io › Concepts › descentegradient
Descente de gradient -- calcul de coût - Moi aussi je peux écrire un livre sur l'IA
Mise à jour des paramètres : on met à jour les paramètres en suivant la direction opposée au gradient. Cela signifie que l’on descend la pente de la fonction de coût pour trouver un minimum. La mise à jour se fait selon la formule \(\theta = \theta - \alpha \nabla J(\theta)\) où \(\theta\) représente les paramètres, \(\alpha\) est le taux d’apprentissage, et \(\nabla J(\theta)\) est le gradient de la fonction de coût (\(J\)).
StudySmarter
studysmarter.fr › descente de gradient
Descente de gradient: Algorithme, Optimisation | StudySmarter
La formule de la descente de gradient repose fondamentalement sur deux éléments principaux : le gradient de la fonction de coût et le taux d'apprentissage.Le gradient est calculé comme la dérivée de la fonction de coût par rapport aux paramètres du modèle, indiquant la direction et ...
Simonthomine
simonthomine.github.io › CoursDeepLearning › fr › 01_Fondations › 01_DérivéesEtDescenteDuGradient.html
Dérivée et descente du gradient — Cours Deep Learning
Ce cours présente l’algorithme de descente du gradient, un pilier du deep learning. Pour bien comprendre, faisons un rappel sur la dérivée. import matplotlib.pyplot as plt import numpy as np ... Traçons cette fonction avec matplotlib. xs = np.arange(-5, 5, 0.25) ys = f(xs) plt.plot(xs, ys) ... La dérivée donne la pente de la tangente à la courbe en un point. Pour la calculer, on utilise la formule : \(f'(x) = \lim_{h \to 0} \frac{f(x+h)-h}{h}\) Avec un petit \(h\), on peut estimer la pente numériquement.
LIS Lab
pageperso.lis-lab.fr › ~alexis.nasr › Ens › MASCO_AA › gradient.pdf pdf
Fonctions de plusieurs variables Gradient
Comprendre la notion de gradient d’une fonction. Comprendre le principe de l’algorithme de descente du
Genie360
genie360.org › accueil › la méthode de descente de gradient expliquée simplement
La méthode de descente de gradient expliquée simplement - Bienvenue sur le site de Génie 360 !
August 2, 2025 - Mise à jour des paramètres : On effectue un pas dans la direction opposée au gradient, car l’objectif est de diminuer la fonction. Ce pas est pondéré par un paramètre appelé taux d’apprentissage (learning rate), noté souvent \alpha. ... Répétition : On répète ce processus jusqu’à ce que la variation devienne négligeable ou qu’un certain nombre d’itérations soit atteint. Le tableau ci-dessous illustre l’évolution des paramètres \(\theta_1\) et \(\theta_2\) au fil des itérations de la descente de gradient, appliquée à la fonction \(f(\theta_1, \theta_2) = \theta_1^2 + \theta_2^2\).
Zilliz
zilliz.com › fr › glossary › gradient-descent
Qu'est-ce que la descente en gradient ? Le guide essentiel pour les développeurs
**La pente ou le gradient indique ... de coût est la plus significative. ... Mathématiquement, la formule pour réaliser la descente de gradient est NP = OP - SS....
Telecom ParisTech
perso.telecom-paristech.fr › angelini › master_spsiv › optimization › iup1.opti.chp6.pdf pdf
Chp. 6. Algorithmes de gradient Avertissement!
L’algorithme du gradient `a pas ... chaque ´etape, une recherche du pas optimal minimisant : ϕ(t) = f(x + t u) , o`u : u = −∇f(x) est la direction de descente au point x : GradOpt(f, x0, pas, tolerance) x ←x0 ·...
Innovatiana
innovatiana.com › en › post › gradient-descent
Optimisation par descente de gradient en IA
July 29, 2024 - In deep learning, the loss function measures the difference between model predictions and the actual values of the training data. Gradient descent calculates the gradient of this function with respect to network parameters, thereby indicating the direction and magnitude of adjustment required to improve model predictions.