Régression linéaire: exercice de descente de gradient
Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.
Dans cet exercice, vous allez revenir sur le graphique des données d'efficacité énergétique de l'exercice sur les paramètres. Mais cette fois, vous allez utiliser la descente de gradient pour apprendre les valeurs optimales de poids et de biais pour un modèle linéaire qui minimise les pertes.
Réalisez les trois tâches ci-dessous le graphique.
Tâche 1:Ajustez le curseur Learning Rate (Taux d'apprentissage) sous le graphique pour définir un taux d'apprentissage de 0,03. Cliquez sur le bouton Start (Démarrer) pour exécuter la descente du gradient.
Combien de temps faut-il pour que l'entraînement du modèle converge (atteigne une valeur de perte minimale stable) ? Quelle est la valeur de MSE à la convergence du modèle ? Quelles valeurs de poids et de biais produisent cette valeur ?
Cliquez sur l'icône Plus pour afficher notre solution.
Lorsque nous avons défini un taux d'apprentissage de 0,03, le modèle a convergé au bout d'environ 30 secondes, obtenant une MSE d'un peu moins de 3 avec des valeurs de poids et de biais de –2,08 et 23,098, respectivement. Cela indique que nous avons choisi une bonne valeur de taux d'apprentissage.
Tâche 2:cliquez sur le bouton Reset (Réinitialiser) sous le graphique pour réinitialiser les valeurs de poids et de biais dans le graphique. Ajustez le curseur Learning Rate (Taux d'apprentissage) sur une valeur d'environ 1,10e-5. Cliquez sur le bouton Start (Démarrer) pour exécuter la descente du gradient.
Que remarquez-vous concernant le temps nécessaire à la convergence de l'entraînement du modèle cette fois-ci ?
Cliquez sur l'icône Plus pour afficher la solution.
Après plusieurs minutes, l'entraînement du modèle n'a toujours pas convergé. Les petites mises à jour des valeurs de poids et de biais continuent de générer des valeurs de perte légèrement inférieures. Cela suggère que choisir un taux d'apprentissage plus élevé permettrait à la descente du gradient de trouver plus rapidement les valeurs de poids et de biais optimales.
Tâche 3:cliquez sur le bouton Réinitialiser sous le graphique pour réinitialiser les valeurs de poids et de biais dans le graphique. Réglez le curseur Taux d'apprentissage sur 1. Cliquez sur le bouton Start (Démarrer) pour exécuter la descente du gradient.
Que deviennent les valeurs de perte lorsque la descente de gradient est exécutée ? Combien de temps faudra-t-il pour que l'entraînement du modèle converge cette fois-ci ?
Cliquez sur l'icône Plus pour afficher la solution.
Les valeurs de perte fluctuent de manière importante à des valeurs élevées (MSE supérieur à 300). Cela indique que le taux d'apprentissage est trop élevé et que l'entraînement du modèle n'atteindra jamais la convergence.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/06/29 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/06/29 (UTC)."],[],[],null,["In this exercise, you'll revisit the graph of fuel-efficiency data from\nthe [Parameters exercise](/machine-learning/crash-course/linear-regression/parameters-exercise). But this time, you'll\nuse gradient descent to learn the optimal weight and bias values for a linear\nmodel that minimizes loss.\n\nComplete the three tasks below the graph.\n| This interactive visualization can produce flashing visuals when set to a high Learning Rate, which may affect photosensitive individuals.\n\n**Task #1:** Adjust the **Learning Rate** slider below the graph to set a\nlearning rate of 0.03. Click the **Start** button to run gradient descent.\n\nHow long does the model training take to converge (reach a stable minimum\nloss value)? What is the MSE value at model convergence? What weight and bias\nvalues produce this value?\n\nClick the plus icon to see our solution \nWhen we set a learning rate of 0.03, the model converged after\napproximately 30 seconds, achieving a MSE of just under 3 with weight and\nbias values of --2.08 and 23.098, respectively. This indicates we've\npicked a good learning rate value.\n| **Note:** The data points in the graph vary slightly each time you load the page, so your solutions here may be a little different than ours.\n\n**Task #2:** Click the **Reset** button below the graph to reset the Weight and\nBias values in the graph. Adjust the **Learning Rate** slider to a value around\n1.10e^--5^. Click the **Start** button to run gradient descent.\n\nWhat do you notice about how long it takes the model training to converge\nthis time?\n\nClick the plus icon to see the solution \nAfter several minutes, model training still hasn't converged. Small\nupdates to Weight and Bias values continue to result in slightly lower\nloss values. This suggests that picking a higher learning rate would\nenable gradient descent to find the optimal weight and bias values more\nquickly.\n\n**Task #3:** Click the **Reset** button below the graph to reset the Weight\nand Bias values in the graph. Adjust the **Learning Rate** slider up to 1.\nClick the **Start** button to run gradient descent.\n\nWhat happens to the loss values as gradient descent runs? How long will model\ntraining take to converge this time?\n\nClick the plus icon to see the solution \nLoss values fluctuate wildly at high values (MSE over 300).\nThis indicates that the learning rate is too high, and model training\nwill never reach convergence."]]