Regressione lineare: esercizio sulla discesa del gradiente
Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.
In questo esercizio, esaminerai di nuovo il grafico dei dati sull'efficienza del carburante dell'esercizio sui parametri. Questa volta, però, utilizzerai la discesa del gradiente per apprendere i valori ottimali di peso e bias per un modello lineare che minimizza la perdita.
Completa le tre attività sotto il grafico.
Attività 1: regola il cursore Tasso di apprendimento sotto il grafico per impostare un tasso di apprendimento di 0,03. Fai clic sul pulsante Avvia per eseguire la discesa del gradiente.
Quanto tempo occorre per l'addestramento del modello per convergere (raggiungere un valore minimo stabile della perdita)? Qual è il valore MSE alla convergenza del modello? Quali valori di peso e bias producono questo valore?
Fai clic sull'icona Più per visualizzare la nostra soluzione
Quando abbiamo impostato un tasso di apprendimento di 0,03, il modello è convergene dopo circa 30 secondi, raggiungendo un MSE di poco inferiore a 3 con valori di peso e bias rispettivamente pari a -2,08 e 23,098. Ciò indica che abbiamo scelto un buon valore per il tasso di apprendimento.
Attività 2:fai clic sul pulsante Ripristina sotto il grafico per ripristinare i valori di Peso e Bias nel grafico. Regola il cursore Tasso di apprendimento su un valore pari a circa 1,10e-5. Fai clic sul pulsante Avvia per eseguire la discesa del gradiente.
Cosa noti in merito al tempo necessario per la convergenza dell'addestramento del modello questa volta?
Fai clic sull'icona Più per visualizzare la soluzione.
Dopo diversi minuti, l'addestramento del modello non è ancora terminato. Piccoli aggiornamenti ai valori di peso e bias continuano a produrre valori di perdita leggermente inferiori. Ciò suggerisce che la scelta di un tasso di apprendimento più elevato consentirebbe alla discesa del gradiente di trovare più rapidamente i valori ottimali di peso e bias.
Attività 3:fai clic sul pulsante Ripristina sotto il grafico per reimpostare i valori di Peso e Bias nel grafico. Regola il cursore Tasso di apprendimento fino a 1. Fai clic sul pulsante Avvia per eseguire la discesa del gradiente.
Che cosa succede ai valori di perdita durante l'esecuzione della discesa del gradiente? Quanto tempo ci vorrà per la convergenza dell'addestramento del modello questa volta?
Fai clic sull'icona Più per visualizzare la soluzione.
I valori di perdita fluttuano notevolmente a valori elevati (MSE superiore a 300). Ciò indica che il tasso di apprendimento è troppo elevato e che l'addestramento del modello non raggiungerà mai la convergenza.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-06-29 UTC."],[],[],null,["In this exercise, you'll revisit the graph of fuel-efficiency data from\nthe [Parameters exercise](/machine-learning/crash-course/linear-regression/parameters-exercise). But this time, you'll\nuse gradient descent to learn the optimal weight and bias values for a linear\nmodel that minimizes loss.\n\nComplete the three tasks below the graph.\n| This interactive visualization can produce flashing visuals when set to a high Learning Rate, which may affect photosensitive individuals.\n\n**Task #1:** Adjust the **Learning Rate** slider below the graph to set a\nlearning rate of 0.03. Click the **Start** button to run gradient descent.\n\nHow long does the model training take to converge (reach a stable minimum\nloss value)? What is the MSE value at model convergence? What weight and bias\nvalues produce this value?\n\nClick the plus icon to see our solution \nWhen we set a learning rate of 0.03, the model converged after\napproximately 30 seconds, achieving a MSE of just under 3 with weight and\nbias values of --2.08 and 23.098, respectively. This indicates we've\npicked a good learning rate value.\n| **Note:** The data points in the graph vary slightly each time you load the page, so your solutions here may be a little different than ours.\n\n**Task #2:** Click the **Reset** button below the graph to reset the Weight and\nBias values in the graph. Adjust the **Learning Rate** slider to a value around\n1.10e^--5^. Click the **Start** button to run gradient descent.\n\nWhat do you notice about how long it takes the model training to converge\nthis time?\n\nClick the plus icon to see the solution \nAfter several minutes, model training still hasn't converged. Small\nupdates to Weight and Bias values continue to result in slightly lower\nloss values. This suggests that picking a higher learning rate would\nenable gradient descent to find the optimal weight and bias values more\nquickly.\n\n**Task #3:** Click the **Reset** button below the graph to reset the Weight\nand Bias values in the graph. Adjust the **Learning Rate** slider up to 1.\nClick the **Start** button to run gradient descent.\n\nWhat happens to the loss values as gradient descent runs? How long will model\ntraining take to converge this time?\n\nClick the plus icon to see the solution \nLoss values fluctuate wildly at high values (MSE over 300).\nThis indicates that the learning rate is too high, and model training\nwill never reach convergence."]]