Regresja liniowa: ćwiczenie polegające na schodkowym zmniejszaniu gradientu
Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
W tym ćwiczeniu ponownie otworzysz wykres danych o ekonomiczności spalania z ćwiczenia dotyczącego parametrów. Tym razem użyjesz metody gradientu prostego, aby znaleźć optymalne wartości wag i uprzedzeń dla modelu liniowego, który minimalizuje stratę.
Wykonaj 3 zadania pod wykresem.
Zadanie 1: przesuń suwak Szybkość uczenia się pod wykresem, aby ustawić szybkość uczenia się na 0,03. Aby wykonać sprowadzanie gradientowe, kliknij przycisk Start (Rozpocznij).
Ile czasu trwa zbliżanie się modelu do punktu zbieżności (osiągnięcie stabilnej minimalnej wartości funkcji utraty)? Jaka jest wartość MSE w przypadku konwergencji modelu? Jakie wartości wagi i uśrednienia dają tę wartość?
Kliknij ikonę plusa, aby zobaczyć nasze rozwiązanie.
Gdy ustawiliśmy szybkość uczenia się na 0,03, model osiągnął zbieżność po około 30 sekundach, uzyskując MSE wynoszący nieco poniżej 3, a wartości wagi i uprzedzeń odpowiednio –2,08 i 23,098. Oznacza to, że wybraliśmy dobrą wartość tempa uczenia się.
Zadanie 2: kliknij przycisk Reset pod wykresem, aby zresetować wartości wagi i uśrednienia na wykresie. Dostosuj suwak Szybkość uczenia się do wartości około 1,10e–5. Aby wykonać sprowadzanie gradientowe, kliknij przycisk Start (Rozpocznij).
Jak długo tym razem trwa konwergencja trenowania modelu?
Kliknij ikonę plusa, aby wyświetlić rozwiązanie
Po kilku minutach trenowanie modelu nadal nie osiągnęło konwergencji. Niewielkie zmiany wartości wagi i uprzedzeń nadal powodują nieznaczne obniżenie wartości utraty. Sugeruje to, że wybór wyższego współczynnika uczenia się pozwoliłby algorytmowi gradientu prostego szybciej znaleźć optymalne wartości wag i uprzedzeń.
Zadanie 3: kliknij przycisk Reset pod wykresem, aby zresetować wartości wagi i bicia. Przesuń suwak Szybkość uczenia się do wartości 1. Aby wykonać sprowadzanie gradientowe, kliknij przycisk Start (Rozpocznij).
Co się dzieje z wartościami utraty podczas uruchamiania gradientu prostego? Jak długo potrwa zbliżanie modelu do tego czasu?
Kliknij ikonę plusa, aby wyświetlić rozwiązanie
Wartości strat zmieniają się gwałtownie przy wysokich wartościach (MSE powyżej 300). Sugeruje to, że tempo uczenia się jest zbyt wysokie i trenowanie modelu nigdy nie osiągnie konwergencji.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-06-29 UTC."],[],[],null,["In this exercise, you'll revisit the graph of fuel-efficiency data from\nthe [Parameters exercise](/machine-learning/crash-course/linear-regression/parameters-exercise). But this time, you'll\nuse gradient descent to learn the optimal weight and bias values for a linear\nmodel that minimizes loss.\n\nComplete the three tasks below the graph.\n| This interactive visualization can produce flashing visuals when set to a high Learning Rate, which may affect photosensitive individuals.\n\n**Task #1:** Adjust the **Learning Rate** slider below the graph to set a\nlearning rate of 0.03. Click the **Start** button to run gradient descent.\n\nHow long does the model training take to converge (reach a stable minimum\nloss value)? What is the MSE value at model convergence? What weight and bias\nvalues produce this value?\n\nClick the plus icon to see our solution \nWhen we set a learning rate of 0.03, the model converged after\napproximately 30 seconds, achieving a MSE of just under 3 with weight and\nbias values of --2.08 and 23.098, respectively. This indicates we've\npicked a good learning rate value.\n| **Note:** The data points in the graph vary slightly each time you load the page, so your solutions here may be a little different than ours.\n\n**Task #2:** Click the **Reset** button below the graph to reset the Weight and\nBias values in the graph. Adjust the **Learning Rate** slider to a value around\n1.10e^--5^. Click the **Start** button to run gradient descent.\n\nWhat do you notice about how long it takes the model training to converge\nthis time?\n\nClick the plus icon to see the solution \nAfter several minutes, model training still hasn't converged. Small\nupdates to Weight and Bias values continue to result in slightly lower\nloss values. This suggests that picking a higher learning rate would\nenable gradient descent to find the optimal weight and bias values more\nquickly.\n\n**Task #3:** Click the **Reset** button below the graph to reset the Weight\nand Bias values in the graph. Adjust the **Learning Rate** slider up to 1.\nClick the **Start** button to run gradient descent.\n\nWhat happens to the loss values as gradient descent runs? How long will model\ntraining take to converge this time?\n\nClick the plus icon to see the solution \nLoss values fluctuate wildly at high values (MSE over 300).\nThis indicates that the learning rate is too high, and model training\nwill never reach convergence."]]