신경망 빌드 비선형성을 학습하며 다음과 같은 익숙한 모델 구조로 시작하세요. 형식의 선형 모델 y달러 = b + w_1x_1 + w_2x_2 + w_3x_3$입니다.
이 방정식을 아래와 같이 시각화할 수 있습니다. 여기서 $x_1$, $x_2$ 및 $x_3$ 는 3개의 입력 노드 (파란색)이고 $y'$는 출력 노드입니다. (녹색)
실습 1
위 모델에서 가중치와 편향 값이 무작위로 초기화됩니다. 다음 작업을 실행하여 선형 모델을 살펴보겠습니다 다음을 수행할 수 있습니다. 지금은 Activation Function 드롭다운을 무시합니다. 이 부분에 대해서는 모듈 후반부에서 다루도록 하겠습니다
네트워크 위의 재생 (▶️) 버튼을 클릭하여 입력값 $x_1 = 1.00$, $x_2 = 2.00$, $x_3 = 3.00$입니다.
표에서 두 번째 노드를 클릭하고 입력 레이어, 2.00부터의 값 2.50으로 변경합니다. 출력 노드의 값이 변경됩니다. 출력 선택 노드 (녹색)를 클릭하고 계산 패널을 검토하여 결과가 값이 계산되었습니다.
출력 노드 (녹색)를 클릭하여 가중치 ($w_1$, $w_2$, $w_3$)를 확인하고 편향 ($b$) 매개변수 값에 대해 학습됩니다. 가중치 값 감소 $w_3$ (다시 말하지만, 출력 노드의 값과 아래의 계산은 변경) 그런 다음 편향 값을 늘립니다. 변경사항 검토 영향을 줄 수 있습니다
네트워크에 계층 추가
이때 네트워크의 가중치와 편향 값을 실습 1 - 전반적인 수학 개념에 관계를 보여줍니다. 이 모델은 여전히 선형 모델입니다.
하지만 네트워크의 입력 레이어 사이에 어떻게 해야 할까요? 신경망 용어에서 입력 레이어와 출력 레이어는 히든 레이어 및 노드는 이러한 계층을 형성하고 뉴런.
히든 레이어의 각 뉴런 값은 선형 모델의 출력: 각 입력의 곱의 합을 구합니다. (이전 네트워크 계층의 뉴런) 및 고유한 가중치 매개변수 편향을 더합니다. 마찬가지로 다음 레이어의 뉴런 (출력 레이어)은 히든 레이어의 뉴런 값을 입력으로 사용하여 계산됩니다.
이 새로운 히든 레이어를 사용하면 모델이 다른 히든 레이어를 사용하여 입력 데이터를 매개변수 집합일 수도 있습니다. 모델이 비선형 관계를 학습하는 데 도움이 될 수 있을까요?
실습 2
뉴런이 4개 포함된 히든 레이어를 모델에 추가했습니다.
네트워크 위의 재생 (▶️) 버튼을 클릭하여 4개의 히든 레이어 노드와 입력 값의 출력 노드 $x_1 = 1.00$, $x_2 = 2.00$, $x_3 = 3.00$입니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-08-16(UTC)"],[],[],null,["To build a [**neural network**](/machine-learning/glossary#neural_network)\nthat learns [**nonlinearities**](/machine-learning/glossary#nonlinear),\nbegin with the following familiar model structure: a\n[**linear model**](/machine-learning/glossary#linear-model) of the form\n$y' = b + w_1x_1 + w_2x_2 + w_3x_3$.\n\nWe can visualize this equation as shown below, where $x_1$,\n$x_2$, and $x_3$ are our three input nodes (in blue), and $y'$ is our output node\n(in green).\n\nExercise 1\n\nIn the model above, the [**weight**](/machine-learning/glossary#weight) and\n[**bias**](/machine-learning/glossary#bias) values have been randomly\ninitialized. Perform the following tasks to familiarize yourself with the\ninterface and explore the linear model. You can\nignore the *Activation Function* dropdown for now; we'll discuss this\ntopic later on in the module.\n\n1. Click the Play (▶️) button above the network to calculate the value of\n the output node for the input values $x_1 = 1.00$, $x_2 = 2.00$, and\n $x_3 = 3.00$.\n\n2. Click the second node in the\n [**input layer**](/machine-learning/glossary#input-layer), and increase\n the value from 2.00\n to 2.50. Note that the value of the output node changes. Select the output\n nodes (in green) and review the *Calculations* panel to see how the output\n value was calculated.\n\n | **Notes about calculations:**\n | - Values displayed are rounded to the hundredths place.\n | - The `Linear()` function simply returns the value it is passed.\n3. Click the output node (in green) to see the weight ($w_1$, $w_2$, $w_3$) and\n bias ($b$) parameter values. Decrease the weight value for\n $w_3$ (again, note that the value of the output node and the calculations below\n have changed). Then, increase the bias value. Review how these changes\n have affected the model output.\n\nAdding layers to the network\n\nNote that when you adjusted the weight and bias values of the network in\n[Exercise 1](#exercise_1), that didn't change the overall mathematical\nrelationship between input and output. Our model is still a linear model.\n\nBut what if we add another layer to the network, in between the input layer\nand the output layer? In neural network terminology, additional layers between\nthe input layer and the output layer are called\n[**hidden layers**](/machine-learning/glossary#hidden_layer), and the nodes\nin these layers are called\n[**neurons**](/machine-learning/glossary#neuron).\n\nThe value of each neuron in the hidden layer is calculated the same way as the\noutput of a linear model: take the sum of the product of each of its inputs\n(the neurons in the previous network layer) and a unique weight parameter,\nplus the bias. Similarly, the neurons in the next layer (here, the output layer)\nare calculated using the hidden layer's neuron values as inputs.\n\nThis new hidden layer allows our model to recombine the input data using another\nset of parameters. Can this help our model learn nonlinear relationships?\n\nExercise 2\n\nWe've added a hidden layer containing four neurons to the model.\n\nClick the Play (▶️) button above the network to calculate the value of\nthe four hidden-layer nodes and the output node for the input values\n$x_1 = 1.00$, $x_2 = 2.00$, and $x_3 = 3.00$.\n\nThen explore the model, and use it to answer the following questions. \nHow many [**parameters**](/machine-learning/glossary#parameter) (weights and biases) does this neural network model have? \n4 \nOur original model in [Exercise 1](#exercise-1) had four parameters: w~11~, w~21~, w~31~, and b. Because this model contains a hidden layer, there are more parameters. \n12 \nNote that the total number of parameters includes both the parameters used to calculate the node values in the hidden layer from the input values, and the parameters used to calculate the output value from the node values in the hidden layer. \n16 \nNote that the total number of parameters includes both the weight parameters and the bias parameters. \n21 \nThere are 4 parameters used to calculate each of the 4 node values in the hidden layer---3 weights (one for each input value) and a bias---which sums to 16 parameters. Then there are 5 parameters used to calculate the output value: 4 weights (one for each node in the hidden layer) and a bias. In total, this neural network has 21 parameters. \nTry modifying the model parameters, and observe the effect on the\nhidden-layer node values and the output value (you can review the\nCalculations panel below to see how these values were\ncalculated).\n\nCan this model learn nonlinearities? \nYes \nClick on each of the nodes in the hidden layer and the output node, and review the calculations below. What do you notice about all these calculations? \nNo \nIf you click on each of the nodes in the hidden layer and review\nthe calculations below, you'll see that all of them are linear\n(comprising multiplication and addition operations).\n\nIf you then click on the output node and review the calculation\nbelow, you'll see that this calculation is also linear. Linear\ncalculations performed on the output of linear calculations are\nalso linear, which means this model cannot learn nonlinearities.\n| **Key terms:**\n|\n| - [Bias](/machine-learning/glossary#bias)\n| - [Hidden layer](/machine-learning/glossary#hidden_layer)\n| - [Input layer](/machine-learning/glossary#input-layer)\n| - [Linear model](/machine-learning/glossary#linear-model)\n| - [Model](/machine-learning/glossary#model)\n| - [Neural network](/machine-learning/glossary#neural_network)\n| - [Neuron](/machine-learning/glossary#neuron)\n| - [Nonlinear](/machine-learning/glossary#nonlinear)\n| - [Parameter](/machine-learning/glossary#parameter)\n- [Weight](/machine-learning/glossary#weight) \n[Help Center](https://support.google.com/machinelearningeducation)"]]