Universal Approximation Theorem
- English 🇺🇸
- 한국어 🇰🇷
Given a function, a feedforward neural network with just one hidden layer containing a finite number of neurons can approximate this function to any desired accuracy level, provided the neurons' activation function is non-linear.
- 임의의 함수가 주어질 때,
- 뉴런의 활성화 함수가 비선형적이라면,
- 뉴런 수가 한정된 하나의 숨겨진 레이어만 있는 피드포워드 신경망으로
- 이 함수를 원하는 정확도 수준으로 근사화할 수 있다.