DeepLearning Computation 인공지능/DeepLearning 2020. 11. 11. [PyTorch] Parameter Management 네트워크를 설계하고 손실 함수를 최소화하는 파라미터 값을 찾는 것을 목표로 학습을 반복한다. 훈련 후 향후 예측을 위해 이러한 매개 변수가 필요하다. 또한 과학적 이해를 얻기 위해 매개 변수가 필요하기도 하다. 대부분 딥러닝 프레임 워크에 의해 무거운 작업을 수행하기 때문에 핵심적인 세부사항은 무시할 수도 있지만, 표준 layer의 구조를 벗어나게 된다면 매개 변수를 선언하고 조작하는 것이 필요할 때가 존재하게 된다. Parameter Access 구현된 모델에서 매개 변수에 액세스 하는 방법이 존재한다. 모델이 Sequential클래스를 통해 정의되면 모델의 각 layer를 인덱싱하여 액세스 할 수 있다. 출력은 해당 계층의 weight 값과, bias 값에 해당하는 두 개의 매개 변수를 포함하여, f.. 인공지능/DeepLearning 2020. 11. 9. [PyTorch] Layers and Blocks 딥러닝이 우수한 중요 요소 중에 하나는 우수한 소프트웨어이다. 크기가 작은 MLP의 경우 모든 layer를 설계하여 직접적으로 구성할 수 있다. 하지만 컴퓨터 비전 문제를 풀기 위해 제안된 ResNet-152처럼 152개의 많은 layer들을 설계하기에는 번거로울 수 있다. 깊은 네트워크는 수많은 반복되는 형태를 가지고 있고, 반복되는 형태를 블록으로 구현하여 구성한다. 이렇게 구현한 블록들은 더 복잡한 네트워크 디자인을 구성하는 기본 요소가 된다. 아주 간단한 MLP 네트워크를 구현한다. 다음은 256개 유닛과 ReLU 함수의 hidden Layer와 10개 유닛의 output Layer로 구성된 네트워크를 생성하는 코드이다. import torch from torch import nn from tor.. 이전 1 다음