Last Time

HW : GPU / TPU를 사용해서 효율적으로 학습

SW

PyTorch : Dynamic

TensorFlow : 2.0 이전에는 Static, 2.0 이후에는 Dynamic 이 기본

기본적인 딥러닝에서의 pipeline은 비슷, low-level에서의 구현도 거의 같지만 high-level에서는 함수, 메소드의 이용에 차이가 있음

SW의 문법적인 부분은 업데이트되며 수정될 수 있음

AlexNet

Review: LeNet-5

Conv filters were 5x5, applied at stride 1

Subsampling (Pooling) layers were 2x2 applieed at stride 2

i.g. architecture is [CONV - POOL - CONV - POOL - FC - FC]

AlexNet

$$ \vdots $$

First Layer (CONV1)