Keras
-
간단하게 요약하면 ResNet의 shortcut block에 ConvRNN을 붙여 사용하는 형태인 것 같습니다. 논문에서 말하는 시공간 정보라는 것이 조금 추상적인 표현이라 100% 와닿지는 않았습니다. 하지만 Feature visualization으로 기존 ResNet보다 더 많은 정보를 가진 feature를 얻을 수 있는 부분은 좋은 아이디어 같습니다. 시공간이라는 표현을 쓴 것은 sequence classification이 가능한 RNN을 적용해보기 위해 쓴 표현일까? 라는 생각이 들었습니다. abstract Resnet은 다양한 computer vision task에서 놀라운 성공을 이루었다. 하지만 shortcut connection 구조는 잠재적이고 보완적인 특징을 재탐색하는 능력을 제한한다...
[논문 읽기] RegNet: Self-Regulated Network for Image Classification간단하게 요약하면 ResNet의 shortcut block에 ConvRNN을 붙여 사용하는 형태인 것 같습니다. 논문에서 말하는 시공간 정보라는 것이 조금 추상적인 표현이라 100% 와닿지는 않았습니다. 하지만 Feature visualization으로 기존 ResNet보다 더 많은 정보를 가진 feature를 얻을 수 있는 부분은 좋은 아이디어 같습니다. 시공간이라는 표현을 쓴 것은 sequence classification이 가능한 RNN을 적용해보기 위해 쓴 표현일까? 라는 생각이 들었습니다. abstract Resnet은 다양한 computer vision task에서 놀라운 성공을 이루었다. 하지만 shortcut connection 구조는 잠재적이고 보완적인 특징을 재탐색하는 능력을 제한한다...
2023.10.27 -
VGGnet은 2014년 ISLVRC 대회 (ImageNet 이미지 인식 대회)에서 준우승을 차지한 모델입니다. 이 글에서는 VGG16과 VGG19의 구조를 알아봅니다. 모든 컨볼루션 레이어의 커널사이즈는 3x3이며, 제로패딩이 적용되었습니다. VGG16은 5개의 블록 / 각 블록은 2, 2, 3, 3, 3개의 컨볼루션 레이어 / 각 블록의 컨볼루션 레이어는 64, 128, 256, 512, 512개의 필터수를 가지고 있습니다. 각 블록의 마지막단에는 maxpooling이 적용되었습니다. 이후에 4096개의 hidden layer 두 층이 있고, 1000개의 아웃풋을 softmax 활성화함수로 출력합니다. VGG19는 5개의 블록 / 각 블록은 2, 2, 4, 4, 4개의 컨볼루션 레이어 / 각 블록의 ..
VGGnet의 구조 + keras codeVGGnet은 2014년 ISLVRC 대회 (ImageNet 이미지 인식 대회)에서 준우승을 차지한 모델입니다. 이 글에서는 VGG16과 VGG19의 구조를 알아봅니다. 모든 컨볼루션 레이어의 커널사이즈는 3x3이며, 제로패딩이 적용되었습니다. VGG16은 5개의 블록 / 각 블록은 2, 2, 3, 3, 3개의 컨볼루션 레이어 / 각 블록의 컨볼루션 레이어는 64, 128, 256, 512, 512개의 필터수를 가지고 있습니다. 각 블록의 마지막단에는 maxpooling이 적용되었습니다. 이후에 4096개의 hidden layer 두 층이 있고, 1000개의 아웃풋을 softmax 활성화함수로 출력합니다. VGG19는 5개의 블록 / 각 블록은 2, 2, 4, 4, 4개의 컨볼루션 레이어 / 각 블록의 ..
2021.08.23 -
CIFAR-10 데이터 학습하는 방법을 조금 자세히 보겠습니다. 비교적 간단한 방법을 포스팅 한 것이며, 추후 다른 방법으로도 포스팅 하겠습니다. 먼저 제너레이터를 정의 하겠습니다. 제너레이터는 쉽게 설명하면 데이터를 한번에 메모리에 저장해놓고 한번에 학습하는 것이 아니라, 표현식을 정의만 해놓고 가용 메모리 범위 내에서 조금씩 반복하여 가져오는 아이입니다. 먹을 것으로 예를 들면, 사과 1000개를 먹어야한다고 가정할 때, 한번에 먹을 수 없겠죠?? 우리 위의 용량에는 너무 버겁습니다. 그래서 1개씩 1000일 나눠먹는 것과 같은 이치입니다. 또 써야하는 이유가 여러가지 있는데... 자세한 설명은 다음시간에 하도록 하겠씁니다. from tensorflow.keras.preprocessing import..
tf.keras로 CIFAR-10 데이터 학습하기CIFAR-10 데이터 학습하는 방법을 조금 자세히 보겠습니다. 비교적 간단한 방법을 포스팅 한 것이며, 추후 다른 방법으로도 포스팅 하겠습니다. 먼저 제너레이터를 정의 하겠습니다. 제너레이터는 쉽게 설명하면 데이터를 한번에 메모리에 저장해놓고 한번에 학습하는 것이 아니라, 표현식을 정의만 해놓고 가용 메모리 범위 내에서 조금씩 반복하여 가져오는 아이입니다. 먹을 것으로 예를 들면, 사과 1000개를 먹어야한다고 가정할 때, 한번에 먹을 수 없겠죠?? 우리 위의 용량에는 너무 버겁습니다. 그래서 1개씩 1000일 나눠먹는 것과 같은 이치입니다. 또 써야하는 이유가 여러가지 있는데... 자세한 설명은 다음시간에 하도록 하겠씁니다. from tensorflow.keras.preprocessing import..
2021.02.11