Vision AI
-
mmdeploy 환경 세팅 😀 사전 지식 - mmpretrain은 mmclassification의 최신 framework 이름이다. - 경량화 툴킷 정리해본 글 >> https://beelinekim.tistory.com/96 1. Docker pull을 받는다. 이 docker에는 CUDA, CUDNN, python, torch, tensorRT, ONNX, OPenVINO, ncnn이 다 세팅되어 있다. https://github.com/open-mmlab/mmdeploy/blob/main/docs/en/01-how-to-build/build_from_docker.md docker pull openmmlab/mmdeploy:ubuntu20.04-cuda11.3-mmdeploy docker 세팅 환경은..
mmdeploy에서 TensorRT int8 quantization 모델 변환해보기mmdeploy 환경 세팅 😀 사전 지식 - mmpretrain은 mmclassification의 최신 framework 이름이다. - 경량화 툴킷 정리해본 글 >> https://beelinekim.tistory.com/96 1. Docker pull을 받는다. 이 docker에는 CUDA, CUDNN, python, torch, tensorRT, ONNX, OPenVINO, ncnn이 다 세팅되어 있다. https://github.com/open-mmlab/mmdeploy/blob/main/docs/en/01-how-to-build/build_from_docker.md docker pull openmmlab/mmdeploy:ubuntu20.04-cuda11.3-mmdeploy docker 세팅 환경은..
2023.06.24 -
개념 정리 완벽히 알진 못하여 틀린 부분이 있을 수 있습니다. 틀린 부분이 있다면 말씀 부탁드립니다. 모델 최적화 및 가속 OPenVINO 인텔에서 제공하는 딥러닝 최적화 및 하드웨어 가속화 기능을 가진 툴킷 Intel CPU 아키텍처에 모델을 최적화시켜 인퍼런스 타임을 pytorch 대비 10배 가량 향상시켜 주는 모델 최적화 방법, 누군가 실험해 본 벤치마크상 인퍼런스 타임이 1/10 정도로 감소, 모델 용량은 그대로임. Intel CPU 인퍼런스를 하는 환경이라면 OPenVINO TensorRT Nvidia GPU를 사용하는 연산을 보조하기 위한 기술, 딥러닝 모델 추론 속도를 향상시키는 모델 최적화 엔진 Nvidia GPU에 모델을 최적화 시켜 인퍼런스 타임을 pytorch 대비 5~10배 향상 ..
모델 경량화, 가속화 관련 툴킷 및 PTQ 개념 정리개념 정리 완벽히 알진 못하여 틀린 부분이 있을 수 있습니다. 틀린 부분이 있다면 말씀 부탁드립니다. 모델 최적화 및 가속 OPenVINO 인텔에서 제공하는 딥러닝 최적화 및 하드웨어 가속화 기능을 가진 툴킷 Intel CPU 아키텍처에 모델을 최적화시켜 인퍼런스 타임을 pytorch 대비 10배 가량 향상시켜 주는 모델 최적화 방법, 누군가 실험해 본 벤치마크상 인퍼런스 타임이 1/10 정도로 감소, 모델 용량은 그대로임. Intel CPU 인퍼런스를 하는 환경이라면 OPenVINO TensorRT Nvidia GPU를 사용하는 연산을 보조하기 위한 기술, 딥러닝 모델 추론 속도를 향상시키는 모델 최적화 엔진 Nvidia GPU에 모델을 최적화 시켜 인퍼런스 타임을 pytorch 대비 5~10배 향상 ..
2023.06.24 -
DON’T DECAY THE LEARNING RATE, INCREASE THE BATCH SIZE Learning rate를 줄이지 말고, Batch size를 늘려라. 보통 학습 중 learning rate를 감소시키는 것이 일반적이다. learning rate를 고정한 대신에 학습 중에 점점 batch size를 늘려 learning rate를 늘린 것과 같은 learning curve를 얻었다. SGD, SGD with momentum, Nesterov momentum, Adam optimizer에서 성공적이었던 실험이다. batch size를 늘리면 파라미터 업데이트가 적어 학습이 빠르다. 배치사이즈를 늘리는 만큼 learning rate를 높여 학습속도를 더 높일 수 있다. 마지막으로, 모멘텀 ..
[논문 읽기] Don't Decay the Learning Rate, Increase the Batch Size / LR을 줄이지 말고, BATCH SIZE를 늘려라DON’T DECAY THE LEARNING RATE, INCREASE THE BATCH SIZE Learning rate를 줄이지 말고, Batch size를 늘려라. 보통 학습 중 learning rate를 감소시키는 것이 일반적이다. learning rate를 고정한 대신에 학습 중에 점점 batch size를 늘려 learning rate를 늘린 것과 같은 learning curve를 얻었다. SGD, SGD with momentum, Nesterov momentum, Adam optimizer에서 성공적이었던 실험이다. batch size를 늘리면 파라미터 업데이트가 적어 학습이 빠르다. 배치사이즈를 늘리는 만큼 learning rate를 높여 학습속도를 더 높일 수 있다. 마지막으로, 모멘텀 ..
2023.06.18 -
Seesaw Loss for Long-Tailed Instance Segmentation Seesaw loss는 head class와 tail class에 대해 두가지 팩터를 이용하여 gradient를 재조정한다. Cross entropy는 head class를 많이 학습할 수 밖에 없기 때문에 tail class의 예측은 거의 다 틀릴 것이고, 틀리는 만큼 tail class에 많은 페널티가 가게 된다. 이 현상은 tail class의 페널티를 줄이는 방법으로 해결할 수 있다. Seesaw loss에서는 Sij 라는 튜닝가능한 파라미터로 head class 와 tail class의 페널티를 조절하며, Sij는 mitigation, compensation factor 두 개로 구성된다. Mitigatio..
[논문 읽기] Seesaw LossSeesaw Loss for Long-Tailed Instance Segmentation Seesaw loss는 head class와 tail class에 대해 두가지 팩터를 이용하여 gradient를 재조정한다. Cross entropy는 head class를 많이 학습할 수 밖에 없기 때문에 tail class의 예측은 거의 다 틀릴 것이고, 틀리는 만큼 tail class에 많은 페널티가 가게 된다. 이 현상은 tail class의 페널티를 줄이는 방법으로 해결할 수 있다. Seesaw loss에서는 Sij 라는 튜닝가능한 파라미터로 head class 와 tail class의 페널티를 조절하며, Sij는 mitigation, compensation factor 두 개로 구성된다. Mitigatio..
2023.06.06 -
https://arxiv.org/abs/2201.03545 A ConvNet for the 2020s The "Roaring 20s" of visual recognition began with the introduction of Vision Transformers (ViTs), which quickly superseded ConvNets as the state-of-the-art image classification model. A vanilla ViT, on the other hand, faces difficulties when applied to ge arxiv.org CNN은 Sliding window를 활용하여 local, global 정보를 둘 다 가지고 가는 전략의 네트워크임. 이는 Induc..
[논문 읽기] A ConvNeXt for the 2020s - 2020년대를 위한 convolutional neural networkhttps://arxiv.org/abs/2201.03545 A ConvNet for the 2020s The "Roaring 20s" of visual recognition began with the introduction of Vision Transformers (ViTs), which quickly superseded ConvNets as the state-of-the-art image classification model. A vanilla ViT, on the other hand, faces difficulties when applied to ge arxiv.org CNN은 Sliding window를 활용하여 local, global 정보를 둘 다 가지고 가는 전략의 네트워크임. 이는 Induc..
2023.05.25 -
2023. 4. 16 기준 https://github.com/open-mmlab/mmpretrain/tree/mmcls-0.x openmmlab의 mmclassification이 mmpretrain으로 바뀐 것 같습니다. 간략히 살펴본 결과 매커니즘은 크게 바뀌지 않은 것 같으니, 일단은 dev-1.x 브랜치의 config 작성법 위주로 작성해보려고 합니다. mmcls-0.x 브랜치로도 작성할 수 있지만, dev 브랜치의 특정 기능 때문에 dev 브랜치를 사용중입니다. dev와 master 브랜치의 큰 틀은 다르지 않으니 걱정하지 않으셔도 됩니다. mmpretrain 또한 거의 구조가 같습니다. 추후에 mmpretrain도 올려보도록 하겠습니다. 저만의 편한 방법을 찾아서 쓰고 있는 방법이니, 참고자료 ..
mmclassification config 작성법2023. 4. 16 기준 https://github.com/open-mmlab/mmpretrain/tree/mmcls-0.x openmmlab의 mmclassification이 mmpretrain으로 바뀐 것 같습니다. 간략히 살펴본 결과 매커니즘은 크게 바뀌지 않은 것 같으니, 일단은 dev-1.x 브랜치의 config 작성법 위주로 작성해보려고 합니다. mmcls-0.x 브랜치로도 작성할 수 있지만, dev 브랜치의 특정 기능 때문에 dev 브랜치를 사용중입니다. dev와 master 브랜치의 큰 틀은 다르지 않으니 걱정하지 않으셔도 됩니다. mmpretrain 또한 거의 구조가 같습니다. 추후에 mmpretrain도 올려보도록 하겠습니다. 저만의 편한 방법을 찾아서 쓰고 있는 방법이니, 참고자료 ..
2023.04.16