분류 전체보기
-
Status 확인 # python print(matplotlib.matplotlib_fname()) # matplotlib 설치된곳 print(matplotlib.get_cachedir()) # 캐시폴더 나눔 글꼴 apt로 설치 apt-get install fonts-nanum* fc-cache -fv matplotlib에 글꼴 추가 cp /usr/share/fonts/truetype/nanum/Nanum* /첫번째에서_matplotlib설치된곳/mpl-data/fonts/ttf/ rm -rf /첫번째에서_캐시폴더/* 위처럼 해봤지만 안되는 경우 # 파이썬 켜고 아래 명령어 출력에서 Nanum 글꼴이 포함되어 있어야함. >> print([f.fname for f in matplotlib.font_mana..
matplotlib에서 한글 깨짐 해결방법 (ubuntu)Status 확인 # python print(matplotlib.matplotlib_fname()) # matplotlib 설치된곳 print(matplotlib.get_cachedir()) # 캐시폴더 나눔 글꼴 apt로 설치 apt-get install fonts-nanum* fc-cache -fv matplotlib에 글꼴 추가 cp /usr/share/fonts/truetype/nanum/Nanum* /첫번째에서_matplotlib설치된곳/mpl-data/fonts/ttf/ rm -rf /첫번째에서_캐시폴더/* 위처럼 해봤지만 안되는 경우 # 파이썬 켜고 아래 명령어 출력에서 Nanum 글꼴이 포함되어 있어야함. >> print([f.fname for f in matplotlib.font_mana..
2024.01.04 -
https://github.com/microsoft/RegionCLIP
[논문 읽기] RegionCLIP: Region-based Language-Image Pretraininghttps://github.com/microsoft/RegionCLIP
2023.12.27 -
Pytorch로 학습을 하다가 OSError: Truncated File Read 라는 에러를 마주했다. 이 에러는 Pillow로 손상된 이미지를 읽었을 때 발생한다. 아마 현재 코드가 pillow를 쓰고 있을 것이다. 데이터가 너무 많아서 뭐가 문제인지 몰라 이미지를 하나하나 다 읽어봐야 했다. 데이터가 몇십, 몇백만장 된다면 ray나 multiprocessing을 추천한다. 이미지를 다 읽어보고 이상한 데이터를 찾아내 이미지를 열어보니 아래와 같이 손상이 된 이미지였다. 역시 무작정 데이터셋을 신뢰하는건 나의 삽질에 큰 도움이 된다. 아래 함수를 잘 적용하면 손상된 이미지를 찾는데에 도움이 될 것이다. 이미지 경로를 glob으로 죄다 긁어서 함수에 넣어주면 된다. def truncated_check(..
OSError: Truncated File ReadPytorch로 학습을 하다가 OSError: Truncated File Read 라는 에러를 마주했다. 이 에러는 Pillow로 손상된 이미지를 읽었을 때 발생한다. 아마 현재 코드가 pillow를 쓰고 있을 것이다. 데이터가 너무 많아서 뭐가 문제인지 몰라 이미지를 하나하나 다 읽어봐야 했다. 데이터가 몇십, 몇백만장 된다면 ray나 multiprocessing을 추천한다. 이미지를 다 읽어보고 이상한 데이터를 찾아내 이미지를 열어보니 아래와 같이 손상이 된 이미지였다. 역시 무작정 데이터셋을 신뢰하는건 나의 삽질에 큰 도움이 된다. 아래 함수를 잘 적용하면 손상된 이미지를 찾는데에 도움이 될 것이다. 이미지 경로를 glob으로 죄다 긁어서 함수에 넣어주면 된다. def truncated_check(..
2023.12.06 -
https://arxiv.org/pdf/2103.00020.pdf CLIP 모델은 contrastive representation learning을 4억여개의 이미지와 텍스트 쌍으로 사전학습을 진행한 모델이다. 배치는 32,768을 사용하였으며 배치가 클수록 의미가 가까운 이미지-텍스트와 의미가 먼 이미지-텍스트를 더 잘 학습할 수 있다고 한다. 이미지와 텍스트를 인코딩하여 contrastive learning을 통해 embedding space에서 벡터간의 거리를 계산하는 방식으로 같은 의미의 이미지-텍스트의 표현을 유사하게 하고, 다른 의미의 이미지-텍스트는 표현을 다르게 만들도록 유도한다. 사전 훈련 모델로 다양한 downstream task에 적용할 수 있다. 기존의 문제와 CLIP이 해결한 방법..
[논문 읽기] CLIP (Learning Transferable Visual Models From Natural Language Supervision)https://arxiv.org/pdf/2103.00020.pdf CLIP 모델은 contrastive representation learning을 4억여개의 이미지와 텍스트 쌍으로 사전학습을 진행한 모델이다. 배치는 32,768을 사용하였으며 배치가 클수록 의미가 가까운 이미지-텍스트와 의미가 먼 이미지-텍스트를 더 잘 학습할 수 있다고 한다. 이미지와 텍스트를 인코딩하여 contrastive learning을 통해 embedding space에서 벡터간의 거리를 계산하는 방식으로 같은 의미의 이미지-텍스트의 표현을 유사하게 하고, 다른 의미의 이미지-텍스트는 표현을 다르게 만들도록 유도한다. 사전 훈련 모델로 다양한 downstream task에 적용할 수 있다. 기존의 문제와 CLIP이 해결한 방법..
2023.11.28 -
https://arxiv.org/pdf/2304.06790.pdf Segment-Anything 모델과 Stable Diffusion을 붙여 Inpaint Anything이라는 것을 만든 아이디어다. 모델을 붙이는 과정에서 segmentation mask를 조금 수정해주는 것 말고는 큰 작업이 없다. 요즘은 Large model을 붙이는 것 만으로도 논문을 쓰나보다. 모델을 직접 만들고 구조를 고치고 뚝딱뚝딱 하는 것에서 LLM 등장 이후 조금 패러다임이 옮겨가는 듯한 느낌이 든다. LLM 연구가 어려운 소상공인 입장에서는 조금 새로운 유형의 논문이었다. 아이디어라는 것은 정해진 것이 없으니 이런 생각도 충분히 아이디어가 될 수 있다고 생각한다. 그러나 정량적인 성능 측정이 어려운 것도 알겠지만 몇 개 ..
[논문 읽기] Inpaint Anything: Segment Anything Meets Image Inpaintinghttps://arxiv.org/pdf/2304.06790.pdf Segment-Anything 모델과 Stable Diffusion을 붙여 Inpaint Anything이라는 것을 만든 아이디어다. 모델을 붙이는 과정에서 segmentation mask를 조금 수정해주는 것 말고는 큰 작업이 없다. 요즘은 Large model을 붙이는 것 만으로도 논문을 쓰나보다. 모델을 직접 만들고 구조를 고치고 뚝딱뚝딱 하는 것에서 LLM 등장 이후 조금 패러다임이 옮겨가는 듯한 느낌이 든다. LLM 연구가 어려운 소상공인 입장에서는 조금 새로운 유형의 논문이었다. 아이디어라는 것은 정해진 것이 없으니 이런 생각도 충분히 아이디어가 될 수 있다고 생각한다. 그러나 정량적인 성능 측정이 어려운 것도 알겠지만 몇 개 ..
2023.11.13 -
간단하게 요약하면 ResNet의 shortcut block에 ConvRNN을 붙여 사용하는 형태인 것 같습니다. 논문에서 말하는 시공간 정보라는 것이 조금 추상적인 표현이라 100% 와닿지는 않았습니다. 하지만 Feature visualization으로 기존 ResNet보다 더 많은 정보를 가진 feature를 얻을 수 있는 부분은 좋은 아이디어 같습니다. 시공간이라는 표현을 쓴 것은 sequence classification이 가능한 RNN을 적용해보기 위해 쓴 표현일까? 라는 생각이 들었습니다. abstract Resnet은 다양한 computer vision task에서 놀라운 성공을 이루었다. 하지만 shortcut connection 구조는 잠재적이고 보완적인 특징을 재탐색하는 능력을 제한한다...
[논문 읽기] RegNet: Self-Regulated Network for Image Classification간단하게 요약하면 ResNet의 shortcut block에 ConvRNN을 붙여 사용하는 형태인 것 같습니다. 논문에서 말하는 시공간 정보라는 것이 조금 추상적인 표현이라 100% 와닿지는 않았습니다. 하지만 Feature visualization으로 기존 ResNet보다 더 많은 정보를 가진 feature를 얻을 수 있는 부분은 좋은 아이디어 같습니다. 시공간이라는 표현을 쓴 것은 sequence classification이 가능한 RNN을 적용해보기 위해 쓴 표현일까? 라는 생각이 들었습니다. abstract Resnet은 다양한 computer vision task에서 놀라운 성공을 이루었다. 하지만 shortcut connection 구조는 잠재적이고 보완적인 특징을 재탐색하는 능력을 제한한다...
2023.10.27