AI
-
MobileNet link : https://arxiv.org/pdf/1704.04861.pdf Introduce & Prior Work 이전 연구들은 대부분 네트워크를 작게 만드는 것을 위주로 연구를 하였다. 이 논문은 efiiciency 관점에서 연구하였다. 이 논문에서는 효과적인 네트워크 구조와 2개의 하이퍼파라미터로 latency가 매우 낮고 효율적인 mobile을 위한 모델을 만든다. MobileNet Architecture depthwise structure 기반으로 한다. → standard convolution에서 depthwize convolution이랑 1x1 convolution 으로 factorize한 컨볼루션 depthwise separable convolution은 1) filt..
MobileNet 논문 요약MobileNet link : https://arxiv.org/pdf/1704.04861.pdf Introduce & Prior Work 이전 연구들은 대부분 네트워크를 작게 만드는 것을 위주로 연구를 하였다. 이 논문은 efiiciency 관점에서 연구하였다. 이 논문에서는 효과적인 네트워크 구조와 2개의 하이퍼파라미터로 latency가 매우 낮고 효율적인 mobile을 위한 모델을 만든다. MobileNet Architecture depthwise structure 기반으로 한다. → standard convolution에서 depthwize convolution이랑 1x1 convolution 으로 factorize한 컨볼루션 depthwise separable convolution은 1) filt..
2023.12.23 -
ResNet Link : https://arxiv.org/pdf/1512.03385.pdf Abstract 깊은 뉴럴 네트워크를 residual 프레임워크로 더 쉽게 학습시키는 것을 보여준다. 이 residual 네트워크들이 최적화하기 쉬우며 깊이가 증가해도 정확성이 있다는 것을 보여준다. 깊은 residual 네트워크고 많은 이미지 대회에서 상을 받았다. 1. Introduction 최근 네트워크의 깊이가 상당히 중요하다는 것이 입증되었으며, ImageNet에서 좋은 성적을 거둔 모델들도 16 ~ 30층까지 있는 "very deep"모델들이었다. 과연 레이어가 많이 쌓일수록 잘 학습하기 더 쉬울까? 여기서 처음부터 수렴을 방해하는 vanishing/exploding gradients문제가 있다. 그러나..
ResNet 논문 요약ResNet Link : https://arxiv.org/pdf/1512.03385.pdf Abstract 깊은 뉴럴 네트워크를 residual 프레임워크로 더 쉽게 학습시키는 것을 보여준다. 이 residual 네트워크들이 최적화하기 쉬우며 깊이가 증가해도 정확성이 있다는 것을 보여준다. 깊은 residual 네트워크고 많은 이미지 대회에서 상을 받았다. 1. Introduction 최근 네트워크의 깊이가 상당히 중요하다는 것이 입증되었으며, ImageNet에서 좋은 성적을 거둔 모델들도 16 ~ 30층까지 있는 "very deep"모델들이었다. 과연 레이어가 많이 쌓일수록 잘 학습하기 더 쉬울까? 여기서 처음부터 수렴을 방해하는 vanishing/exploding gradients문제가 있다. 그러나..
2023.12.23 -
VGGNet Abstract (3 X 3)매우 작은 컨볼루션 필터를 가지고 depth를 16 - 19 가중치 레이어까지 밀어내면서 점점 증가시켰더니 기존보다 성능이 증가하였다. 목적 : 네트워크 깊이가 대규모 이미지 인식 정확도에 어떤 영향을 받는지 Introduction ConvNets가 컴퓨터 비전 분야에서 의미가 커지고 있다. ConvNets 성능을 높이기 위한 다양한 연구들이 있지만, 여기서는 depth를 다뤘다. ILSVRC classification and localization에서 높은 정확도를 가졌으며, 파인튜닝 없이 심플한 파이프라인에서도 좋은 성능을 가진다. 그리고 다른 이미지 데이터 셋에서도 적용이 가능하다. ConvNet Configurations 먼저 ConvNet의 전형적인 레이..
VGGNET 논문 요약VGGNet Abstract (3 X 3)매우 작은 컨볼루션 필터를 가지고 depth를 16 - 19 가중치 레이어까지 밀어내면서 점점 증가시켰더니 기존보다 성능이 증가하였다. 목적 : 네트워크 깊이가 대규모 이미지 인식 정확도에 어떤 영향을 받는지 Introduction ConvNets가 컴퓨터 비전 분야에서 의미가 커지고 있다. ConvNets 성능을 높이기 위한 다양한 연구들이 있지만, 여기서는 depth를 다뤘다. ILSVRC classification and localization에서 높은 정확도를 가졌으며, 파인튜닝 없이 심플한 파이프라인에서도 좋은 성능을 가진다. 그리고 다른 이미지 데이터 셋에서도 적용이 가능하다. ConvNet Configurations 먼저 ConvNet의 전형적인 레이..
2023.12.23 -
분류 Classification 이번에는 분류와 관련된 내용들을 정리하였습니다. MNIST 분류 데이터셋으로 가장 유명한 MNIST 데이터셋을 사용하였습니다. import numpy as np from sklearn.datasets import fetch\_openml mnist = fetch\_openml('mnist\_784',version=1) X, y = mnist\["data"\], mnist\["target"\] 위의 코드를 이용하여 사용할 수 있습니다. 이진 분류 문제를 예 / 아니오 로만 구별하는 분류기가 이진 분류기입니다. SGD(확률적 경사 하강법)Classifier를 사용해보았습니다. SGD분류기는 무작위성을 가지고 있어 Stochastic이 붙었습니다. 성능 측정 교차검증 가장 먼저..
분류 (Classification) / 이진분류, 성능측정, 다중분류분류 Classification 이번에는 분류와 관련된 내용들을 정리하였습니다. MNIST 분류 데이터셋으로 가장 유명한 MNIST 데이터셋을 사용하였습니다. import numpy as np from sklearn.datasets import fetch\_openml mnist = fetch\_openml('mnist\_784',version=1) X, y = mnist\["data"\], mnist\["target"\] 위의 코드를 이용하여 사용할 수 있습니다. 이진 분류 문제를 예 / 아니오 로만 구별하는 분류기가 이진 분류기입니다. SGD(확률적 경사 하강법)Classifier를 사용해보았습니다. SGD분류기는 무작위성을 가지고 있어 Stochastic이 붙었습니다. 성능 측정 교차검증 가장 먼저..
2023.12.20