본문 바로가기

분류 전체보기150

반응형
[딥러닝 논문 리뷰] ImageNET-Trained CNNS Are Biased Towards Texture; Increasing Shape Bias Improves Accuracy And Robustness 이번에 리뷰할 논문은 ImageNET-Trained CNNS Are Biased Towards Texture; Increasing Shape Bias Improves Accuracy And Robustness 이라는 논문으로 ICLR2019에 oral 발표로 accept된 논문입니다. ICRL2019에 accept된 논문 500편 중에 20여편정도가 oral인걸 감안한다면, 매우 좋은 점수를 받은것을 알 수 있죠. 논문을 읽어보면 아시겠지만, 수식이 거의 없고 직관적으로 설명이 잘 되어 있습니다. 이 논문이 oral로 accept된 이유는 (제생각) 기존의 CNN을 바라보는 관점을 깨뜨린 점과 다양한 실험으로 본인들의 가설을 증명하려고 노력한 점 때문이 아닐까 싶습니다. 이 논문의 핵심은 다음 이미지 한.. 2022. 12. 10.
[강화학습 논문 리뷰] Exploration by Random Network Distillation 이번에 포스팅 할 논문은 Exploration by Random Network Distillation이라는 논문입니다. OpenAI에서 2018년 10월에 발표한 논문이고 제목에서 알수 있듯이 exploration에 관한 논문입니다. 매우 간단한 아이디어에서 시작된 논문이지만 (사실 처음에 직관적으로 잘 이해가 되지 않았습니다), 성능은 매우 띄어 납니다. (연구실 프로젝트에도 적용해보았는데, 효과가 꽤 좋습니다) Reward가 sparse한 환경으로 많이 실험하는 Atari-Montezuma에서 SOTA를 기록했고 최초로 인간성능을 뛰어 넘었습니다. 여태까지 매우 많은 강화학습 알고리즘이 나왔지만 이 Montezuma에서는 인간의 성능을 뛰어 넘지 못했었죠. 그런데 드디어 최초로 인간성능을 뛰어넘는 알.. 2022. 12. 10.
[강화학습 논문 리뷰] Self-Imitation Learning 이번에 포스팅 할 논문은 Self-Imitation Learning이라는 논문으로, ICML 2018에 나온 논문입니다. 이 논문의 컨셉은 agent의 과거 경험중에 좋은 decision을 내린 경험을 학습시키자 라는 것이고, 이는 간접적으로 deep exploration으로 이끌 수 있다라고 주장하고 있습니다. Introduction exploration과 exploitation의 trade off는 강화학습의 주 challenges 중 하나입니다. Exploit은 reward를 maximize하기 위해 필요하고 explore는 더 좋은 policy를 찾기 위해 필요합니다. 본 논문에서는 agent의 과거 경험을 활용하여 RL의 성능을 높일수 있을지에 대해 다룹니다. 이 논문의 main contribu.. 2022. 12. 10.
[강화학습 논문 리뷰] Curiosity-driven Exploration by Self-supervised Prediction 이번에 포스팅할 논문은 "Curiosity-driven Exploration by Self-supervised Prediction" 으로 2017년 5월에 arxiv에 올라온 논문 입니다. 제목에서 알 수 있듯이, 강화학습의 exploration에 관한 내용입니다. 게임과 같은 환경이 아니라 실제환경 같은 경우에는 reward가 매우 sparse합니다. 이는 이전에서 포스팅한 HDQN에서도 언급한 내용입니다. 본 논문에서는 curiosity(호기심)이 agent가 explore하는데 도움을 주며 future scenario에서 skill을 습득하는데 도움을 준다고 언급하고 있습니다. (curiosity라는 개념은 e-greedy와 같은 일종의 exploration하기 위한 알고리즘이라고 보시면 될 것 같.. 2022. 12. 10.
[딥러닝 논문 리뷰] Understanding Deep Learning Requires Rethinking Generalization2 저번 포스트에서 이어서.. 저자들이 주로 이야기하고 있는 것은 앞전 포스트에서 서술 하였듯이, NN가 학습데이터에 대해서 일반화하는 것이 아니라 외우는 것이다. Generalization에 대해서 다시 생각해볼 필요가 있다는 것이였습니다. Drop-out, BN 등 generalization에 도움이 되는 테크닉을 써도 잘 외운다라는 것을 보였습니다. 이어서 저자들은, NN의 expressivity에(표현성) 대해서 이야기하고 있습니다. NN의 expressivity에 대한 연구는 사전에 많이 진행되어 왔는데, 대부분 "population level"에 대한 연구입니다. 좀더 효율적인 것은 우리가 가지고 있는 도메인 데이터 n에 대해서 NN가 어느정도의 expressive power가 있는지 아는 것일 .. 2022. 12. 10.
[딥러닝 논문 리뷰] Understanding Deep Learning Requires Rethinking Generalization 이번에 포스팅 할 논문은 "Understanding Deep Learning Requires Rethinking Generalization"으로서 2017 CVPR에서 Best paper로 선정된 논문입니다. 제목에서 알수 있듯이, 기존의 딥러닝에 관한 관점에 대해 의문을 제기하는 논문입니다. 이 논문에 대해 알아보기 앞서 한편의 논문을 살짝 리뷰하고 가도록 하겠습니다. "Deep Neural Network are Easily Fooled:" High Confidence Predictions for Unrecognizable Images 2015년 CVPR에 올라온 논문이고, 이번에 포스팅하고자 하는 논문의 느낌(?)과 비슷한 것 같아서 간단하게만 리뷰해보도록 하겠습니다. 아래 사진을 보시면 인간이 봤을.. 2022. 12. 10.
[GAN 논문 리뷰] RadialGAN 이번에 포스팅할 논문은 RadialGAN (Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks) 입니다. 제목에서 알수 있듯이 predictive model (classifier)의 성능을 높이기 위한 GAN으로 2018ICML에 나온 논문입니다. 사실 GAN을 이용해서 데이터를 더 생성 해서 classifer의 성능을 높일 수 있을까라는 의문은 많은 사람들이 가지고 있던 의문이였습니다. GAN의 성능을 높일 수 있는 알고리즘들은 계속 발전해왔지만 이런 task에 대해서 연구가 활발히 진행되어 오지는 않았습니다. 본 논문에서는 여러 도메인(비슷한)에서 특정 .. 2022. 12. 10.
GAN (Generative Adversarial Networks) 기본 개념과 학습 원리 GANs(Generative Adversarial Networks)는 Ian Goodfellow가 처음으로 제안한 genative model로서 최근 3년사이에 origianl GAN에서 발전된 다양한 GAN들이 나왔습니다. (Conditional GAN, InfoGAN, f-GAN, Wessterian GAN, DCGAN, BEGAN, Cycle GAN, DiscoGAN, EBGAN 등등.....) 한국어로 된 GAN자료는 유재준님 블로그(http://jaejunyoo.blogspot.com/2017/01/generative-adversarial-nets-1.html)에 개념적인 설명과 수식적인 설명이 모두 잘 되어 있습니다. 거기에 더불어 제가 GAN을 공부하고 R로 구현하면서 궁금했던 점을 중점적으.. 2022. 12. 10.