전체 글

논문 리뷰/강화학습

Playing Atari with Deep Reinforcement Learning 리뷰

링크: https://arxiv.org/pdf/1312.5602 간단 요약 및 목차Background강화학습과 딥러닝이 달라 접목시키가 어려움ArchitectureCNN 기반의 네트워크MethodsExperience Replay손실함수Contribution최초로 강화학습에 딥러닝을 사용Result and Conclusion7개중 6개의 게임에서 기존 방법 (Sarsa) 능가 강화학습의 기초V (상태 가치 함수), Q (행동 가치 함수), Agent (모델), action (모델이 하는 행동), r (action을 통해 받을거라고 기대되는 리워드), R (모든 action 뒤에 최종적으로 받을거라도 기대되는 리워드의 합), G (모든 action 뒤에 최종적으로 받을 실제 리워드), state (실제 환경..

논문 리뷰/자연어처리

Parameter-Efficient Transfer Learning for NLP 리뷰

링크: https://arxiv.org/abs/1902.00751 Parameter-Efficient Transfer Learning for NLPFine-tuning large pre-trained models is an effective transfer mechanism in NLP. However, in the presence of many downstream tasks, fine-tuning is parameter inefficient: an entire new model is required for every task. As an alternative, we propose transferarxiv.org간단 요약 및 목차 BackgroundLLM을 Fine-tuning하면 성능은 뛰어나지만 각..

논문 리뷰/자연어처리

ALBERT: A Lite BERT for Self-supervised Learning of Language Representations 리뷰

링크: https://arxiv.org/abs/1909.11942 ALBERT: A Lite BERT for Self-supervised Learning of Language RepresentationsIncreasing model size when pretraining natural language representations often results in improved performance on downstream tasks. However, at some point further model increases become harder due to GPU/TPU memory limitations and longer training times. Toarxiv.org 간단 요약 및 목차 Backgroun..

논문 리뷰/자연어처리

RoBERTa: A Robustly Optimized BERT Pretraining Approach 리뷰

링크: https://openreview.net/forum?id=SyxS0T4tvS RoBERTa: A Robustly Optimized BERT Pretraining ApproachWe evaluate a number of design decisions when pretraining BERT models and propose an improved recipe that achieves state-of-the-art results on many natural language understanding tasks.openreview.net 간단 요약 및 목차Background모델을 학습시키는것은 많은 자원이 드니까 정확히 어떤 학습방법이 모델의 성능을 향상시키는건지 측정하기가 어려움BERT 모델은 undert..

논문 리뷰

논문 기록

약 1년동안 학부연구생으로 공부하면서 많은 일이 있었다. 많이 배우고 일하고 공부하고 괜찮았으나 최근 건강 문제로 일을 쉬게되면서 개인 공부에 집중하게 되었다. 하지만 오히려 일을 시키거나 공부를 감시하는 사람이 없다보니 게을러지고 시간을 낭비하게 되는 것 같아 논문을 읽으며 기록해보고자 한다. 세상 모든 논문을 읽으려고 하면 부담스러워서 안 읽게 된다. 그냥 관심 있는거, 재밌어 보이는거, 연구실에서 읽는 논문과 관련된 논문. 등 가볍게 한 개만 더 한 개만 더... 하면서 읽어볼 생각이다. 2025-04-25 시작논문 제목주요 내용읽은 이유읽은 날짜BERT: Pre-training of Deep Bidirectional Transformers for Language Understandingtransf..

혼공단

[혼공단 11기] 혼공머신 7주차

개념 정리 ch8 합성곱: 커널을 사용하는 층을 말한다. 입력과 출력의 크기를 같게 만들기 위해 패딩을 사용한다. 또한 패딩을 사용하면 각 피처의 값들이 일정하게 전달될 수 있다. 커널을 사용할때 차례대로 이동하는데, 이때 이동의 크기를 스트라이드라고 한다. 풀링은 합성곱 층에서 만든 특성 맵의 개수는 줄이지 않고 가로세로 크기만 줄이는 걸 말한다. 풀링과 커널은 다르다. 풀링은 가중치도 없고, 겹치지 않게 이동히며 축소시킨다. 합성곱의 스트라이드를 사용해서 특성 맵을 줄일 수도 있는데 풀링을 사용하는 이유는? 경험적으로 더 나은 성능을 내기 때문이다. ch9 순차 데이터란 순서에 의미가 있는 데이터를 말하고, 이 순차 데이터에 잘 맞는 인공 신경망 중 하나가 순환 신경망이다. 앞에서 배운 모델들은 FF..

혼공단

[혼공단 11기] 혼공머신 6주차

기본 미션 ​ Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기 ​1. 3 입력과 밀집층의 모든 뉴런이 서로 연결되고, 뉴런마다 1개의 절편이 있으니 10*100+10을 해서 1,010개의 모델 파라미터가 있다. 2. 2 이진 분류를 할때는 sigmoid함수를 사용한다. 3. 4 compile() 메서드의 losss는 손실 함수를 지정하고, metircs는 측정하는 지표를 지정한다 4. 1 타깃값이 정수인 다중 분류일때는 loss를 sparse_categorical_crossentropy로 지정한다. ​ 메모 추가 미션이나 개념 정리는 귀찮으니 생략할래요~

혼공단

[혼공단 11기] 혼공컴운 5주차

기본 미션 ​ k-평균 알고리즘 작동 방식 설명하기 ​앞에서 배운 군집 알고리즘은 각 클래스의 이미지의 평균값을 구해서 그 평균값과 가까운, 비슷한 이미지를 찾아주는 방식이다. 하지만 클래스의 갯수나 종류를 알 수 없을때에는 어떡할까? 픽셀간의 차이의 절대값의 합을 이용해서 적절한 k값(클래스의 개수)을 찾아서 비슷한 이미지끼리 묶어주는 것이었다. 이 때 처음에 랜덤하게 정하는 클러스터의 중심이 k-평균이고, k-평균 알고리즘이 만든 클러스터에 속한 샘플의 특성 평균값이 센트로이드(클러스터 중심)이다. 그리고 k값을 구하는 방법이 엘보우 방법이고, 이너셔는 클러스터 중심과 샘플 사이 거리의 제곱 합이다. 선택 미션 Ch.06(06-3) 확인 문제 풀고, 풀이 과정 정리하기 1. 2 2. 2 3. 1 개념..

kyj0015
기록용 블로그