논문 리뷰

논문 리뷰/자연어처리

P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks 리뷰

링크: https://arxiv.org/pdf/2110.07602BackgroundFull-FTNLU Task별로 pretraining 모델에 fine-tuning을 하는게 일반적인 방법하지만 각 task 별로 모델을 관리해야하기 때문에 메모리와 컴퓨팅 자원이 많이 듬PromptingPretraining 모델에 discrete prompt를 작성하여 사용함fine-tuning에 비해 아쉬운 성능Prompt Tuning Discrete prompt와 continual prompt를 결합하여 continual 부분만 학습Prompt tuning 방식은 10B 이상의 큰 모델에서만 Full-FT와 유사한 성능을 보임기존의 prompt tuning 방식은 hard sequence labeling tasks를 ..

논문 리뷰/자연어처리

P-Tuning 1: GPT Understands, Too

링크:https://arxiv.org/pdf/2103.10385 BackgroundPretrained Model Pretrained Model에게 Prompt만 입력하여 NLU task에서 효율적으로 사용 가능게다가 discrete prompt로 높은 성능을 내도록 최적화하는 것은 어려움하지만 manual discrete prompts는 변동성이 있어 하나의 단어를 바꾸는 것만으로도 성능이 크게 감소함기존 연구는 최적의 프롬프트를 serching하는데 집중하였고, instability 문제는 해결하지 못함-> 학습 가능한 continuous prompt embeddings 과 discrete prompts를 concat한 P-Tuning 제안 MethodsP-TuningM: hidden size..

논문 리뷰/자연어처리

Prefix-Tuning: Optimizing Continuous Prompts for Generation

링크:https://arxiv.org/pdf/2101.00190 BackgroundPLM큰 LM을 Pretraining하고 Full-FT은 높은 성능을 내지만 downstream task별로 많은 컴퓨팅 자원과메모리가 필요함AdapterParameter를 제거하는 연구도 있으나 Adapter의 경우 3.6%의 추가적인 파라미터 튜닝을 통해 Full-FT과 비슷한 성능을 냄In-Context learningGPT-3의 경우 아무런 Task-specific Tuning 없이 Natural language task instruction과 Few-shot example을 입력해 사용하기도 함하지만 수작업으로 프롬프트를 작성해야하며, context의 크기 한계가 있음→ NLG task에서 Full-FT 대신 가벼..

논문 리뷰/자연어처리

It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners 리뷰

링크: https://aclanthology.org/2021.naacl-main.185.pdfhttps://aclanthology.org/2021.naacl-main.185.pdf 배경용어Priming: 지피티와 같은 사전학습 언어모델에게 특정 테스크나 스타일 컨텍스트를 유도하기 위해 초밥 입력을 설계하는 기법. Priming의 구체적인 방법이 fewshot-learning, Instruction tuning 등 있음Cloze type: Q. 빨간 과일은 뭐가 있어? A. 사과 의 구조가 아닌 Q. 빨간 과일은 뭐야? A. 정답은 사과 와 같은 일정한 구조Soft-label: ‘사과’와 같은 정확하게 분류된 라벨이 아닌 (사과 0.3, 오렌지 0.1, 포도 0.6)와 같이 확률로 나타낸 라벨값GPT-3의..

논문 리뷰/강화학습

Playing Atari with Deep Reinforcement Learning 리뷰

링크: https://arxiv.org/pdf/1312.5602 간단 요약 및 목차Background강화학습과 딥러닝이 달라 접목시키가 어려움ArchitectureCNN 기반의 네트워크MethodsExperience Replay손실함수Contribution최초로 강화학습에 딥러닝을 사용Result and Conclusion7개중 6개의 게임에서 기존 방법 (Sarsa) 능가 강화학습의 기초V (상태 가치 함수), Q (행동 가치 함수), Agent (모델), action (모델이 하는 행동), r (action을 통해 받을거라고 기대되는 리워드), R (모든 action 뒤에 최종적으로 받을거라도 기대되는 리워드의 합), G (모든 action 뒤에 최종적으로 받을 실제 리워드), state (실제 환경..

논문 리뷰/자연어처리

Parameter-Efficient Transfer Learning for NLP 리뷰

링크: https://arxiv.org/abs/1902.00751 Parameter-Efficient Transfer Learning for NLPFine-tuning large pre-trained models is an effective transfer mechanism in NLP. However, in the presence of many downstream tasks, fine-tuning is parameter inefficient: an entire new model is required for every task. As an alternative, we propose transferarxiv.org간단 요약 및 목차 BackgroundLLM을 Fine-tuning하면 성능은 뛰어나지만 각..

논문 리뷰/자연어처리

ALBERT: A Lite BERT for Self-supervised Learning of Language Representations 리뷰

링크: https://arxiv.org/abs/1909.11942 ALBERT: A Lite BERT for Self-supervised Learning of Language RepresentationsIncreasing model size when pretraining natural language representations often results in improved performance on downstream tasks. However, at some point further model increases become harder due to GPU/TPU memory limitations and longer training times. Toarxiv.org 간단 요약 및 목차 Backgroun..

논문 리뷰/자연어처리

RoBERTa: A Robustly Optimized BERT Pretraining Approach 리뷰

링크: https://openreview.net/forum?id=SyxS0T4tvS RoBERTa: A Robustly Optimized BERT Pretraining ApproachWe evaluate a number of design decisions when pretraining BERT models and propose an improved recipe that achieves state-of-the-art results on many natural language understanding tasks.openreview.net 간단 요약 및 목차Background모델을 학습시키는것은 많은 자원이 드니까 정확히 어떤 학습방법이 모델의 성능을 향상시키는건지 측정하기가 어려움BERT 모델은 undert..

kyj0015
'논문 리뷰' 카테고리의 글 목록 (3 Page)