혼공단

혼공단

[혼공단 11기] 혼공머신 7주차

개념 정리 ch8 합성곱: 커널을 사용하는 층을 말한다. 입력과 출력의 크기를 같게 만들기 위해 패딩을 사용한다. 또한 패딩을 사용하면 각 피처의 값들이 일정하게 전달될 수 있다. 커널을 사용할때 차례대로 이동하는데, 이때 이동의 크기를 스트라이드라고 한다. 풀링은 합성곱 층에서 만든 특성 맵의 개수는 줄이지 않고 가로세로 크기만 줄이는 걸 말한다. 풀링과 커널은 다르다. 풀링은 가중치도 없고, 겹치지 않게 이동히며 축소시킨다. 합성곱의 스트라이드를 사용해서 특성 맵을 줄일 수도 있는데 풀링을 사용하는 이유는? 경험적으로 더 나은 성능을 내기 때문이다. ch9 순차 데이터란 순서에 의미가 있는 데이터를 말하고, 이 순차 데이터에 잘 맞는 인공 신경망 중 하나가 순환 신경망이다. 앞에서 배운 모델들은 FF..

혼공단

[혼공단 11기] 혼공머신 6주차

기본 미션 ​ Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기 ​1. 3 입력과 밀집층의 모든 뉴런이 서로 연결되고, 뉴런마다 1개의 절편이 있으니 10*100+10을 해서 1,010개의 모델 파라미터가 있다. 2. 2 이진 분류를 할때는 sigmoid함수를 사용한다. 3. 4 compile() 메서드의 losss는 손실 함수를 지정하고, metircs는 측정하는 지표를 지정한다 4. 1 타깃값이 정수인 다중 분류일때는 loss를 sparse_categorical_crossentropy로 지정한다. ​ 메모 추가 미션이나 개념 정리는 귀찮으니 생략할래요~

혼공단

[혼공단 11기] 혼공컴운 5주차

기본 미션 ​ k-평균 알고리즘 작동 방식 설명하기 ​앞에서 배운 군집 알고리즘은 각 클래스의 이미지의 평균값을 구해서 그 평균값과 가까운, 비슷한 이미지를 찾아주는 방식이다. 하지만 클래스의 갯수나 종류를 알 수 없을때에는 어떡할까? 픽셀간의 차이의 절대값의 합을 이용해서 적절한 k값(클래스의 개수)을 찾아서 비슷한 이미지끼리 묶어주는 것이었다. 이 때 처음에 랜덤하게 정하는 클러스터의 중심이 k-평균이고, k-평균 알고리즘이 만든 클러스터에 속한 샘플의 특성 평균값이 센트로이드(클러스터 중심)이다. 그리고 k값을 구하는 방법이 엘보우 방법이고, 이너셔는 클러스터 중심과 샘플 사이 거리의 제곱 합이다. 선택 미션 Ch.06(06-3) 확인 문제 풀고, 풀이 과정 정리하기 1. 2 2. 2 3. 1 개념..

혼공단

[혼공단 11기] 혼공머신 4주차

기본 미션 교차 검증을 그림으로 설명하기 교차 검증이란? 모델의 성능을 평가하기 위해서 training data로 학습시키고, test data로 성능을 평가한다. 성능 좋은 모델을 찾기 위해 최적의 파라미터를 찾아야하는데 이 파라미터를 찾기 위해서는 파라미터 값을 바꿔가면서 training data의 정확도를 확인해야 한다. 하지만 정확도를 확인하기 위해 테스트를 해도 100% 신뢰할 수 없다. 우연히 맞추기 쉬운 데이터가 뽑혔을 수도 있기 때문이다. 그래서 데이터를 일정 비율로 나눠서 차례대로 학습을 시키고 정확도를 측정한다. 예를 들어 Split1에서는 Fold2~5로 학습을 시키고 Fold1로 정확도를 측정한다. 이를 K번 반복하여서 평균 정확도를 측정하는 방법이다. 이를 통해 일반적인 정확도와 ..

혼공단

[혼공단 11기] 혼공머신 3주차

Ch.04(04-1) 2번 문제 풀고, 풀이 과정 설명하기 2. 로지스틱 회귀가 이진 분류에서 확률을 출력하기 위해 사용하는 함수는 무엇인가요? (1) 시그모이드 함수이다. 시그모이드 함수는 선형 방정식의 결과를 0과 1 사이로 만들어준다. 소프트맥스 함수는 다중 클래스 분류에서 확률의 총 합이 1이 되도록 만드는 함수이다. 로그 함수와 지수 함수는 숫자를 계산하기 쉽게 만드려고 쓰는 함수다. Ch.04(04-2) 과대적합/과소적합 손코딩 코랩 화면 캡처하기 그래프가 작아서 제대로 보이지 않지만 epoch가 100이 넘어가면 test accuracy가 조금씩 감소한다고 한다. 반면에 train accuracy는 계속 증가하니 overfitting이라 할 수 있다. 그리고 epoch 80전으로는 train..

혼공단

[혼공단 11기] 혼공머신 2주차

Ch.03(03-1) 2번 문제 출력 그래프 인증하기 n이 커질수록 모델이 단순해지는 걸 알수 있다. 그러면 왜 n이 커지면 모델이 단순해지는가? 이 모델은 k-최근접 이웃 회귀로 주변에 있는 값들을 바탕으로 예측값을 만든다. 그러면 n이 커질 수록 주변에 있는 점들을 많이 사용하게 된다. 그러면 예측값의 편차가 줄어든다. 그렇게 특정 데이터에 딱 들어맞지 않고 모델이 단순해지는 거다. 모델 파라미터에 대해 설명하기 모델 파라미터란? 가중치처럼 모델이 학습하면서 찾은 값을 말한다. 그리고 하이퍼파라미터란? 기계가 찾는 값이 아닌 사람이 설정해줘야하는 횟수를 말한다. 랜덤으로 막 정할 수도 있고, 모든 수를 넣어봐서 최적의 수를 찾을 수도 있다. 모델 클래스(linear regression)의 메서드: f..

혼공단

[혼공단 9기] 혼공컴운 회고록

회고 주제: 혼자 공부하는 시리즈에 대한 이야기, 혼공학습단 활동에 대한 이야기, 공부 습관에 대한 이야기 모두 좋습니다. 자유롭게 6주간 있었던 일을 회고해 보세요. 6주 동안 진행한 혼공단이 끝났다. 방학이라 시간이 더 빨리 간 것 같다. 혼공단은 고등학교 1학년쯤에 신청했던 적이 있다. 책 한 번 펼쳐보고 관둬서 기억도 잘 안 난다. 이번 혼공단 9기에는 행사가 겹쳐 기본 과제만 하거나, 책을 제대로 읽지도 못한 적도 있지만 어쨌든 완주해서 만족스럽다. 많은 종류의 책이 있었지만 내가 잘 모르는 컴퓨터 구조를 선택했다. 확실히 인터넷 문서로만 보는 것보다는 그림을 통한 예제가 이해하기가 쉬웠다. 컴퓨터의 작동 원리를 배우면서 보기에는 빠르고 간단하게 일어나는 일들이 복잡한 과정을 통해 이루어진다는 ..

혼공단

[혼공단 9기] 혼공컴운 6주차

기본 미션 p.400의 확인 문제 1번 풀고 인증하기​ 선택 미션 Ch.14(14-3) 프로세스가 사용할 수 있는 프레임이 3개 있고, 페이지 참조열이 '2414523423'일 때 FIFO, 최적 페이지, LRU 페이지 교체 알고리즘으로 이 페이지를 참조한다면 몇 번의 페이지 폴트가 발생하는지 풀어보기 FIFO : 4 2 3 > 4번 최적 페이지 : 2 4 3 > 2번 LRU 페이지 교체 : 4 3 2 > 4번 개념 정리 파일 할당을 할때 운영체제는 블록 단위로 파일을 관리한다. 이 때 파일을 보조기억장치에 할당하는 방법은 다음과 같다. 파일 할당 - (연속 할당, 불연속 할당 - (연결 할당, 색인 할당)) 1) 연속 할당 : 연속적인 공간에 블록을 할당 >구현이 쉬움, 외부 단편화 발생 2) 연결 할..

kyj0015
'혼공단' 태그의 글 목록