혼공단

혼공단

[혼공단 11기] 혼공머신 7주차

개념 정리 ch8 합성곱: 커널을 사용하는 층을 말한다. 입력과 출력의 크기를 같게 만들기 위해 패딩을 사용한다. 또한 패딩을 사용하면 각 피처의 값들이 일정하게 전달될 수 있다. 커널을 사용할때 차례대로 이동하는데, 이때 이동의 크기를 스트라이드라고 한다. 풀링은 합성곱 층에서 만든 특성 맵의 개수는 줄이지 않고 가로세로 크기만 줄이는 걸 말한다. 풀링과 커널은 다르다. 풀링은 가중치도 없고, 겹치지 않게 이동히며 축소시킨다. 합성곱의 스트라이드를 사용해서 특성 맵을 줄일 수도 있는데 풀링을 사용하는 이유는? 경험적으로 더 나은 성능을 내기 때문이다. ch9 순차 데이터란 순서에 의미가 있는 데이터를 말하고, 이 순차 데이터에 잘 맞는 인공 신경망 중 하나가 순환 신경망이다. 앞에서 배운 모델들은 FF..

혼공단

[혼공단 11기] 혼공머신 6주차

기본 미션 ​ Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기 ​1. 3 입력과 밀집층의 모든 뉴런이 서로 연결되고, 뉴런마다 1개의 절편이 있으니 10*100+10을 해서 1,010개의 모델 파라미터가 있다. 2. 2 이진 분류를 할때는 sigmoid함수를 사용한다. 3. 4 compile() 메서드의 losss는 손실 함수를 지정하고, metircs는 측정하는 지표를 지정한다 4. 1 타깃값이 정수인 다중 분류일때는 loss를 sparse_categorical_crossentropy로 지정한다. ​ 메모 추가 미션이나 개념 정리는 귀찮으니 생략할래요~

혼공단

[혼공단 11기] 혼공컴운 5주차

기본 미션 ​ k-평균 알고리즘 작동 방식 설명하기 ​앞에서 배운 군집 알고리즘은 각 클래스의 이미지의 평균값을 구해서 그 평균값과 가까운, 비슷한 이미지를 찾아주는 방식이다. 하지만 클래스의 갯수나 종류를 알 수 없을때에는 어떡할까? 픽셀간의 차이의 절대값의 합을 이용해서 적절한 k값(클래스의 개수)을 찾아서 비슷한 이미지끼리 묶어주는 것이었다. 이 때 처음에 랜덤하게 정하는 클러스터의 중심이 k-평균이고, k-평균 알고리즘이 만든 클러스터에 속한 샘플의 특성 평균값이 센트로이드(클러스터 중심)이다. 그리고 k값을 구하는 방법이 엘보우 방법이고, 이너셔는 클러스터 중심과 샘플 사이 거리의 제곱 합이다. 선택 미션 Ch.06(06-3) 확인 문제 풀고, 풀이 과정 정리하기 1. 2 2. 2 3. 1 개념..

혼공단

[혼공단 11기] 혼공머신 4주차

기본 미션 교차 검증을 그림으로 설명하기 교차 검증이란? 모델의 성능을 평가하기 위해서 training data로 학습시키고, test data로 성능을 평가한다. 성능 좋은 모델을 찾기 위해 최적의 파라미터를 찾아야하는데 이 파라미터를 찾기 위해서는 파라미터 값을 바꿔가면서 training data의 정확도를 확인해야 한다. 하지만 정확도를 확인하기 위해 테스트를 해도 100% 신뢰할 수 없다. 우연히 맞추기 쉬운 데이터가 뽑혔을 수도 있기 때문이다. 그래서 데이터를 일정 비율로 나눠서 차례대로 학습을 시키고 정확도를 측정한다. 예를 들어 Split1에서는 Fold2~5로 학습을 시키고 Fold1로 정확도를 측정한다. 이를 K번 반복하여서 평균 정확도를 측정하는 방법이다. 이를 통해 일반적인 정확도와 ..

혼공단

[혼공단 11기] 혼공머신 3주차

Ch.04(04-1) 2번 문제 풀고, 풀이 과정 설명하기 2. 로지스틱 회귀가 이진 분류에서 확률을 출력하기 위해 사용하는 함수는 무엇인가요? (1) 시그모이드 함수이다. 시그모이드 함수는 선형 방정식의 결과를 0과 1 사이로 만들어준다. 소프트맥스 함수는 다중 클래스 분류에서 확률의 총 합이 1이 되도록 만드는 함수이다. 로그 함수와 지수 함수는 숫자를 계산하기 쉽게 만드려고 쓰는 함수다. Ch.04(04-2) 과대적합/과소적합 손코딩 코랩 화면 캡처하기 그래프가 작아서 제대로 보이지 않지만 epoch가 100이 넘어가면 test accuracy가 조금씩 감소한다고 한다. 반면에 train accuracy는 계속 증가하니 overfitting이라 할 수 있다. 그리고 epoch 80전으로는 train..

혼공단

[혼공단 11기] 혼공머신 2주차

Ch.03(03-1) 2번 문제 출력 그래프 인증하기 n이 커질수록 모델이 단순해지는 걸 알수 있다. 그러면 왜 n이 커지면 모델이 단순해지는가? 이 모델은 k-최근접 이웃 회귀로 주변에 있는 값들을 바탕으로 예측값을 만든다. 그러면 n이 커질 수록 주변에 있는 점들을 많이 사용하게 된다. 그러면 예측값의 편차가 줄어든다. 그렇게 특정 데이터에 딱 들어맞지 않고 모델이 단순해지는 거다. 모델 파라미터에 대해 설명하기 모델 파라미터란? 가중치처럼 모델이 학습하면서 찾은 값을 말한다. 그리고 하이퍼파라미터란? 기계가 찾는 값이 아닌 사람이 설정해줘야하는 횟수를 말한다. 랜덤으로 막 정할 수도 있고, 모든 수를 넣어봐서 최적의 수를 찾을 수도 있다. 모델 클래스(linear regression)의 메서드: f..

혼공단

[혼공단 11기] 혼공머신 1주차

코랩 실습 화면 캡처하기 Ch.02(02-1) 확인 문제 풀고, 풀이 과정 정리하기 1.1 지도 학습 2. 3 샘플링 편차 3. 2 행은 샘플을 나타내고 열은 특성을 나타낸다. 1. 구글에서 제공하는 웹 브라우저 기반의 파이썬 실행 환경은 코랩이다. 2. 코랩 노트북에서 쓸 수 있는 마크다운 중에서 다음 중 기울림 꼴로 쓰는 것은 *혼공머신* 또는 _혼공머신_이다. 3. 코랩 노트북은 구글 드라이브에서 실행된다.

혼공단

[혼공단 9기] 혼공컴운 회고록

회고 주제: 혼자 공부하는 시리즈에 대한 이야기, 혼공학습단 활동에 대한 이야기, 공부 습관에 대한 이야기 모두 좋습니다. 자유롭게 6주간 있었던 일을 회고해 보세요. 6주 동안 진행한 혼공단이 끝났다. 방학이라 시간이 더 빨리 간 것 같다. 혼공단은 고등학교 1학년쯤에 신청했던 적이 있다. 책 한 번 펼쳐보고 관둬서 기억도 잘 안 난다. 이번 혼공단 9기에는 행사가 겹쳐 기본 과제만 하거나, 책을 제대로 읽지도 못한 적도 있지만 어쨌든 완주해서 만족스럽다. 많은 종류의 책이 있었지만 내가 잘 모르는 컴퓨터 구조를 선택했다. 확실히 인터넷 문서로만 보는 것보다는 그림을 통한 예제가 이해하기가 쉬웠다. 컴퓨터의 작동 원리를 배우면서 보기에는 빠르고 간단하게 일어나는 일들이 복잡한 과정을 통해 이루어진다는 ..

kyj0015
'혼공단' 카테고리의 글 목록