위치

요일

가능
시간
(날짜)

  • 13:00 ~ 17:00 (2018-11-10)
장소 : 강남역
추가비용 : 장소 대관비용은 튜터가 전부 부담합니다.
강남역 마이캠퍼스
₩24,600원 / 시간
₩590,400 / 총 6회 24시간
유준형
Ruby
머신러닝 부트캠프
  • 강남
  • 4시간/회
  • 최대인원:8~15
  • ₩24,600/시간

튜터정보

  • 중앙대학교 수학,물리학 복수전공
저는 단순히 코드와 라이브러리의 사용법을 알려주는 강의가 아닌, 본질에 집중하는 ‘남는 강의’를 추구합니다. 데이터 사이언스 – 머신러닝 분야에서 가장 필요하고, 또 중요한 능력은 그 기저에 깔려있는 이론적인 개념들을 이해하는 것입니다. 그러나 비전공자들의 입장에서 혼자 책이나 동영상 등으로 공부하며 그러한 이론적 개념들을 정확히 이해하고 올바른 직관을 얻기란 쉽지 않은 것이 사실입니다. 저는 비전공자들이 그런 어려움을 겪지 않고 데이터 사이언스 – 머신러닝 분야에 정확히, 빠르게 입문하도록 돕는 강의자의 역할을 담당하고자 합니다. 수강생들은 본 강의를 통해 머신러닝을 활용한 데이터 분석 및 모델링에 익숙해지고, 나아가 현대 인공지능 분야를 개괄적으로 이해할 수 있게 됩니다. :)

* 같은 수업은 GRADIENT.kr에서도 확인하실 수 있습니다.

* 강의료 (머신러닝 과정과 딥러닝 과정 동시 수강시 수강료 10% 할인)
ㅇ 머신러닝 과정 (4시간, 6주) : 59만원
ㅇ 딥러닝 과정 (4시간, 4주) : 39만원

수업소개

수업에서 다루는 알고리즘들은 아래와 같습니다.

ㅇ 선형 모형 : 선형 회귀분석, 로지스틱 회귀분석, 소프트맥스 회귀분석
ㅇ 의사 결정 나무에 기반한 모형 : 배깅, 랜덤 포레스트, 경사 부스팅
ㅇ 인공 신경망

수업의 전반부에는 선형 모형들에 대해 탐구하는데 많은 시간을 할애합니다. 선형 모형은 가장 단순한 형태의 머신러닝 모형이지만 그 구조와 원리를 명확히 이해하는건 쉬운 일만은 아닙니다. 전반부에서 공부하는 내용들은 모두 라이브러리를 사용하지 않고 바닥부터 코드로 구현하는 연습 과정을 거칠거에요. 수강생들은 그러한 구현 과정을 통해 기계의 학습이 본질적으로 어떻게 이루어지는지 이해하게 됩니다. 이러한 구현을 위해 기초적인 수치해석과 최적화, 특히 경사 하강법을 비중있게 다루고, 경사 하강법의 문제를 해결하기 위한 여러 알고리즘들도 알아볼거에요.

그 다음으로는 의사 결정 나무에 기반한 여러 모형들을 배웁니다. 의사 결정 나무에 기반한 모형들을 사용하면 대부분의 정형 데이터들에 대해 쉽고 빠르게 좋은 성능을 낼 수 있기 때문에 반드시 익숙해져야만 합니다. 수강생들은 의사 결정 나무에 대해 공부하고 이를 기발한 방법으로 개선한 랜덤 포레스트 모형과 경사 부스팅에 대해 배우게 됩니다. 단순히 사용하는 것을 넘어, 의사 결정 나무에 기반한 모형들이 왜 좋은 성능을 보이는지 이론적으로 엄밀하게 분석합니다. 또 경사 부스팅이 왜 그런 이름을 가지게 되었는지, 경사 하강법과의 관계는 무엇인지 생각해 볼 거에요. 특히 경사 부스팅을 구현하기 위해 가장 널리 쓰이는 XGBoost와 같은 라이브러리를 사용하는 방법을 배우고, 여러 하이퍼 파라미터들의 역할에 대해 이해하게 됩니다.



시중 대부분의 머신러닝 강의들은 알고리즘을 가르치는 데에만 집중합니다. 그렇다면 머신러닝은 그저 알고리즘들의 집합에 불과할까요? 개별적인 알고리즘들이 각론(各論)에 해당한다면 총론(總論)에 해당하는 키워드는 ‘일반화’입니다. 따라서 일반화의 성질을 자세히 탐구해야 할 필요가 있습니다. 일반화에 대해 이해하기 위해, 우리는 통계적 학습 이론이라는 분야의 중요한 결과들에 대해 이해해 볼 거에요. 수강생들은 ‘일반화의 오류’라고 부르는 오류가 왜 발생하고 어떻게 이루어졌는지, 그것을 효과적으로 추정하는 방법은 무엇인지 공부하게 됩니다. 일반화의 오류에 대해 확실히 이해하는 것은 현실적인 문제와 직결됩니다. 오류가 왜, 얼마나 생기는지 확실히 이해해야 정확하고 안전하게 머신러닝을 사용할 수 있고, 효율적이고 빠르게 알고리즘을 선택할 수 있기 때문입니다.

수강생들은 이를 응용하여 가장 성능이 좋은 머신러닝 모형을 선택하고 평가하는 과정을 연습해 봅니다. 가령 랜덤 포레스트와 인공신경망 중 어떤 모형을 사용해야 하는가? 인공신경망을 사용한다면 뉴런이 얼마나 있는 인공신경망을 사용해야 하는가? 과 같은 상황에서, 무엇을 기준으로 어떻게 선택하는 것이 정확하고 올바른 방법인지 알아봅니다. 이러한 선택 과정을 연습해 볼 수 있도록 다양한 분야의 데이터들을 다루어 보는 실습 과제들이 주어집니다. 정확하고 효율적인 튜닝을 위한 현실적인 노하우들을 전달합니다.



머신러닝 입문반의 정체성, 즉 첫 번째 목표는 머신러닝의 원리를 철저하게 이해하는 것이고, 그 다음 목표는 그렇게 공부한 내용들을 실제로 구현하는 능력을 기르는 것입니다. 그러나 그것만으로 현실의 데이터에 바로 머신러닝을 적용하기에는 어려운 경우가 많습니다. 실제 대회에서 수상 경력이 있는 강사과 함께, Kaggle의 데이터를 이용해 현실 세계의 데이터들에 머신러닝을 적용하기 위한 다음과 같은 방법론들에 대해 공부해 볼 거에요.

ㅇ 데이터 전처리, 결측치, 이상치 처리.
ㅇ 탐색적 데이터 분석 (EDA)
ㅇ Feature Engineering

머신러닝 모형의 성능을 보장하기 위해서는 현실의 지저분하고 정제되어 있지 않은 데이터들을 정제해야 할 필요가 있습니다. 실제로 이런 지저분한 데이터를 정제해야 하는 경우가 대부분인데 이 때 필요한, 흔히 데이터 전처리라 부르는 테크닉에 대해서도 연습할 겁니다. 결측치와 이상치를 처리하기 위해 현실적으로 선택할 수 있는 몇 가지 테크닉에 대해서도 알아볼 겁니다. 또한 데이터에 내재된 구조를 시각적으로, 수치적으로 확인하는 방법론, 소위 탐색적 데이터 분석 (EDA)이라 부르는 작업을 수행해 볼 거에요.

-= 딥러닝 과정 =-

딥러닝 과정에서 다루는 모형들은 아래와 같습니다.

ㅇ 다층 퍼셉트론 (Multi-layer Perceptron)
ㅇ 합성곱 신경망 (Convolutional Neural Network) : 그리드 형태의 데이터를 다루기 위해
ㅇ 순환 신경망 (Recurrent Neural Network) : 시계열성이 있는 데이터를 다루기 위해
ㅇ 자기부호화기 (Autoencoder) : 데이터를 압축하기 위해, 표현을 추출하기 위해
ㅇ 적대적 생성 신경망 (Generative Adversarial Network) : 새로운 데이터를 얻기 위해

이후 효율적인 경사 하강법의 적용을 위한 역전파 알고리즘을 비롯하여 초기화, 드롭아웃, 배치 정규화 등 신경망의 효과적인 학습을 위한 여러 주제들에 대해 다룹니다. 이후 많은 딥 러닝 구조 중 가장 널리 쓰이는 합성곱 신경망(CNN), 순환 신경망(RNN), 자기부호화기(AE), 적대적 생성 신경망(GAN)에 대해 다룹니다. CNN의 경우 VGGNet, Inception, ResNet 등 성공적인 구조들과 R-CNN, YOLO 등 객체 탐지 알고리즘들을 비롯한 흥미로운 현대 영상 인식 기법들에 대해 배웁니다. RNN의 경우 GRU와 LSTM과 같은 기초적인 모듈들에 대해 배우고, 자연어 처리 기법들에 대해 간략히 다룹니다. 이후 (Variational) AE, GAN과 같은 생성 모델들과 그 변종들에 대해 배우게 됩니다.

수업대상

  • ㅇ 머신러닝 및 데이터 분석 공부를 진지하게 시작해보고 싶은 분들께 추천드립니다.

커리큘럼

1회차

ㅇ 데이터 분석 입문

R 프로그래밍 입문, 데이터 분석 실습, 기초 통계/수학, 경사 하강법

2회차

ㅇ 머신러닝의 정의와 선형 회귀

‘학습’의 정의, 경험적 위험 최소화, 가설 공간, 경사 하강법, 계산 그래프, 학습 곡선

3회차

ㅇ 분류와 신경망 기초

로지스틱 회귀, 소프트맥스 회귀, 베이지안 통계, 최대 우도 추정법, 신경망

4회차

ㅇ 일반화

일반화의 오류, VC 부등식, 과적합, 편향-분산 절충, 교차 검증법, 변수 선택, 제약화

5회차

ㅇ 의사결정나무와 앙상블

의사결정나무, 배깅, 랜덤 포레스트, 부스팅, XGBoost, 스태킹, 앙상블의 후처리

6회차

ㅇ 모델링 실습

Kaggle 경진대회, 탐색적 데이터 분석, 데이터 전처리, Feature Engineering


[+ 딥러닝 과정]

ㅇ [7회차] 신경망의 학습

역전파 알고리즘, 신경망 학습의 어려움과 해결법, tensorflow/keras

ㅇ [8회차] 합성곱 신경망 (CNN)

CNN 구조의 발전 과정, 객체 탐지, 의미론적 분할 (Semantic Segmentation)

ㅇ [9회차] 순환 신경망

LSTM, GRU, 자연어 처리 (Natural Language Processing), 이미지 주석 (Image Captioning)

ㅇ [10회차] 생성 모형 및 강화학습

자기부호화기 ((Variational) Autoencoder), 적대적 생성 신경망 (Generative Adversarial Network), 강화학습 개론

리뷰(25)

리뷰쓰기
4.9
  • 커리큘럼
  • 전달력
  • 준비성
  • 친절도
  • 시간준수

실시간톡

실시간 톡하기

위치

지도가 들어갑니다.