요일

가능
시간
(날짜)

  • 오전10~오후6시, 구체적 스케쥴 협의 (협의)
장소 : 협의 후 결정
추가비용 : 없음
평일 강남 및 잠실 : 판서 가능한 스터디룸이 있는 카페, 혹은 스터디카페 (2인 이상 시 개설) 주말반 : 실시간톡으로 문의 1:1 수업 또는 해당 커리큘럼 이외의 부분에 관한 문의는 실시간톡으로 부탁드립니다.
₩20,000원 / 시간
₩200,000 / 총 5회 10시간
심명보
이것저것
머신러닝을 위한 기초 수학 1달 속성코스(수포자 환영)
  • 회기, 강남, 잠실
  • 2시간/회
  • 최대인원:2~9
  • ₩20,000/시간

튜터정보

  • 경희대학교 물리학과
  • 경희대학교 물리학과
  • 텝스840
  • JLPT2급
현) 경희대 끈이론 연구실 박사과정


저는 중고등학교 때 수학을 좋아하긴 했지만 문제풀이를 게을리해 막상 시험만 보면 죽쑤던 학생이었습니다. 하지만 연습과 동기부여 된 학습의 즐거움을 알게 된 이후로 지금은 가장 수학과 연관이 깊은 이론물리를 전공하게 되었습니다.

수학은 기본적으로 논리게임입니다. 코딩은 얻고자 하는 결과를 논리연산을 통해 표현 하는 일입니다. 기본적인 수학 개념만 익혀도 큰 그림을 그림과 알고리드믹 사고에 더 익숙해질 수 있습니다.

대표적 머신러닝 라이브러리 중 하나인 텐서 플로우는 신경망 시스템의 수학적 특성을 가장 잘 표현하는 이름을 갖고 있습니다.

데이터화 하고자 하는 대상을 코드로 변환하는 것은 대상을 숫자 혹은 문자로 표현하는 것은 정보이론의 역할이며, 코드화 된 데이터들을 필요한 방식으로 조작하는 일은 바로 수학으로 표현됩니다. 이때 표현에 사용되는 수학이 선형대수이며, 텐서플로우라는 이름처럼 데이터 텐서가 각 연산 노드를 따라 흘러갑니다. 해당 과정들을 각 프로그래밍 언어로 표현하는 것이 바로 코딩입니다. 코드를 모르더라도 데이터가 어떠한 과정을 통해 흐르는지를 알면 결과를 '복잡하지 않은 경우'에 대해서 예상할 수 있습니다. 이러한 빅 픽처, 또는 전체 구조를 조망할 수 있는 안목을 기를 힘을 제가 효과적 발표 등을 위해 'TED', '데일 카네기 트레이닝', '교내 아카데믹 워크샵' 등을 통해서 배운 소통 기법들을 적용하여 여러분들께 잘 알려드리겠습니다.


A Ph.D Student in String Theory Group in KHU (Present)


I noticed some beginners feel reluctant to deal with some mathematical expressions and crucial concepts which are frequently used in Machine Learning during my practice of coding.

I'd like to share these basic math and discuss on converting "equations" to "Codes" and vice versa.

수업소개

게임처럼 규칙에 해당하는 기본적인 정의들을 바탕으로 보스 패턴 보고 레이드 전략짜듯이 어떤 방식으로 수학이 코딩에 사용되는지 알아봅니다.

수업 목표 : 기초 다지기 + 수식이건 코드건 다양한 양식의 기술/전공문서를 읽을 수 있다는 자신감 기르기.

구체적 목표의 예시1 : GAN을 제안한 Goodfellow, et al 논문에 나오는 수식들이 가진 의미 이해하기.

수포자건, 문과건 공부한 지 오래된 이과건 상관없습니다. 돈 계산 할 때 필요한 사칙연산만 할 줄 알면 개념적인 이해에는 전혀 문제없습니다.

Ian Goodfellow 외 2인이 쓴 Deep Learning Book의 파트 1을 바탕으로 다양한 자료에서 사용된 수학적 개념/테크닉들 중 중요하다고 생각되는 것들을 다루고자합니다.

대략 정리를 해보면, 선형대수, 기초 확률, 통계, 정보이론, 역전파를 위한 (다변수)미적분 정도입니다.

그리고 배운 내용들을 코드로 혹은 반대로 텐서플로우 등의 라이브러리에서 가져다 쓴 코드를 수식으로 어떻게 표현할지를 함께 토의하는 시간을 갖고자 합니다.


Goal : Make firm mathematical background for Machine Learning. Overcoming your equation-phobia.

Toward lectures like a "dummy" series. I tried to deliver you core notions as easy as possible. All you need to know for understanding main ideas is just addition, subtraction, multiplication, and division.

This lecture is mainly based on a "deep learning book" by Ian Goodfellow, et al.
Some materials are excerpted from various resources.

Contents of this Lecture-series : Linear Algebra, Basic (multi-variable) Calculus for back-propagation, Basic Probability-Statistics-Information Theory, and Some applications

수업대상

  • 코딩은 좀 하겠는데, 수식으로 쓰인 머신러닝 개발 자료를 읽는데 어려움을 겪는 사람.

    데이터 사이언스 혹은 프로그래밍과 밀접한 연관이 있는 기초 수학을 배우고 싶은 사람.

    다양한 교재에서 배운 머신러닝 코드나 테크닉을 수식으로 표현하는 법을 배우고자 하는 사람.

    This lecture series is for people who want to

    1 : Be able to coding but have difficulty or math-phobia to read developments or research papers on Machine Learning

    2 : Learn basic math for data science in 1-month

    3 : Express your own ML models in mathematical equations

커리큘럼

1회차

기본 커리큘럼 소개 및 선형대수

Deep Learning Book Part 1. Chapter 2.

- 데이터셋으로서의 텐서

- 행렬과 행렬의 연산 : Transpose, Addition and Subtraction, Broadcasting, Matrix Multiplication and Hadamard Product, Vector Inner Product

- 행렬의 종류 : Square and Rectangular Matrix, Zero-matrix, Diagonal Matrix, Identity Matrix, Symmetric Matrix

- 선형의존성 및 Span : Linear Equations, Conditions for Matrix Inversion, Span and Vector Space

- Norm : 서로 다른 텐서와 벡터를 어떻게 비교할까?

2회차

- 특별한 종류의 행렬과 벡터

- 고유값 분해 : Unique decomposition for square matrix

- 특이값 분해 : Unique decomposition for rectangular matrix

- PCA 알고리즘 : 선형대수의 중요성을 단적으로 보여주는 토이모델

3회차

기초 미적분학

- 함수의 연속성 : 함수의 극한과 연속성

- 함수의 미분 : 함수의 미분 가능성 및 미분계수, Taylor Expansion

- 함수의 적분 : 구분구적법, 다항식의 적분

- 편미분 : 다변수 함수의 미분과 그 의미

4회차

Deep Learning Book Part 1. Chapter 3.

- 확률이론 기초(Frequentist and Bayesian) : 랜덤변수, 확률분포, 기댓값, 분산, 표준편차, 공분산, 조건부 확률, 연쇄법칙, 베이즈 룰

- 자주 쓰는 확률분포함수 : Uniform distribution, Bernoulli and Multi-noulli distribution, Gaussian distribution, Dirac's delta function, Mixture distribution

5회차

Deep Learning Book Part 1. Chapter 3.

- 기초 정보이론(Classical Information Theory) : Self-information, Shannon Entropy, KL-Divergence, Graphical Representation

-옵션 1 : 빠르게 훑는 머신러닝 기초 Basics of ML

-옵션 2 : 좀 더 자세한 수치 계산

-옵션 3 : 밑바닥부터 시작하는 딥러닝 4~6장 사이의 내용을 더 자세하게


리뷰

리뷰쓰기

실시간톡

실시간 톡하기

위치

지도가 들어갑니다.