핸즈온 머신러닝
사이킷런, 케라스, 텐서플로 2를 활용한 머신러닝, 딥러닝 완벽 실무, 2판
오렐리앙 제롱 (지은이) | 한빛미디어 | 2020-05-04
정보
리뷰 (0)
스토리 (0)
카테고리
국내도서 > 컴퓨터/모바일 > 컴퓨터 공학 > 데이터베이스 개론
페이지 수
952
내가 읽는데 걸리는 시간
앱에서 이용해주세요
책소개
지능형 시스템을 구축하려면 반드시 알아야 할 머신러닝, 딥러닝 분야 핵심 개념과 이론을 이해하기 쉽게 설명한다. 사이킷런, 케라스, 텐서플로를 이용해 실전에서 바로 활용 가능한 예제로 모델을 훈련하고 신경망을 구축하는 방법을 상세하게 안내한다.
목차
1.1 머신러닝이란? 1.2 왜 머신러닝을 사용하는가? 1.3 애플리케이션 사례 1.4 머신러닝 시스템의 종류 1.5 머신러닝의 주요 도전 과제 1.6 테스트와 검증 1.7 연습문제 2.1 실제 데이터로 작업하기 2.2 큰 그림 보기 2.3 데이터 가져오기 2.4 데이터 이해를 위한 탐색과 시각화 2.5 머신러닝 알고리즘을 위한 데이터 준비 2.6 모델 선택과 훈련 2.7 모델 세부 튜닝 2.8 론칭, 모니터링, 그리고 시스템 유지 보수 2.9 직접 해보세요! 2.10 연습문제 3.1 MNIST 3.2 이진 분류기 훈련 3.3 성능 측정 3.4 다중 분류 3.5 에러 분석 3.6 다중 레이블 분류 3.7 다중 출력 분류 3.8 연습문제 4.1 선형 회귀 4.2 경사 하강법 4.3 다항 회귀 4.4 학습 곡선 4.5 규제가 있는 선형 모델 4.6 로지스틱 회귀 4.7 연습문제 5.1 선형 SVM 분류 5.2 비선형 SVM 분류 5.3 SVM 회귀 5.4 SVM 이론 5.5 연습문제 6.1 결정 트리 학습과 시각화 6.2 예측하기 6.3 클래스 확률 추정 6.4 CART 훈련 알고리즘 6.5 계산 복잡도 6.6 지니 불순도 또는 엔트로피? 6.7 규제 매개변수 6.8 회귀 6.9 불안정성 6.10 연습문제 7.1 투표 기반 분류기 7.2 배깅과 페이스팅 7.3 랜덤 패치와 랜덤 서브스페이스 7.4 랜덤 포레스트 7.5 부스팅 7.6 스태킹 7.7 연습문제 8.1 차원의 저주 8.2 차원 축소를 위한 접근 방법 8.3 PCA 8.4 커널 PCA 8.5 LLE 8.6 다른 차원 축소 기법 8.7 연습문제 9.1 군집 9.2 가우시안 혼합 9.3 연습문제 10.1 생물학적 뉴런에서 인공 뉴런까지 10.2 케라스로 다층 퍼셉트론 구현하기 10.3 신경망 하이퍼파라미터 튜닝하기 10.4 연습문제 11.1 그레이디언트 소실과 폭주 문제 11.2 사전훈련된 층 재사용하기 11.3 고속 옵티마이저 11.4 규제를 사용해 과대적합 피하기 11.5 요약 및 실용적인 가이드라인 11.6 연습문제 12.1 텐서플로 훑어보기 12.2 넘파이처럼 텐서플로 사용하기 12.3 사용자 정의 모델과 훈련 알고리즘 12.4 텐서플로 함수와 그래프 12.5 연습문제 13.1 데이터 API 13.2 TFRecord 포맷 13.3 입력 특성 전처리 13.4 TF 변환 13.5 텐서플로 데이터셋 (TFDS) 프로젝트 13.6 연습문제 14.1 시각 피질의 구조 14.2 합성곱 층 14.3 풀링 층 14.4 CNN 구조 14.5 케라스를 사용해 ResNet-34 CNN 구현하기 14.6 케라스에서 제공하는 사전훈련된 모델 사용하기 14.7 사전훈련된 모델을 사용한 전이 학습 14.8 분류와 위치 추정 14.9 객체 탐지 14.10 시맨틱 분할 14.11 연습문제 15.1 순환 뉴런과 순환 층 15.2 RNN 훈련하기 15.3 시계열 예측하기 15.4 긴 시퀀스 다루기 15.5 연습문제 16.1 Char-RNN을 사용해 셰익스피어 같은 텍스트 생성하기 16.2 감성 분석 16.3 신경망 기계 번역을 위한 인코더-디코더 네트워크 16.4 어텐션 메커니즘 16.5 언어 모델 분야의 최근 혁신 16.6 연습문제 17.1 효율적인 데이터 표현 17.2 과소완전 선형 오토인코더로 PCA 수행하기 17.3 적층 오토인코더 17.4 합성곱 오토인코더 17.5 순환 오토인코더 17.6 잡음 제거 오토인코더 17.7 희소 오토인코더 17.8 변이형 오토인코더 17.9 생성적 적대 신경망 17.10 연습문제 18.1 보상을 최적화하기 위한 학습 18.2 정책 탐색 18.3 OpenAI 짐 18.4 신경망 정책 18.5 행동 평가: 신용 할당 문제 18.6 정책 그레이디언트 18.7 마르코프 결정 과정 18.8 시간차 학습 18.9 Q-러닝 18.10 심층 Q-러닝 구현하기 18.11 심층 Q-러닝의 변종 18.12 TF-Agents 라이브러리 18.13 그 외 유명한 강화 학습 알고리즘 18.14 연습문제 19.1 텐서플로 모델 서빙 19.2 모바일 또는 임베디드 장치에 모델 배포하기 19.3 계산 속도를 높이기 위해 GPU 사용하기 19.4 다중 장치에서 모델 훈련하기 19.5 연습문제