• Tutorials >
  • 파이토치(PyTorch) 튜토리얼에 오신 것을 환영합니다
Shortcuts

파이토치(PyTorch) 튜토리얼에 오신 것을 환영합니다

PyTorch가 처음이신가요?

60분 만에 끝장내기는 PyTorch를 어떻게 사용하는지 대략적으로 알아볼 수 있는 일반적인 시작점입니다. 심층신경망 모델 구성에 대한 기본적인 내용을 다룹니다.

60분 만에 끝장내기 시작

파이토치(PyTorch) 레시피

한 입 크기의, 바로 사용할 수 있는 PyTorch 코드 예제들을 확인해보세요.

레시피 찾아보기


파이토치(PyTorch)로 딥러닝하기: 60분만에 끝장내기

높은 수준에서 PyTorch의 텐서 라이브러리와 신경망을 이해합니다.

Getting-Started

예제로 배우는 파이토치(PyTorch)

튜토리얼에 포함된 예제들로 PyTorch의 기본 개념을 이해합니다.

Getting-Started

What is torch.nn really?

Use torch.nn to create and train a neural network.

Getting-Started

TensorBoard로 모델, 데이터, 학습 시각화하기

TensorBoard로 데이터 및 모델 교육을 시각화하는 방법을 배웁니다.

Interpretability,Getting-Started,Tensorboard

TorchVision 객체 검출 미세조정(Finetuning) 튜토리얼

이미 훈련된 Mask R-CNN 모델을 미세조정합니다.

Image/Video

컴퓨터 비전을 위한 전이학습(TRANSFER LEARNING) 튜토리얼

전이학습으로 이미지 분류를 위한 합성곱 신경망을 학습합니다.

Image/Video

적대적 예제 생성(Adversarial Example Generation)

가장 많이 사용되는 공격 방법 중 하나인 FGSM (Fast Gradient Sign Attack)을 이용해 MNIST 분류기를 속이는 방법을 배웁니다.

Image/Video

DCGAN Tutorial

Train a generative adversarial network (GAN) to generate new celebrities.

Image/Video

torchaudio Tutorial

Learn to load and preprocess data from a simple dataset with PyTorch's torchaudio library.

Audio

nn.Transformer 와 TorchText 로 시퀀스-투-시퀀스 모델링하기

nn.Transformer 모듈을 사용하여 어떻게 시퀀스-투-시퀀스(Seq-to-Seq) 모델을 학습하는지 배웁니다.

Text

기초부터 시작하는 NLP: 문자-단위 RNN으로 이름 생성하기

문자-단위 RNN을 사용하여 이름을 분류해봤으니, 이름을 생성하는 방법을 학습합니다. 총 3개로 이뤄진 튜토리얼 시리즈 중 두번째 편입니다.

Text

기초부터 시작하는 NLP: 시퀀스-투-시퀀스 네트워크와 어텐션을 이용한 번역

“기초부터 시작하는 NLP”의 세번째이자 마지막 편으로, NLP 모델링 작업을 위한 데이터 전처리에 사용할 자체 클래스와 함수들을 작성해보겠습니다.

Text

Text Classification with Torchtext

This is the third and final tutorial on doing “NLP From Scratch”, where we write our own classes and functions to preprocess the data to do our NLP modeling tasks.

Text

TorchText로 언어 번역하기

영어와 독어가 포함된 잘 알려진 데이터셋을 torchtext를 사용하여 전처리한 뒤, 시퀀스-투-시퀀스(Seq-to-Seq) 모델을 사용하여 학습합니다.

Text

강화 학습(DQN) 튜토리얼

PyTorch를 사용하여 OpenAI Gym의 CartPole-v0 태스크에서 DQN(Deep Q Learning) 에이전트를 학습하는 방법을 살펴봅니다.

Reinforcement-Learning

Flask를 사용하여 Python에서 PyTorch를 REST API로 배포하기

Flask를 사용하여 PyTorch 모델을 배포하고, 미리 학습된 DenseNet 121 모델을 예제로 활용하여 모델 추론(inference)을 위한 REST API를 만들어보겠습니다.

Production

TorchScript 소개

C++과 같은 고성능 환경에서 실행할 수 있도록 (nn.Module의 하위 클래스인) PyTorch 모델의 중간 표현(intermediate representation)을 제공하는 TorchScript를 소개합니다.

Production

C++에서 TorchScript 모델 로딩하기

PyTorch가 어떻게 기존의 Python 모델을 직렬화된 표현으로 변환하여 Python 의존성 없이 순수하게 C++에서 불러올 수 있는지 배웁니다.

Production

(optional) Exporting a Model from PyTorch to ONNX and Running it using ONNX Runtime

Convert a model defined in PyTorch into the ONNX format and then run it with ONNX Runtime.

Production

(prototype) Introduction to Named Tensors in PyTorch

Learn how to use PyTorch to train a Deep Q Learning (DQN) agent on the CartPole-v0 task from the OpenAI Gym.

Frontend-APIs,Named-Tensor,Best-Practice

(beta) Channels Last Memory Format in PyTorch

Get an overview of Channels Last memory format and understand how it is used to order NCHW tensors in memory preserving dimensions.

Memory-Format,Best-Practice

Using the PyTorch C++ Frontend

Walk through an end-to-end example of training a model with the C++ frontend by training a DCGAN – a kind of generative model – to generate images of MNIST digits.

Frontend-APIs,C++

Custom C++ and CUDA Extensions

Create a neural network layer with no parameters using numpy. Then use scipy to create a neural network layer that has learnable weights.

Frontend-APIs,C++,CUDA

Extending TorchScript with Custom C++ Operators

Implement a custom TorchScript operator in C++, how to build it into a shared library, how to use it in Python to define TorchScript models and lastly how to load it into a C++ application for inference workloads.

Frontend-APIs,TorchScript,C++

Extending TorchScript with Custom C++ Classes

This is a continuation of the custom operator tutorial, and introduces the API we’ve built for binding C++ classes into TorchScript and Python simultaneously.

Frontend-APIs,TorchScript,C++

Dynamic Parallelism in TorchScript

This tutorial introduces the syntax for doing *dynamic inter-op parallelism* in TorchScript.

Frontend-APIs,TorchScript,C++

Autograd in C++ Frontend

The autograd package helps build flexible and dynamic nerural netorks. In this tutorial, exploreseveral examples of doing autograd in PyTorch C++ frontend

Frontend-APIs,C++

Pruning Tutorial

Learn how to use torch.nn.utils.prune to sparsify your neural networks, and how to extend it to implement your own custom pruning technique.

Model-Optimization,Best-Practice

(beta) Dynamic Quantization on an LSTM Word Language Model

Apply dynamic quantization, the easiest form of quantization, to a LSTM-based next word prediction model.

Text,Quantization,Model-Optimization

(beta) Dynamic Quantization on BERT

Apply the dynamic quantization on a BERT (Bidirectional Embedding Representations from Transformers) model.

Text,Quantization,Model-Optimization

(beta) Static Quantization with Eager Mode in PyTorch

Learn techniques to impove a model's accuracy = post-training static quantization, per-channel quantization, and quantization-aware training.

Image/Video,Quantization,Model-Optimization

(beta) Quantized Transfer Learning for Computer Vision Tutorial

Learn techniques to impove a model's accuracy - post-training static quantization, per-channel quantization, and quantization-aware training.

Image/Video,Quantization,Model-Optimization

PyTorch Distributed Overview

Briefly go over all concepts and features in the distributed package. Use this document to find the distributed training technology that can best serve your application.

Parallel-and-Distributed-Training

Single-Machine Model Parallel Best Practices

Learn how to implement model parallel, a distributed training technique which splits a single model onto different GPUs, rather than replicating the entire model on each GPU

Parallel-and-Distributed-Training

Getting Started with Distributed Data Parallel

Learn the basics of when to use distributed data paralle versus data parallel and work through an example to set it up.

Parallel-and-Distributed-Training

(advanced) PyTorch 1.0 Distributed Trainer with Amazon AWS

Set up the distributed package of PyTorch, use the different communication strategies, and go over some the internals of the package.

Parallel-and-Distributed-Training

PyTorch로 분산 어플리케이션 개발하기

PyTorch의 분산 패키지를 설정하고, 서로 다른 통신 전략을 사용하고, 내부를 살펴봅니다.

Parallel-and-Distributed-Training

Getting Started with Distributed RPC Framework

Learn how to build distributed training using the torch.distributed.rpc package.

Parallel-and-Distributed-Training

Implementing a Parameter Server Using Distributed RPC Framework

Walk through a through a simple example of implementing a parameter server using PyTorch’s Distributed RPC framework.

Parallel-and-Distributed-Training

Distributed Pipeline Parallelism Using RPC

Demonstrate how to implement distributed pipeline parallelism using RPC

Parallel-and-Distributed-Training

Implementing Batch RPC Processing Using Asynchronous Executions

Learn how to use rpc.functions.async_execution to implement batch RPC

Parallel-and-Distributed-Training

Combining Distributed DataParallel with Distributed RPC Framework

Walk through a through a simple example of how to combine distributed data parallelism with distributed model parallelism.

Parallel-and-Distributed-Training



추가 자료

파이토치(PyTorch) 예제

비전, 텍스트, Reinforcement-Learning 등의 분야에서의 PyTorch 예제 모음

Checkout Examples

PyTorch Cheat Sheet

Quick overview to essential PyTorch elements.

Download

공식 튜토리얼 저장소(GitHub)

GitHub에서 공식 튜토리얼을 만나보세요.

Go To GitHub

(비공식) 한국어 튜토리얼 저장소(GitHub)

GitHub에서 (비공식) 한국어 튜토리얼을 만나보세요.

Go To GitHub


이 문서가 도움이 되었나요?
피드백을 주셔서 감사합니다.

© Copyright 2019, PyTorch.

Built with Sphinx using a theme provided by Read the Docs.

Docs

Access comprehensive developer documentation for PyTorch

View Docs

Tutorials

Get in-depth tutorials for beginners and advanced developers

View Tutorials

Resources

Find development resources and get your questions answered

View Resources