파이토치(PyTorch) 레시피
파이토치(PyTorch) 시작하기
torch.autograd
Introduction to PyTorch on YouTube
파이토치(PyTorch) 배우기
이미지/비디오
오디오
텍스트
nn.Transformer
백엔드
강화학습
PyTorch 모델을 프로덕션 환경에 배포하기
PyTorch 프로파일링
Code Transforms with FX
프론트엔드 API
PyTorch 확장하기
모델 최적화
torch.compile
atteition.bias
병렬 및 분산 학습
Edge with ExecuTorch
추천 시스템
Multimodality
레시피는 전체 길이의 튜토리얼과 달리, PyTorch의 특정 기능을 사용하는 간단하고 바로 적용 가능한 예제들입니다.
PyTorch 패키지를 이용해서 공용 데이터셋을 불러오고 모델에 적용하는 방법을 알아봅니다.
Basics
MNIST dataset을 사용한 신경망을 만들고 정의하기 위해 PyTorch의 torch.nn 패키지를 어떻게 사용하는 지 알아봅시다.
PyTorch에서 모델을 저장하거나 불러올 때 Python 사전인 state_dict 객체가 어떻게 사용되는지 알아봅니다.
PyTorch에서 추론을 위해 모델을 저장하고 불러오는 두 가지 접근 방식(state_dict 및 전체 모델)을 알아봅니다.
추론 또는 학습을 재개하기 위해 일반적인 체크포인트를 저장하고 불러오는 것은 마지막으로 중단한 부분을 고르는데 도움이 됩니다. 이 레시피에서는 어떻게 여러개의 체크포인트를 저장하고 불러오는지 알아봅니다.
이전에 학습했던 여러 모델들을 저장하고 불러와 모델을 재사용하는 방법을 알아봅니다.
Learn how warmstarting the training process by partially loading a model or loading a partial model can help your model converge much faster than training from scratch.
PyTorch를 사용하여 다양한 장치(CPU와 GPU) 간의 모델을 저장하고 불러오는 비교적 간단한 방법을 알아봅니다.
변화도를 언제 0으로 만들어야 하며, 그렇게 하는 것이 모델의 정확도를 높이는 데에 어떻게 도움이 되는지 알아봅니다.
PyTorch의 벤치마크 모듈을 사용하여 코드의 성능을 측정하고 비교하는 방법을 알아봅니다.
코드 조각(snippet)의 실행 시간을 측정하고 명령어들을 확인하는 방법을 알아봅니다.
PyTorch의 프로파일러를 사용하여 연산 시간과 메모리 소비량을 측정하는 방법을 알아봅니다.
Learn how to use PyTorch's profiler with Instrumentation and Tracing Technology API (ITT API) to visualize operators labeling in Intel® VTune™ Profiler GUI
Learn how to use torch.compile IPEX backend
meta 디바이스를 사용하여 모델의 shape을 추론하는 방법을 알아봅니다.
Learn tips for loading an nn.Module from a checkpoint.
Learn how to use the torch logging APIs to observe the compilation process.
New extension points in nn.Module.
PyTorch 데이터셋 API를 이용하여 어떻게 쉽게 사용자 정의 데이터셋과 dataloader를 만드는지 알아봅니다.
Data-Customization
Captum을 사용하여 이미지 분류기의 예측을 해당 이미지의 특징(features)에 사용하고 속성(attribution) 결과를 시각화 하는데 사용하는 방법을 학습합니다.
Interpretability,Captum
PyTorch로 TensorBoard를 사용하는 기본 방법과 TensorBoard UI에서 데이터를 시각화하는 방법을 알아봅니다.
Visualization,TensorBoard
Apply dynamic quantization to a simple LSTM model.
Quantization,Text,Model-Optimization
학습된 모델을 TorchScript 형식으로 내보내는 방법과 TorchScript 모델을 C++로 불러오고 추론하는 방법에 대해 알아봅니다.
TorchScript
경량 웹서버 Flask를 사용하여 학습된 PyTorch Model을 Web API로 빠르게 만드는 방법을 알아봅니다.
Production,TorchScript
모바일(Android와 iOS) 상에서 PyTorch를 사용하기 위한 성능 최적화 레시피 목록들.
Mobile,Model-Optimization
LibTorch C++ API와 사용자 지정 C++ 연산자를 가지는 TorchScript를 사용해서 Android 애플리케이션을 처음부터 만드는 방법을 알아봅니다.
Mobile
Learn how to fuse a list of PyTorch modules into a single module to reduce the model size before quantization.
Learn how to reduce the model size and make it run faster without losing much on accuracy.
Mobile,Quantization
Learn how to convert the model to TorchScipt and (optional) optimize it for mobile apps.
Learn how to add the model in an iOS project and use PyTorch pod for iOS.
Learn how to add the model in an Android project and use the PyTorch library for Android.
Learn how to use the mobile interpreter on iOS and Andriod devices.
How to use the PyTorch profiler to profile RPC-based workloads.
Production
Use torch.cuda.amp to reduce runtime and save memory on NVIDIA GPUs.
Model-Optimization
Tips for achieving optimal performance.
Tips for achieving the best inference performance on AWS Graviton CPUs
Learn to leverage Intel® Advanced Matrix Extensions.
Speed up the optimizer using torch.compile
Speed up training with LRScheduler and torch.compiled optimizer
Learn how to use user-defined kernels with ``torch.compile``
Introduction of Intel® Extension for PyTorch*
Ease-of-use quantization for PyTorch with Intel® Neural Compressor.
Quantization,Model-Optimization
Learn how to use DeviceMesh
Distributed-Training
How to use ZeroRedundancyOptimizer to reduce memory consumption.
How to use RPC with direct GPU-to-GPU communication.
How to enable TorchScript support for Distributed Optimizer.
Distributed-Training,TorchScript
Learn how to checkpoint distributed models with Distributed Checkpoint package.
Learn how to deploy model in Vertex AI with TorchServe
파이토치 한국 사용자 모임을 GitHub에서 만나보세요.
한국어로 번역 중인 PyTorch 튜토리얼입니다.
다른 사용자들과 의견을 나누고, 도와주세요!