Computation times¶
88:00.958 total execution time for intermediate files:
기초부터 시작하는 NLP: Sequence to Sequence 네트워크와 Attention을 이용한 번역 ( |
35:02.050 |
0.0 MB |
Multi-Objective NAS with Ax ( |
14:52.014 |
0.0 MB |
강화 학습 (DQN) 튜토리얼 ( |
11:06.288 |
0.0 MB |
기초부터 시작하는 NLP: 문자-단위 RNN으로 이름 생성하기 ( |
05:52.363 |
0.0 MB |
Reinforcement Learning (PPO) with TorchRL Tutorial ( |
05:28.793 |
0.0 MB |
단일 머신을 사용한 모델 병렬화 모범 사례 ( |
04:48.739 |
0.0 MB |
공간 변형 네트워크(Spatial Transformer Networks) 튜토리얼 ( |
03:11.371 |
0.0 MB |
파이프라인 병렬화로 트랜스포머 모델 학습시키기 ( |
02:49.111 |
0.0 MB |
기초부터 시작하는 NLP: 문자-단위 RNN으로 이름 분류하기 ( |
02:18.656 |
0.0 MB |
torch.compile Tutorial ( |
00:50.169 |
0.0 MB |
Fusing Convolution and Batch Norm using Custom Function ( |
00:42.087 |
0.0 MB |
마리오 게임 RL 에이전트로 학습하기 ( |
00:20.863 |
0.0 MB |
Per-sample-gradients ( |
00:18.234 |
0.0 MB |
Jacobians, Hessians, hvp, vhp, and more: composing function transforms ( |
00:11.365 |
0.0 MB |
(Beta) Implementing High-Performance Transformers with Scaled Dot Product Attention (SDPA) ( |
00:05.102 |
0.0 MB |
Model ensembling ( |
00:01.894 |
0.0 MB |
Neural Tangent Kernels ( |
00:00.931 |
0.0 MB |
(beta) Building a Simple CPU Performance Profiler with FX ( |
00:00.452 |
0.0 MB |
(베타) PyTorch를 사용한 Channels Last 메모리 형식 ( |
00:00.220 |
0.0 MB |
가지치기 기법(Pruning) 튜토리얼 ( |
00:00.151 |
0.0 MB |
Forward-mode Automatic Differentiation (Beta) ( |
00:00.066 |
0.0 MB |
미분자동화(autograd) 저장된 tensor를 위한 Hooks ( |
00:00.040 |
0.0 MB |
Flask를 사용하여 Python에서 PyTorch를 REST API로 배포하기 ( |
00:00.000 |
0.0 MB |
(베타) FX에서 합성곱/배치 정규화(Convolution/Batch Norm) 결합기(Fuser) 만들기 ( |
00:00.000 |
0.0 MB |
sphx_glr_intermediate_mnist_train_nas.py ( |
00:00.000 |
0.0 MB |
Parametrizations Tutorial ( |
00:00.000 |
0.0 MB |
PyTorch Profiler With TensorBoard ( |
00:00.000 |
0.0 MB |