diff --git a/docs/source/ko/_toctree.yml b/docs/source/ko/_toctree.yml index eed3877c95f7..aefcf9dfdfe8 100644 --- a/docs/source/ko/_toctree.yml +++ b/docs/source/ko/_toctree.yml @@ -123,8 +123,8 @@ title: (번역중) Inference on CPU - local: in_translation title: (번역중) Inference on one GPU - - local: in_translation - title: (번역중) Inference on many GPUs + - local: perf_infer_gpu_many + title: 여러 GPU에서 추론 - local: in_translation title: (번역중) Inference on Specialized Hardware - local: in_translation diff --git a/docs/source/ko/perf_infer_gpu_many.md b/docs/source/ko/perf_infer_gpu_many.md new file mode 100644 index 000000000000..3e4542180398 --- /dev/null +++ b/docs/source/ko/perf_infer_gpu_many.md @@ -0,0 +1,27 @@ + + +# 다중 GPU에서 효율적인 추론 [[efficient-inference-on-a-multiple-gpus]] + +이 문서에는 다중 GPU에서 효율적으로 추론하는 방법에 대한 정보가 포함되어 있습니다. + + +참고: 다중 GPU 설정은 [단일 GPU 섹션](./perf_infer_gpu_one)에서 설명된 대부분의 전략을 사용할 수 있습니다. 그러나 더 나은 활용을 위해 간단한 기법들을 알아야 합니다. + + + +## 더 빠른 추론을 위한 `BetterTransformer` [[bettertransformer-for-faster-inference]] + +우리는 최근 텍스트, 이미지 및 오디오 모델에 대한 다중 GPU에서 더 빠른 추론을 위해 `BetterTransformer`를 통합했습니다. 자세한 내용은 이 통합에 대한 [문서](https://huggingface.co/docs/optimum/bettertransformer/overview)를 확인하십시오. \ No newline at end of file