-
-
Notifications
You must be signed in to change notification settings - Fork 11.7k
[CI] Update performance benchmark: upgrade trt-llm to r24.07, and add SGLang #7412
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Changes from 147 commits
91b49b3
e61fa29
00aaefa
7d4b1f0
c67deaa
f7901f1
2e9c063
4e15409
5f880ae
b74d95a
fc2f850
0a3bfae
89c7fe8
cbbcbd0
0648d9e
7f16b64
5155b77
85d39f9
4516373
dbf6607
a8cac72
e461c64
c935bda
a7e12e7
9605cf3
fcc3f52
760d70f
8230734
1ba468b
c7bfc22
4c1500c
711b65f
483e1b1
1c5f677
a65763b
aa278eb
5da3db1
45e94a2
a4cb503
03f7830
84fd15e
797c4d6
6fd153a
61a45b5
eb592aa
c7aafa0
23b886a
ac7ecc5
aefae68
ac95463
2337b39
fb834ff
2f8db9d
7435538
6fd1ac5
2ff5429
a53fbc7
02f22f9
b17e76f
594f35b
b8a3f76
a64aeab
12b1ec4
f513995
c52c45e
582b5b2
7802c75
8e3e269
8409687
e138cca
3951a96
c23ccc6
058e1aa
e320941
1b4946c
40ffa0a
9efae6c
d2072af
a1596ed
4c7d73c
f089fae
35c2025
8f411ec
3387919
8700543
0b531f0
9a6a18a
26ad283
16ce24a
b5f90fd
3c40c2f
ca6a9fd
c3696b0
1c95549
0ee0688
4befb1b
53b13a2
1410ce3
c75dbcd
427e013
9228035
039f391
a0a944d
6fb655a
ca36b0e
415cc0f
0a8d641
f72eeca
6e2a9d0
f364a54
c4a6dfd
9a2acda
208a111
99153de
52eabfe
8ad3184
093f410
76ce5b7
2dfecb9
6c1f754
9a8e8fa
f9cd4bb
e3ba754
decf67b
257087f
9882b17
7d0e3c6
8bf3308
ceaaff7
945a09b
2f4a1cb
bf61370
7e7435c
c040060
4a815f9
49190d7
b33055b
811fdbf
57b4b7c
1d2f0e2
3970bfe
ec61fb6
93156a0
408fab0
e43b66c
575d89a
661633f
4276c99
e6c94e5
42650a1
fbd27dc
e2373e8
4ffa6f9
501fea6
555db07
79102e7
094339c
5d054f2
7f74875
e7e6c57
ba1c9ee
9163d52
950219c
8f8ed06
6e3e6e1
ede9688
3b994c5
6bc6777
9d63edb
faf4083
1b43f1c
3a5fa29
7e12e84
60892b6
66ced32
5bc0198
efc0bc4
9c20da0
e20d6b9
3a76dc7
141ce12
4f1a72a
File filter
Filter by extension
Conversations
Jump to
Diff view
Diff view
There are no files selected for viewing
| Original file line number | Diff line number | Diff line change |
|---|---|---|
| @@ -0,0 +1,28 @@ | ||
|
|
||
| ## Description | ||
|
|
||
| This file contains the downloading link for benchmarking results. | ||
|
|
||
| - [benchmarking pipeline](artifact://nightly-pipeline.yaml) | ||
| - [benchmarking results](artifact://results.zip) | ||
| - [benchmarking code](artifact://nightly-benchmarks.zip) | ||
|
|
||
| Please download the visualization scripts in the post | ||
|
|
||
|
|
||
| ## Results reproduction | ||
|
|
||
| - Find the docker we use in `benchmarking pipeline` | ||
| - Deploy the docker, and inside the docker: | ||
| - Download `nightly-benchmarks.zip`. | ||
| - In the same folder, run the following code | ||
| ``` | ||
| export HF_TOKEN=<your HF token> | ||
| apt update | ||
| apt install -y git | ||
| unzip nightly-benchmarks.zip | ||
| VLLM_SOURCE_CODE_LOC=./ bash .buildkite/nightly-benchmarks/scripts/run-nightly-benchmarks.sh | ||
| ``` | ||
|
|
||
| And the results will be inside `./benchmarks/results`. | ||
|
|
| Original file line number | Diff line number | Diff line change |
|---|---|---|
| @@ -1,45 +1,44 @@ | ||
|
|
||
| # Nightly benchmark | ||
|
|
||
| The main goal of this benchmarking is two-fold: | ||
| - Performance clarity: Provide clarity on which one (vllm, tensorrt-llm, lmdeploy and tgi) leads in performance in what workload. | ||
| - Reproducible: one can run the exact same set of benchmarking commands inside the exact same docker by following reproducing instructions in [reproduce.md](). | ||
|
|
||
|
|
||
| ## Docker images | ||
|
|
||
| We benchmark vllm, tensorrt-llm, lmdeploy and tgi using the following docker images: | ||
| - vllm/vllm-openai:v0.5.0.post1 | ||
| - nvcr.io/nvidia/tritonserver:24.04-trtllm-python-py3 | ||
| - openmmlab/lmdeploy:v0.5.0 | ||
| - ghcr.io/huggingface/text-generation-inference:2.1 | ||
|
|
||
| <!-- Please check <a href="artifact://workspace/build/buildkite/vllm/performance-benchmark/.buildkite/nightly-benchmarks/nightly-pipeline.yaml">nightly-pipeline.yaml</a> artifact for more details on how we deploy the docker images. --> | ||
|
|
||
|
|
||
| ## Hardware | ||
|
|
||
| One AWS node with 8x NVIDIA A100 GPUs. | ||
| This benchmark aims to: | ||
| - Provide performance clarity: Provide clarity on which one (vllm, tensorrt-llm, lmdeploy and tgi) leads in performance in what workload. | ||
| - Be reproducible: one can run the exact same set of benchmarking commands inside the exact same docker by following reproducing instructions in [reproduce.md](). | ||
|
|
||
|
|
||
| ## Setup | ||
|
|
||
| - Docker images | ||
| - vllm/vllm-openai:v0.5.0.post1 | ||
| - nvcr.io/nvidia/tritonserver:24.04-trtllm-python-py3 | ||
| - openmmlab/lmdeploy:v0.5.0 | ||
| - ghcr.io/huggingface/text-generation-inference:2.1 | ||
KuntaiDu marked this conversation as resolved.
Outdated
Show resolved
Hide resolved
|
||
| - Hardware | ||
| - 8x Nvidia A100 GPUs | ||
| - Workload | ||
| - Input length: randomly sample 500 prompts from ShareGPT dataset (with fixed random seed). | ||
| - Output length: the corresponding output length of these 500 prompts. | ||
| - Models: llama-3 8B, llama-3 70B, mixtral 8x7B. | ||
| - We do not use llama 3.1 as it is incompatible with trt-llm r24.07. ([issue](https://github.com/NVIDIA/TensorRT-LLM/issues/2105)). | ||
| - Average QPS (query per second): 2, 4, 8 and inf. | ||
| - Queries are randomly sampled, and arrival patterns are determined via Poisson process, but all with fixed random seed. | ||
| - Evaluation metrics: Throughput (higher the better), TTFT (time to the first token, lower the better), ITL (inter-token latency, lower the better). | ||
|
|
||
| ## Plots | ||
|
|
||
| ## Workload description | ||
| In the following plots, the dot shows the mean and the error bar shows the standard error of the mean. Value 0 means that the corresponding benchmark crashed. | ||
|
|
||
| We benchmark vllm, tensorrt-llm, lmdeploy and tgi using the following workload: | ||
| <img src="artifact://nightly_results_sharegpt.png" alt="Benchmarking results" height=250 > | ||
|
|
||
| - Input length: randomly sample 500 prompts from ShareGPT dataset (with fixed random seed). | ||
| - Output length: the corresponding output length of these 500 prompts. | ||
| - Models: llama-3 8B, llama-3 70B, mixtral 8x7B. | ||
| - Average QPS (query per second): 4 for the small model (llama-3 8B) and 2 for other two models. For each QPS, the arrival time of each query is determined using a random Poisson process (with fixed random seed). | ||
| - Evaluation metrics: Throughput (higher the better), TTFT (time to the first token, lower the better), ITL (inter-token latency, lower the better). | ||
| <img src="artifact://nightly_results_sonnet_2048_128.png" alt="Benchmarking results" height=250 > | ||
|
|
||
| <!-- Check <a href="artifact://workspace/build/buildkite/vllm/performance-benchmark/.buildkite/nightly-benchmarks/tests/nightly-tests.json">nightly-tests.json</a> artifact for more details. --> | ||
| <img src="artifact://nightly_results_sonnet_128_2048.png" alt="Benchmarking results" height=250 > | ||
|
|
||
| ## Plots | ||
| ## Results | ||
|
|
||
| In the following plots, the dot shows the mean and the error bar shows the standard error of the mean. Value 0 means that the corresponding benchmark crashed. | ||
| {nightly_results_benchmarking_table} | ||
|
|
||
| <img src="artifact://nightly_results.png" alt="Benchmarking results" height=250 > | ||
|
|
||
| ## Results | ||
| ## Known issues | ||
|
|
||
| {nightly_results_benchmarking_table} | ||
| - TRT-LLM crashes with Llama 3.1 8B [issue](https://github.com/NVIDIA/TensorRT-LLM/issues/2105). | ||
|
||
| Original file line number | Diff line number | Diff line change | ||||||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
|
@@ -13,7 +13,7 @@ common_pod_spec: &common_pod_spec | |||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| common_container_settings: &common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
| command: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - bash .buildkite/nightly-benchmarks/run-nightly-suite.sh | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - bash .buildkite/nightly-benchmarks/scripts/run-nightly-benchmarks.sh | ||||||||||||||||||||||||||||||||||||||||||||||||||
| resources: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| limits: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| nvidia.com/gpu: 8 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -37,7 +37,11 @@ common_container_settings: &common_container_settings | |||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| steps: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - block: ":rocket: Ready for comparing vllm against alternatives? This will take 4 hours." | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 trt benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 sglang benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -46,7 +50,7 @@ steps: | |||||||||||||||||||||||||||||||||||||||||||||||||
| podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: nvcr.io/nvidia/tritonserver:24.04-trtllm-python-py3 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: lmsysorg/sglang:v0.2.14.post2-cu118 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 lmdeploy benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -58,11 +62,24 @@ steps: | |||||||||||||||||||||||||||||||||||||||||||||||||
| podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: openmmlab/lmdeploy:v0.5.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: openmmlab/lmdeploy:v0.6.0a0-cu11 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 vllm benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 vllm step 10 (latest zmq+async)" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| plugins: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - kubernetes: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: public.ecr.aws/q9t5s3a7/vllm-ci-test-repo:4664ceaad6f99ec7824859d1ac31b29502565a98 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 trt llama-8B" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -71,10 +88,25 @@ steps: | |||||||||||||||||||||||||||||||||||||||||||||||||
| podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: vllm/vllm-openai:latest | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: nvcr.io/nvidia/tritonserver:24.07-trtllm-python-py3 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
Member
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Maybe use 24.08?
Collaborator
Author
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. I got r24.07 protobuf template filling scripts from NVIDIA and these scripts doesn't work for r24.08 right now. I confirmed with NVIDIA that in the future there will be a test docker that can be used for benchmarking so I am planning to use r24.07 for now and then switch to the test docker after its release. |
||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
| env: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: VLLM_USAGE_SOURCE | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: ci-test | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: HF_HOME | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: /root/.cache/huggingface | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: VLLM_SOURCE_CODE_LOC | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: /workspace/build/buildkite/vllm/performance-benchmark | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: HF_TOKEN | ||||||||||||||||||||||||||||||||||||||||||||||||||
| valueFrom: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| secretKeyRef: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| name: hf-token-secret | ||||||||||||||||||||||||||||||||||||||||||||||||||
| key: token | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: TEST_SELECTOR | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: "llama8B" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 tgi benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "A100 trt llama-70B" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -83,12 +115,52 @@ steps: | |||||||||||||||||||||||||||||||||||||||||||||||||
| podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: ghcr.io/huggingface/text-generation-inference:2.1 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - image: nvcr.io/nvidia/tritonserver:24.07-trtllm-python-py3 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
Member
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Ditto |
||||||||||||||||||||||||||||||||||||||||||||||||||
| <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
| env: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: VLLM_USAGE_SOURCE | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: ci-test | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: HF_HOME | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: /root/.cache/huggingface | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: VLLM_SOURCE_CODE_LOC | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: /workspace/build/buildkite/vllm/performance-benchmark | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: HF_TOKEN | ||||||||||||||||||||||||||||||||||||||||||||||||||
| valueFrom: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| secretKeyRef: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| name: hf-token-secret | ||||||||||||||||||||||||||||||||||||||||||||||||||
| key: token | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - name: TEST_SELECTOR | ||||||||||||||||||||||||||||||||||||||||||||||||||
| value: "llama70B" | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| # - label: "A100 trt benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # plugins: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # - kubernetes: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # - image: nvcr.io/nvidia/tritonserver:24.07-trtllm-python-py3 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| # - label: "A100 tgi benchmark" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # plugins: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # - kubernetes: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # podSpec: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # <<: *common_pod_spec | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # containers: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # - image: ghcr.io/huggingface/text-generation-inference:2.2.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| # <<: *common_container_settings | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
Member
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. cleanup unless we need to keep them
Suggested change
Collaborator
Author
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. TGI benchmark: I prefer keeping it so that we can restore them after they support TRT benchmark: I also prefer keeping it --- currently I am separating the trt-llm test to llama8B and llama 70B test and comment out this test purely because TRT needs to compile the model and it exceeds the 1 hour 30 minutes CI time limit if I directly run the commented-out test. I am expecting that new TRT-LLM docker will have all model for the test suite pre-compiled (hopefully) so that I don't need to worry about this test exceeding the test limit (and then I can uncomment this test).
Collaborator
Author
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. Just added comments in the file to explain why keeping those comments |
||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - wait | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "Plot" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - label: "Collect the results" | ||||||||||||||||||||||||||||||||||||||||||||||||||
| priority: 100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
| agents: | ||||||||||||||||||||||||||||||||||||||||||||||||||
| queue: A100 | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
@@ -117,4 +189,4 @@ steps: | |||||||||||||||||||||||||||||||||||||||||||||||||
| name: hf-token-secret | ||||||||||||||||||||||||||||||||||||||||||||||||||
| key: token | ||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||
| - wait | ||||||||||||||||||||||||||||||||||||||||||||||||||
| - block: ":rocket: check the results!" | ||||||||||||||||||||||||||||||||||||||||||||||||||
This file was deleted.
Uh oh!
There was an error while loading. Please reload this page.