Skip to content

Commit ed70f24

Browse files
authored
Add Spanish translation of converting_tensorflow_models.mdx (#18512)
* Add file in spanish docs to be translated * Finish translation to Spanish * Improve Spanish wording * Add suggested changes from review
1 parent a765b68 commit ed70f24

File tree

2 files changed

+151
-0
lines changed

2 files changed

+151
-0
lines changed

docs/source/es/_toctree.yml

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -39,6 +39,8 @@
3939
title: Ejecutar el entrenamiento en Amazon SageMaker
4040
- local: multilingual
4141
title: Modelos multilingües para inferencia
42+
- local: converting_tensorflow_models
43+
title: Convertir checkpoints de TensorFlow
4244
title: Guías prácticas
4345
- sections:
4446
- local: philosophy
Lines changed: 149 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,149 @@
1+
<!--Copyright 2020 The HuggingFace Team. All rights reserved.
2+
3+
Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
4+
the License. You may obtain a copy of the License at
5+
6+
http://www.apache.org/licenses/LICENSE-2.0
7+
8+
Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
9+
an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
10+
specific language governing permissions and limitations under the License.
11+
-->
12+
13+
# Convertir checkpoints de Tensorflow
14+
15+
Te proporcionamos una interfaz de línea de comando (`CLI`, por sus siglas en inglés) para convertir puntos de control (_checkpoints_) originales de Bert/GPT/GPT-2/Transformer-XL/XLNet/XLM en modelos que se puedan cargar utilizando los métodos `from_pretrained` de la biblioteca.
16+
17+
<Tip>
18+
19+
Desde 2.3.0, el script para convertir es parte de la CLI de transformers (**transformers-cli**) disponible en cualquier instalación de transformers >= 2.3.0.
20+
21+
La siguiente documentación refleja el formato para el comando **transformers-cli convert**.
22+
23+
</Tip>
24+
25+
## BERT
26+
27+
Puedes convertir cualquier checkpoint de TensorFlow para BERT (en particular, [los modelos pre-entrenados y publicados por Google](https://github.com/google-research/bert#pre-trained-models)) en un archivo de PyTorch mediante el script [convert_bert_original_tf_checkpoint_to_pytorch.py](https://github.com/huggingface/transformers/tree/main/src/transformers/models/bert/convert_bert_original_tf_checkpoint_to_pytorch.py).
28+
29+
Esta CLI toma como entrada un checkpoint de TensorFlow (tres archivos que comienzan con `bert_model.ckpt`) y el archivo de configuración asociado (`bert_config.json`), y crea un modelo PyTorch para esta configuración, carga los pesos del checkpoint de TensorFlow en el modelo de PyTorch y guarda el modelo resultante en un archivo estándar de PyTorch que se puede importar usando `from_pretrained()` (ve el ejemplo en [Tour rápido](quicktour), [run_glue.py](https://github.com/huggingface/transformers/tree/main/examples/pytorch/text-classification/run_glue.py)).
30+
31+
Solo necesitas ejecutar este script **una vez** para convertir un modelo a PyTorch. Después, puedes ignorar el checkpoint de TensorFlow (los tres archivos que comienzan con `bert_model.ckpt`), pero asegúrate de conservar el archivo de configuración (`bert_config.json`) y el archivo de vocabulario (`vocab.txt`) ya que estos también son necesarios para el modelo en PyTorch.
32+
33+
Para ejecutar este script deberás tener instalado TensorFlow y PyTorch (`pip install tensorflow`). El resto del repositorio solo requiere PyTorch.
34+
35+
Aquí hay un ejemplo del proceso para convertir un modelo `BERT-Base Uncased` pre-entrenado:
36+
37+
```bash
38+
export BERT_BASE_DIR=/path/to/bert/uncased_L-12_H-768_A-12
39+
40+
transformers-cli convert --model_type bert \
41+
--tf_checkpoint $BERT_BASE_DIR/bert_model.ckpt \
42+
--config $BERT_BASE_DIR/bert_config.json \
43+
--pytorch_dump_output $BERT_BASE_DIR/pytorch_model.bin
44+
```
45+
46+
Puedes descargar los modelos pre-entrenados de Google para la conversión [aquí](https://github.com/google-research/bert#pre-trained-models).
47+
48+
## ALBERT
49+
50+
Convierte los checkpoints del modelo ALBERT de TensorFlow a PyTorch usando el script [convert_albert_original_tf_checkpoint_to_pytorch.py](https://github.com/huggingface/transformers/tree/main/src/transformers/models/albert/convert_albert_original_tf_checkpoint_to_pytorch.py).
51+
52+
La CLI toma como entrada un checkpoint de TensorFlow (tres archivos que comienzan con `model.ckpt-best`) y el archivo de configuración adjunto (`albert_config.json`), luego crea y guarda un modelo de PyTorch. Para ejecutar esta conversión deberás tener instalados TensorFlow y PyTorch.
53+
54+
Aquí hay un ejemplo del proceso para convertir un modelo `ALBERT Base` pre-entrenado:
55+
56+
```bash
57+
export ALBERT_BASE_DIR=/path/to/albert/albert_base
58+
59+
transformers-cli convert --model_type albert \
60+
--tf_checkpoint $ALBERT_BASE_DIR/model.ckpt-best \
61+
--config $ALBERT_BASE_DIR/albert_config.json \
62+
--pytorch_dump_output $ALBERT_BASE_DIR/pytorch_model.bin
63+
```
64+
65+
Puedes descargar los modelos pre-entrenados de Google para la conversión [aquí](https://github.com/google-research/albert#pre-trained-models).
66+
67+
## OpenAI GPT
68+
69+
Este es un ejemplo del proceso para convertir un modelo OpenAI GPT pre-entrenado, asumiendo que tu checkpoint de NumPy se guarda con el mismo formato que el modelo pre-entrenado de OpenAI (más información [aquí](https://github.com/openai/finetune-transformer-lm)):
70+
71+
```bash
72+
export OPENAI_GPT_CHECKPOINT_FOLDER_PATH=/path/to/openai/pretrained/numpy/weights
73+
74+
transformers-cli convert --model_type gpt \
75+
--tf_checkpoint $OPENAI_GPT_CHECKPOINT_FOLDER_PATH \
76+
--pytorch_dump_output $PYTORCH_DUMP_OUTPUT \
77+
[--config OPENAI_GPT_CONFIG] \
78+
[--finetuning_task_name OPENAI_GPT_FINETUNED_TASK] \
79+
```
80+
81+
## OpenAI GPT-2
82+
83+
Aquí hay un ejemplo del proceso para convertir un modelo OpenAI GPT-2 pre-entrenado (más información [aquí](https://github.com/openai/gpt-2)):
84+
85+
```bash
86+
export OPENAI_GPT2_CHECKPOINT_PATH=/path/to/gpt2/pretrained/weights
87+
88+
transformers-cli convert --model_type gpt2 \
89+
--tf_checkpoint $OPENAI_GPT2_CHECKPOINT_PATH \
90+
--pytorch_dump_output $PYTORCH_DUMP_OUTPUT \
91+
[--config OPENAI_GPT2_CONFIG] \
92+
[--finetuning_task_name OPENAI_GPT2_FINETUNED_TASK]
93+
```
94+
95+
## Transformer-XL
96+
97+
Aquí hay un ejemplo del proceso para convertir un modelo Transformer-XL pre-entrenado (más información [aquí](https://github.com/kimiyoung/transformer-xl/tree/master/tf#obtain-and-evaluate-pretrained-sota-models)):
98+
99+
```bash
100+
export TRANSFO_XL_CHECKPOINT_FOLDER_PATH=/path/to/transfo/xl/checkpoint
101+
102+
transformers-cli convert --model_type transfo_xl \
103+
--tf_checkpoint $TRANSFO_XL_CHECKPOINT_FOLDER_PATH \
104+
--pytorch_dump_output $PYTORCH_DUMP_OUTPUT \
105+
[--config TRANSFO_XL_CONFIG] \
106+
[--finetuning_task_name TRANSFO_XL_FINETUNED_TASK]
107+
```
108+
109+
## XLNet
110+
111+
Aquí hay un ejemplo del proceso para convertir un modelo XLNet pre-entrenado:
112+
113+
```bash
114+
export TRANSFO_XL_CHECKPOINT_PATH=/path/to/xlnet/checkpoint
115+
export TRANSFO_XL_CONFIG_PATH=/path/to/xlnet/config
116+
117+
transformers-cli convert --model_type xlnet \
118+
--tf_checkpoint $TRANSFO_XL_CHECKPOINT_PATH \
119+
--config $TRANSFO_XL_CONFIG_PATH \
120+
--pytorch_dump_output $PYTORCH_DUMP_OUTPUT \
121+
[--finetuning_task_name XLNET_FINETUNED_TASK] \
122+
```
123+
124+
## XLM
125+
126+
Aquí hay un ejemplo del proceso para convertir un modelo XLM pre-entrenado:
127+
128+
```bash
129+
export XLM_CHECKPOINT_PATH=/path/to/xlm/checkpoint
130+
131+
transformers-cli convert --model_type xlm \
132+
--tf_checkpoint $XLM_CHECKPOINT_PATH \
133+
--pytorch_dump_output $PYTORCH_DUMP_OUTPUT
134+
[--config XML_CONFIG] \
135+
[--finetuning_task_name XML_FINETUNED_TASK]
136+
```
137+
138+
## T5
139+
140+
Aquí hay un ejemplo del proceso para convertir un modelo T5 pre-entrenado:
141+
142+
```bash
143+
export T5=/path/to/t5/uncased_L-12_H-768_A-12
144+
145+
transformers-cli convert --model_type t5 \
146+
--tf_checkpoint $T5/t5_model.ckpt \
147+
--config $T5/t5_config.json \
148+
--pytorch_dump_output $T5/pytorch_model.bin
149+
```

0 commit comments

Comments
 (0)