plain image manifests
Some checks failed
build_docker / essential (push) Successful in 0s
build_docker / build_paddle_ocr (push) Failing after 4m7s
build_docker / build_easyocr_gpu (push) Has been cancelled
build_docker / build_doctr (push) Has been cancelled
build_docker / build_doctr_gpu (push) Has been cancelled
build_docker / build_raytune (push) Has been cancelled
build_docker / build_paddle_ocr_gpu (push) Has been cancelled
build_docker / build_easyocr (push) Has been cancelled

This commit is contained in:
2026-04-21 20:54:59 +02:00
parent 5351d4a57b
commit 569a7bca4a
7 changed files with 110 additions and 90 deletions

View File

@@ -2,15 +2,15 @@
**What to say:**
"Y esa es exactamente la pregunta central de este trabajo: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros, sin necesidad de fine-tuning?
"La pregunta central de este trabajo es: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros de inferencia?
Para entender por qué esta pregunta es relevante, veamos la comparación. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria — más de 16 gigabytes —, puede tardar días o semanas, exige alta experiencia en machine learning, y conlleva riesgo de overfitting catastrófico.
Es importante entender que el fine-tuning y la optimización de hiperparámetros no son alternativas excluyentes — son capas complementarias de optimización. El fine-tuning modifica los pesos del modelo. La HPO optimiza la configuración del pipeline de inferencia. Son problemas de optimización distintos que actúan en niveles diferentes.
En cambio, la optimización de hiperparámetros solo necesita un subconjunto de validación, funciona con CPUs o GPUs eficientes, se ejecuta en minutos u horas, requiere experiencia media, y el riesgo es limitado y reversible.
Dicho esto, la tabla muestra las diferencias prácticas. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria, días o semanas de entrenamiento, y alta experiencia en ML. La optimización de hiperparámetros necesita solo un subconjunto de validación, funciona con GPUs de consumo, se ejecuta en minutos, y el riesgo es limitado.
Es decir, estamos proponiendo una alternativa práctica y accesible, especialmente relevante para organizaciones con recursos limitados que necesitan mejorar su OCR sin invertir en infraestructura de entrenamiento."
Lo que este trabajo investiga es cuánto rendimiento latente existe en la capa de configuración de inferencia — sin tocar los pesos del modelo. Si la ganancia es significativa, como demostraremos, esto tiene implicaciones directas para el despliegue práctico de modelos OCR: cualquier organización puede mejorar sus resultados antes de considerar siquiera el fine-tuning."
**Tips:**
- Read the central question with emphasis — it's the thesis statement
- Use the comparison table as a visual anchor: point left (fine-tuning) vs right (HPO)
- Stress "accesible" and "recursos limitados" — this is the practical value proposition
- Emphasize "capas complementarias" — this is the key reframing, not "cheap alternative"
- "Rendimiento latente en la capa de inferencia" — the core scientific question
- The practical implication (any organization can do this) comes naturally at the end