plain image manifests
Some checks failed
build_docker / essential (push) Successful in 0s
build_docker / build_paddle_ocr (push) Failing after 4m7s
build_docker / build_easyocr_gpu (push) Has been cancelled
build_docker / build_doctr (push) Has been cancelled
build_docker / build_doctr_gpu (push) Has been cancelled
build_docker / build_raytune (push) Has been cancelled
build_docker / build_paddle_ocr_gpu (push) Has been cancelled
build_docker / build_easyocr (push) Has been cancelled
Some checks failed
build_docker / essential (push) Successful in 0s
build_docker / build_paddle_ocr (push) Failing after 4m7s
build_docker / build_easyocr_gpu (push) Has been cancelled
build_docker / build_doctr (push) Has been cancelled
build_docker / build_doctr_gpu (push) Has been cancelled
build_docker / build_raytune (push) Has been cancelled
build_docker / build_paddle_ocr_gpu (push) Has been cancelled
build_docker / build_easyocr (push) Has been cancelled
This commit is contained in:
@@ -2,15 +2,15 @@
|
||||
|
||||
**What to say:**
|
||||
|
||||
"Y esa es exactamente la pregunta central de este trabajo: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros, sin necesidad de fine-tuning?
|
||||
"La pregunta central de este trabajo es: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros de inferencia?
|
||||
|
||||
Para entender por qué esta pregunta es relevante, veamos la comparación. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria — más de 16 gigabytes —, puede tardar días o semanas, exige alta experiencia en machine learning, y conlleva riesgo de overfitting catastrófico.
|
||||
Es importante entender que el fine-tuning y la optimización de hiperparámetros no son alternativas excluyentes — son capas complementarias de optimización. El fine-tuning modifica los pesos del modelo. La HPO optimiza la configuración del pipeline de inferencia. Son problemas de optimización distintos que actúan en niveles diferentes.
|
||||
|
||||
En cambio, la optimización de hiperparámetros solo necesita un subconjunto de validación, funciona con CPUs o GPUs eficientes, se ejecuta en minutos u horas, requiere experiencia media, y el riesgo es limitado y reversible.
|
||||
Dicho esto, la tabla muestra las diferencias prácticas. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria, días o semanas de entrenamiento, y alta experiencia en ML. La optimización de hiperparámetros necesita solo un subconjunto de validación, funciona con GPUs de consumo, se ejecuta en minutos, y el riesgo es limitado.
|
||||
|
||||
Es decir, estamos proponiendo una alternativa práctica y accesible, especialmente relevante para organizaciones con recursos limitados que necesitan mejorar su OCR sin invertir en infraestructura de entrenamiento."
|
||||
Lo que este trabajo investiga es cuánto rendimiento latente existe en la capa de configuración de inferencia — sin tocar los pesos del modelo. Si la ganancia es significativa, como demostraremos, esto tiene implicaciones directas para el despliegue práctico de modelos OCR: cualquier organización puede mejorar sus resultados antes de considerar siquiera el fine-tuning."
|
||||
|
||||
**Tips:**
|
||||
- Read the central question with emphasis — it's the thesis statement
|
||||
- Use the comparison table as a visual anchor: point left (fine-tuning) vs right (HPO)
|
||||
- Stress "accesible" and "recursos limitados" — this is the practical value proposition
|
||||
- Emphasize "capas complementarias" — this is the key reframing, not "cheap alternative"
|
||||
- "Rendimiento latente en la capa de inferencia" — the core scientific question
|
||||
- The practical implication (any organization can do this) comes naturally at the end
|
||||
|
||||
Reference in New Issue
Block a user