Some checks failed
build_docker / essential (push) Successful in 1s
build_docker / build_paddle_ocr (push) Failing after 4m34s
build_docker / build_easyocr (push) Has been cancelled
build_docker / build_easyocr_gpu (push) Has been cancelled
build_docker / build_doctr (push) Has been cancelled
build_docker / build_doctr_gpu (push) Has been cancelled
build_docker / build_raytune (push) Has been cancelled
build_docker / build_paddle_ocr_gpu (push) Has been cancelled
17 lines
1.3 KiB
Markdown
17 lines
1.3 KiB
Markdown
# Slide 4 — Problem Statement (~1.5 minutes)
|
|
|
|
**What to say:**
|
|
|
|
"Y esa es exactamente la pregunta central de este trabajo: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros, sin necesidad de fine-tuning?
|
|
|
|
Para entender por qué esta pregunta es relevante, veamos la comparación. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria — más de 16 gigabytes —, puede tardar días o semanas, exige alta experiencia en machine learning, y conlleva riesgo de overfitting catastrófico.
|
|
|
|
En cambio, la optimización de hiperparámetros solo necesita un subconjunto de validación, funciona con CPUs o GPUs eficientes, se ejecuta en minutos u horas, requiere experiencia media, y el riesgo es limitado y reversible.
|
|
|
|
Es decir, estamos proponiendo una alternativa práctica y accesible, especialmente relevante para organizaciones con recursos limitados que necesitan mejorar su OCR sin invertir en infraestructura de entrenamiento."
|
|
|
|
**Tips:**
|
|
- Read the central question with emphasis — it's the thesis statement
|
|
- Use the comparison table as a visual anchor: point left (fine-tuning) vs right (HPO)
|
|
- Stress "accesible" and "recursos limitados" — this is the practical value proposition
|