1.6 KiB
Slide 4 — Problem Statement (~1.5 minutes)
What to say:
"La pregunta central de este trabajo es: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros de inferencia?
Es importante entender que el fine-tuning y la optimización de hiperparámetros no son alternativas excluyentes — son capas complementarias de optimización. El fine-tuning modifica los pesos del modelo. La HPO optimiza la configuración del pipeline de inferencia. Son problemas de optimización distintos que actúan en niveles diferentes.
Dicho esto, la tabla muestra las diferencias prácticas. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria, días o semanas de entrenamiento, y alta experiencia en ML. La optimización de hiperparámetros necesita solo un subconjunto de validación, funciona con GPUs de consumo, se ejecuta en minutos, y el riesgo es limitado.
Lo que este trabajo investiga es cuánto rendimiento latente existe en la capa de configuración de inferencia — sin tocar los pesos del modelo. Si la ganancia es significativa, como demostraremos, esto tiene implicaciones directas para el despliegue práctico de modelos OCR: cualquier organización puede mejorar sus resultados antes de considerar siquiera el fine-tuning."
Tips:
- Emphasize "capas complementarias" — this is the key reframing, not "cheap alternative"
- "Rendimiento latente en la capa de inferencia" — the core scientific question
- The practical implication (any organization can do this) comes naturally at the end