Files
MastersThesis/thesis_output/presentation/slides/04_script.md

17 lines
1.6 KiB
Markdown
Raw Normal View History

2026-04-21 20:46:05 +02:00
# Slide 4 — Problem Statement (~1.5 minutes)
**What to say:**
2026-04-21 20:54:59 +02:00
"La pregunta central de este trabajo es: ¿Se pueden mejorar modelos OCR preentrenados de forma significativa para documentos en español mediante optimización sistemática de hiperparámetros de inferencia?
2026-04-21 20:46:05 +02:00
2026-04-21 20:54:59 +02:00
Es importante entender que el fine-tuning y la optimización de hiperparámetros no son alternativas excluyentes — son capas complementarias de optimización. El fine-tuning modifica los pesos del modelo. La HPO optimiza la configuración del pipeline de inferencia. Son problemas de optimización distintos que actúan en niveles diferentes.
2026-04-21 20:46:05 +02:00
2026-04-21 20:54:59 +02:00
Dicho esto, la tabla muestra las diferencias prácticas. El fine-tuning requiere miles de imágenes etiquetadas, GPUs de alta memoria, días o semanas de entrenamiento, y alta experiencia en ML. La optimización de hiperparámetros necesita solo un subconjunto de validación, funciona con GPUs de consumo, se ejecuta en minutos, y el riesgo es limitado.
2026-04-21 20:46:05 +02:00
2026-04-21 20:54:59 +02:00
Lo que este trabajo investiga es cuánto rendimiento latente existe en la capa de configuración de inferencia — sin tocar los pesos del modelo. Si la ganancia es significativa, como demostraremos, esto tiene implicaciones directas para el despliegue práctico de modelos OCR: cualquier organización puede mejorar sus resultados antes de considerar siquiera el fine-tuning."
2026-04-21 20:46:05 +02:00
**Tips:**
2026-04-21 20:54:59 +02:00
- Emphasize "capas complementarias" — this is the key reframing, not "cheap alternative"
- "Rendimiento latente en la capa de inferencia" — the core scientific question
- The practical implication (any organization can do this) comes naturally at the end