# Slide 3 — Motivation (~1.5 minutes) **What to say:** "La digitalización de documentos es una necesidad estratégica para cualquier organización. El OCR es el puente entre el mundo físico y el digital, pero los sistemas actuales presentan problemas significativos con documentos en español. ¿Por qué? Porque los modelos preentrenados se entrenan mayoritariamente con datasets internacionales donde los caracteres específicos del español — las tildes, la eñe, los signos de interrogación y exclamación invertidos — están infrarrepresentados. Como pueden ver en la tabla, los errores típicos incluyen la pérdida de acentos, como 'más' que se convierte en 'mas'; la eñe que se confunde con una ene; y artefactos de duplicación. Estos errores no son anecdóticos: afectan la precisión en entornos reales como archivos académicos, registros legales o facturación. Este trabajo se enmarca en el campo del AutoML — Automated Machine Learning — aplicado a la optimización de configuraciones de inferencia. La mayor parte de la investigación en AutoML se centra en la fase de entrenamiento: selección de arquitecturas, learning rates, regularización. Sin embargo, los modelos OCR modernos exponen numerosos hiperparámetros en la fase de inferencia que permanecen sin explorar. Nuestra hipótesis es que estos modelos preentrenados contienen capacidades latentes que pueden activarse mediante la configuración óptima de su pipeline de inferencia." **Tips:** - Point to the error table when you mention specific examples - Emphasize AutoML as the AI framework — this positions the work within a recognized AI subfield - "Capacidades latentes" is the key concept — the model already knows, we just need to configure it right