UNIR Logo

Universidad Internacional de La Rioja
Escuela Superior de Ingeniería y Tecnología

Máster Universitario en Inteligencia Artificial

Optimización de Hiperparámetros OCR con Ray Tune para Documentos Académicos en Español

Trabajo Fin de Estudio presentado por: Sergio Jiménez Jiménez

Tipo de trabajo: Comparativa de soluciones / Piloto experimental

Director: [Nombre del Director]

Fecha: 2025

Resumen

El presente Trabajo Fin de Máster aborda la optimización de sistemas de Reconocimiento Óptico de Caracteres (OCR) basados en inteligencia artificial para documentos en español, específicamente en un entorno con recursos computacionales limitados donde el fine-tuning de modelos no es viable. El objetivo principal es identificar la configuración óptima de hiperparámetros que maximice la precisión del reconocimiento de texto sin requerir entrenamiento adicional de los modelos.

Se realizó un estudio comparativo de tres soluciones OCR de código abierto: EasyOCR, PaddleOCR (PP-OCRv5) y DocTR, evaluando su rendimiento mediante las métricas estándar CER (Character Error Rate) y WER (Word Error Rate) sobre un corpus de documentos académicos en español. Tras identificar PaddleOCR como la solución más prometedora, se procedió a una optimización sistemática de hiperparámetros utilizando Ray Tune con el algoritmo de búsqueda Optuna, ejecutando 64 configuraciones diferentes.

Los resultados demuestran que la optimización de hiperparámetros logró una mejora significativa del rendimiento: el CER se redujo de 7.78% a 1.49% (mejora del 80.9% en reducción de errores), alcanzando una precisión de caracteres del 98.51%. El hallazgo más relevante fue que el parámetro textline_orientation (clasificación de orientación de línea de texto) tiene un impacto crítico, reduciendo el CER en un 69.7% cuando está habilitado. Adicionalmente, se identificó que el umbral de detección de píxeles (text_det_thresh) presenta una correlación negativa fuerte (-0.52) con el error, siendo el parámetro continuo más influyente.

Este trabajo demuestra que es posible obtener mejoras sustanciales en sistemas OCR mediante optimización de hiperparámetros, ofreciendo una alternativa práctica al fine-tuning cuando los recursos computacionales son limitados.

Palabras clave: OCR, Reconocimiento Óptico de Caracteres, PaddleOCR, Optimización de Hiperparámetros, Ray Tune, Procesamiento de Documentos, Inteligencia Artificial

---

Abstract

This Master's Thesis addresses the optimization of Artificial Intelligence-based Optical Character Recognition (OCR) systems for Spanish documents, specifically in a resource-constrained environment where model fine-tuning is not feasible. The main objective is to identify the optimal hyperparameter configuration that maximizes text recognition accuracy without requiring additional model training.

A comparative study of three open-source OCR solutions was conducted: EasyOCR, PaddleOCR (PP-OCRv5), and DocTR, evaluating their performance using standard CER (Character Error Rate) and WER (Word Error Rate) metrics on a corpus of academic documents in Spanish. After identifying PaddleOCR as the most promising solution, systematic hyperparameter optimization was performed using Ray Tune with the Optuna search algorithm, executing 64 different configurations.

Results demonstrate that hyperparameter optimization achieved significant performance improvement: CER was reduced from 7.78% to 1.49% (80.9% error reduction), achieving 98.51% character accuracy. The most relevant finding was that the textline_orientation parameter (text line orientation classification) has a critical impact, reducing CER by 69.7% when enabled. Additionally, the pixel detection threshold (text_det_thresh) was found to have a strong negative correlation (-0.52) with error, being the most influential continuous parameter.

This work demonstrates that substantial improvements in OCR systems can be obtained through hyperparameter optimization, offering a practical alternative to fine-tuning when computational resources are limited.

Keywords: OCR, Optical Character Recognition, PaddleOCR, Hyperparameter Optimization, Ray Tune, Document Processing, Artificial Intelligence

Índice de contenidos

[El índice se generará automáticamente en Word]

1. Introducción

Este capítulo presenta la motivación del trabajo, identificando el problema a resolver y justificando su relevancia. Se plantea la pregunta de investigación central y se describe la estructura del documento.

1.1. Motivación

El Reconocimiento Óptico de Caracteres (OCR) es una tecnología fundamental en la era de la digitalización documental. Su capacidad para convertir imágenes de texto en datos editables y procesables ha transformado sectores como la administración pública, el ámbito legal, la banca y la educación. Sin embargo, a pesar de los avances significativos impulsados por el aprendizaje profundo, la implementación práctica de sistemas OCR de alta precisión sigue presentando desafíos considerables.

El procesamiento de documentos en español presenta particularidades que complican el reconocimiento automático de texto. Los caracteres especiales (ñ, acentos), las variaciones tipográficas en documentos académicos y administrativos, y la presencia de elementos gráficos como tablas, encabezados y marcas de agua generan errores que pueden propagarse en aplicaciones downstream como la extracción de entidades nombradas o el análisis semántico.

Los modelos OCR basados en redes neuronales profundas, como los empleados en PaddleOCR, EasyOCR o DocTR, ofrecen un rendimiento impresionante en benchmarks estándar. No obstante, su adaptación a dominios específicos típicamente requiere fine-tuning con datos etiquetados del dominio objetivo y recursos computacionales significativos (GPUs de alta capacidad). Esta barrera técnica y económica excluye a muchos investigadores y organizaciones de beneficiarse plenamente de estas tecnologías.

La presente investigación surge de una necesidad práctica: optimizar un sistema OCR para documentos académicos en español sin disponer de recursos GPU para realizar fine-tuning. Esta restricción, lejos de ser una limitación excepcional, representa la realidad de muchos entornos académicos y empresariales donde el acceso a infraestructura de cómputo avanzada es limitado.

1.2. Planteamiento del trabajo

El problema central que aborda este trabajo puede formularse de la siguiente manera:

¿Es posible mejorar significativamente el rendimiento de modelos OCR preentrenados para documentos en español mediante la optimización sistemática de hiperparámetros, sin requerir fine-tuning ni recursos GPU?

Este planteamiento se descompone en las siguientes cuestiones específicas:

  1. Selección de modelo base: ¿Cuál de las soluciones OCR de código abierto disponibles (EasyOCR, PaddleOCR, DocTR) ofrece el mejor rendimiento base para documentos en español?
  1. Impacto de hiperparámetros: ¿Qué hiperparámetros del pipeline OCR tienen mayor influencia en las métricas de error (CER, WER)?
  1. Optimización automatizada: ¿Puede un proceso de búsqueda automatizada de hiperparámetros (mediante Ray Tune/Optuna) encontrar configuraciones que superen significativamente los valores por defecto?
  1. Viabilidad práctica: ¿Son los tiempos de inferencia y los recursos requeridos compatibles con un despliegue en entornos con recursos limitados?

La relevancia de este problema radica en su aplicabilidad inmediata. Una metodología reproducible para optimizar OCR sin fine-tuning beneficiaría a:

1.3. Estructura del trabajo

El presente documento se organiza en los siguientes capítulos:

Capítulo 2 - Contexto y Estado del Arte: Se presenta una revisión de las tecnologías OCR basadas en aprendizaje profundo, incluyendo las arquitecturas de detección y reconocimiento de texto, así como los trabajos previos en optimización de estos sistemas. Capítulo 3 - Objetivos y Metodología: Se definen los objetivos SMART del trabajo y se describe la metodología experimental seguida, incluyendo la preparación del dataset, las métricas de evaluación y el proceso de optimización con Ray Tune. Capítulo 4 - Desarrollo Específico de la Contribución: Este capítulo presenta el desarrollo completo del estudio comparativo y la optimización de hiperparámetros de sistemas OCR, estructurado en tres secciones: (4.1) planteamiento de la comparativa con la evaluación de EasyOCR, PaddleOCR y DocTR; (4.2) desarrollo de la comparativa con la optimización de hiperparámetros mediante Ray Tune; y (4.3) discusión y análisis de resultados. Capítulo 5 - Conclusiones y Trabajo Futuro: Se resumen las contribuciones del trabajo, se discute el grado de cumplimiento de los objetivos y se proponen líneas de trabajo futuro. Anexos: Se incluye el enlace al repositorio de código fuente y datos, así como tablas completas de resultados experimentales.

2. Contexto y estado del arte

Este capítulo presenta el marco teórico y tecnológico en el que se desarrolla el presente trabajo. Se revisan los fundamentos del Reconocimiento Óptico de Caracteres (OCR), la evolución de las técnicas basadas en aprendizaje profundo, las principales soluciones de código abierto disponibles y los trabajos previos relacionados con la optimización de sistemas OCR.

2.1. Contexto del problema

Definición y Evolución Histórica del OCR

El Reconocimiento Óptico de Caracteres (OCR) es el proceso de conversión de imágenes de texto manuscrito, mecanografiado o impreso en texto codificado digitalmente. La tecnología OCR ha evolucionado significativamente desde sus orígenes en la década de 1950:

Pipeline Moderno de OCR

Los sistemas OCR modernos siguen típicamente un pipeline de dos etapas:

``mermaid

flowchart LR

subgraph Input

A["Imagen de
documento"]

end

subgraph "Etapa 1: Detección"

B["Text Detection
(DB, EAST, CRAFT)"]

end

subgraph "Etapa 2: Reconocimiento"

C["Text Recognition
(CRNN, SVTR, Transformer)"]

end

subgraph Output

D["Texto
extraído"]

end

A --> B

B -->|"Regiones de texto
(bounding boxes)"| C

C --> D

style A fill:#e1f5fe

style D fill:#c8e6c9

` Figura 1. Pipeline típico de un sistema OCR moderno con etapas de detección y reconocimiento.
  1. Detección de texto (Text Detection): Localización de regiones que contienen texto en la imagen. Las arquitecturas más utilizadas incluyen:
- EAST (Efficient and Accurate Scene Text Detector)

- CRAFT (Character Region Awareness for Text Detection)

- DB (Differentiable Binarization)

  1. Reconocimiento de texto (Text Recognition): Transcripción del contenido textual de las regiones detectadas. Las arquitecturas predominantes son:
- CRNN (Convolutional Recurrent Neural Network) con CTC loss

- Arquitecturas encoder-decoder con atención

- Transformers (ViTSTR, TrOCR)

Métricas de Evaluación

Las métricas estándar para evaluar sistemas OCR son:

Character Error Rate (CER): Se calcula como CER = (S + D + I) / N, donde S = sustituciones, D = eliminaciones, I = inserciones, N = caracteres de referencia. Word Error Rate (WER): Se calcula de forma análoga pero a nivel de palabras en lugar de caracteres.

Un CER del 1% significa que 1 de cada 100 caracteres es erróneo. Para aplicaciones críticas como extracción de datos financieros o médicos, se requieren CER inferiores al 1%.

Particularidades del OCR para el Idioma Español

El español presenta características específicas que impactan el OCR:

2.2. Estado del arte

Soluciones OCR de Código Abierto

EasyOCR

EasyOCR es una biblioteca de OCR desarrollada por Jaided AI (2020) que soporta más de 80 idiomas. Sus características principales incluyen:

PaddleOCR

PaddleOCR es el sistema OCR desarrollado por Baidu como parte del ecosistema PaddlePaddle (2024). La versión PP-OCRv5, utilizada en este trabajo, representa el estado del arte en OCR industrial:

- Detector: DB (Differentiable Binarization) con backbone ResNet (Liao et al., 2020)

- Reconocedor: SVTR (Scene-Text Visual Transformer Recognition)

- Clasificador de orientación opcional

Tabla 1. Hiperparámetros configurables de PaddleOCR.
ParámetroDescripciónValor por defecto
text_det_threshUmbral de detección de píxeles0.3
text_det_box_threshUmbral de caja de detección0.6
text_det_unclip_ratioCoeficiente de expansión1.5
text_rec_score_threshUmbral de confianza de reconocimiento0.5
use_textline_orientationClasificación de orientaciónFalse
use_doc_orientation_classifyClasificación de orientación de documentoFalse
use_doc_unwarpingCorrección de deformaciónFalse
Fuente: Documentación oficial de PaddleOCR (PaddlePaddle, 2024).

DocTR

DocTR (Document Text Recognition) es una biblioteca desarrollada por Mindee (2021) orientada a la investigación:

- Detectores: DB, LinkNet

- Reconocedores: CRNN, SAR, ViTSTR

Comparativa de Arquitecturas

Tabla 2. Comparativa de soluciones OCR de código abierto.
ModeloTipoComponentesFortalezas Clave
EasyOCREnd-to-end (det + rec)CRAFT + CRNN/TransformerLigero, fácil de usar, multilingüe
PaddleOCREnd-to-end (det + rec + cls)DB + SVTR/CRNNSoporte multilingüe robusto, configurable
DocTREnd-to-end (det + rec)DB/LinkNet + CRNN/SAR/ViTSTROrientado a investigación, API limpia
Fuente: Documentación oficial de cada herramienta (JaidedAI, 2020; PaddlePaddle, 2024; Mindee, 2021).

Optimización de Hiperparámetros

Fundamentos

La optimización de hiperparámetros (HPO) busca encontrar la configuración de parámetros que maximiza (o minimiza) una métrica objetivo (Feurer & Hutter, 2019). A diferencia de los parámetros del modelo (pesos), los hiperparámetros no se aprenden durante el entrenamiento.

Los métodos de HPO incluyen:

Ray Tune y Optuna

Ray Tune es un framework de optimización de hiperparámetros escalable (Liaw et al., 2018) que permite: Optuna es una biblioteca de optimización bayesiana (Akiba et al., 2019) que implementa:

La combinación Ray Tune + Optuna permite búsquedas eficientes en espacios de alta dimensionalidad.

`mermaid

flowchart TD

subgraph "Ray Tune"

A["Espacio de
búsqueda"]

B["Scheduler
(gestión de trials)"]

C["Trial 1"]

D["Trial 2"]

E["Trial N"]

end

subgraph "Optuna (TPE)"

F["Modelo probabilístico
de la función objetivo"]

G["Sugiere nueva
configuración"]

end

subgraph "Evaluación"

H["Ejecuta modelo OCR
con config"]

I["Calcula métricas
(CER, WER)"]

end

A --> B

B --> C & D & E

C & D & E --> H

H --> I

I -->|"Resultados"| F

F --> G

G -->|"Nueva config"| B

style A fill:#fff3e0

style I fill:#e8f5e9

`` Figura 2. Arquitectura de optimización de hiperparámetros con Ray Tune y Optuna.

HPO en Sistemas OCR

La aplicación de HPO a sistemas OCR ha sido explorada principalmente en el contexto de:

  1. Preprocesamiento de imagen: Optimización de parámetros de binarización, filtrado y escalado (Liang et al., 2005)
  1. Arquitecturas de detección: Ajuste de umbrales de confianza y NMS (Non-Maximum Suppression)
  1. Post-procesamiento: Optimización de corrección ortográfica y modelos de lenguaje

Sin embargo, existe un vacío en la literatura respecto a la optimización sistemática de los hiperparámetros de inferencia en pipelines OCR modernos como PaddleOCR, especialmente para idiomas diferentes del inglés y chino.

Datasets y Benchmarks para Español

Los principales recursos para evaluación de OCR en español incluyen:

Los trabajos previos en OCR para español se han centrado principalmente en:

  1. Digitalización de archivos históricos (manuscritos coloniales)
  2. Procesamiento de documentos de identidad
  3. Reconocimiento de texto en escenas naturales

La optimización de hiperparámetros para documentos académicos en español representa una contribución original de este trabajo.

2.3. Conclusiones

Este capítulo ha presentado:

  1. Los fundamentos del OCR moderno y su pipeline de detección-reconocimiento
  2. Las tres principales soluciones de código abierto: EasyOCR, PaddleOCR y DocTR
  3. Los métodos de optimización de hiperparámetros, con énfasis en Ray Tune y Optuna
  4. Las particularidades del OCR para el idioma español

El estado del arte revela que, si bien existen soluciones OCR de alta calidad, su optimización para dominios específicos mediante ajuste de hiperparámetros (sin fine-tuning) ha recibido poca atención. Este trabajo contribuye a llenar ese vacío proponiendo una metodología reproducible para la optimización de PaddleOCR en documentos académicos en español.

3. Objetivos concretos y metodología de trabajo

Este capítulo establece los objetivos del trabajo siguiendo la metodología SMART (Doran, 1981) y describe la metodología experimental empleada para alcanzarlos. Se define un objetivo general y cinco objetivos específicos, todos ellos medibles y verificables.

3.1. Objetivo general

Optimizar el rendimiento de PaddleOCR para documentos académicos en español mediante ajuste de hiperparámetros, alcanzando un CER inferior al 2% sin requerir fine-tuning del modelo ni recursos GPU dedicados.

Justificación SMART del Objetivo General

CriterioCumplimiento
Específico (S)Se define claramente qué se quiere lograr: optimizar PaddleOCR mediante ajuste de hiperparámetros para documentos en español
Medible (M)Se establece una métrica cuantificable: CER < 2%
Alcanzable (A)Es viable dado que: (1) PaddleOCR permite configuración de hiperparámetros, (2) Ray Tune posibilita búsqueda automatizada, (3) No se requiere GPU
Relevante (R)El impacto es demostrable: mejora la extracción de texto en documentos académicos sin costes adicionales de infraestructura
Temporal (T)El plazo es un cuatrimestre, correspondiente al TFM

3.2. Objetivos específicos

OE1: Comparar soluciones OCR de código abierto

Evaluar el rendimiento base de EasyOCR, PaddleOCR y DocTR en documentos académicos en español, utilizando CER y WER como métricas, para seleccionar el modelo más prometedor.

OE2: Preparar un dataset de evaluación

Construir un dataset estructurado de imágenes de documentos académicos en español con su texto de referencia (ground truth) extraído del PDF original.

OE3: Identificar hiperparámetros críticos

Analizar la correlación entre los hiperparámetros de PaddleOCR y las métricas de error para identificar los parámetros con mayor impacto en el rendimiento.

OE4: Optimizar hiperparámetros con Ray Tune

Ejecutar una búsqueda automatizada de hiperparámetros utilizando Ray Tune con Optuna, evaluando al menos 50 configuraciones diferentes.

OE5: Validar la configuración optimizada

Comparar el rendimiento de la configuración baseline versus la configuración optimizada sobre el dataset completo, documentando la mejora obtenida.

3.3. Metodología del trabajo

3.3.1. Visión General

``mermaid

flowchart TD

A["Fase 1: Preparación del Dataset

• Conversión PDF → Imágenes (300 DPI)

• Extracción de texto de referencia (PyMuPDF)

• Estructura: carpetas img/ y txt/ pareadas"]

B["Fase 2: Benchmark Comparativo

• Evaluación de EasyOCR, PaddleOCR, DocTR

• Métricas: CER, WER

• Selección del modelo base"]

C["Fase 3: Definición del Espacio de Búsqueda

• Identificación de hiperparámetros configurables

• Definición de rangos y distribuciones

• Configuración de Ray Tune + Optuna"]

D["Fase 4: Optimización de Hiperparámetros

• Ejecución de 64 trials con Ray Tune

• Paralelización (2 trials concurrentes)

• Registro de métricas y configuraciones"]

E["Fase 5: Validación y Análisis

• Comparación baseline vs optimizado

• Análisis de correlaciones

• Documentación de resultados"]

A --> B --> C --> D --> E

`

3.3.2. Fase 1: Preparación del Dataset

Fuente de Datos

Se utilizaron documentos PDF académicos de UNIR (Universidad Internacional de La Rioja), específicamente las instrucciones para la elaboración del TFE del Máster en Inteligencia Artificial.

Proceso de Conversión

El script prepare_dataset.ipynb implementa:

  1. Conversión PDF a imágenes:
- Biblioteca: PyMuPDF (fitz)

- Resolución: 300 DPI

- Formato de salida: PNG

  1. Extracción de texto de referencia:
- Método:
page.get_text("dict") de PyMuPDF

- Preservación de estructura de líneas

- Tratamiento de texto vertical/marginal

- Normalización de espacios y saltos de línea

Estructura del Dataset

`mermaid

flowchart LR

dataset["dataset/"] --> d0["0/"]

d0 --> pdf["instrucciones.pdf"]

d0 --> img["img/"]

img --> img1["page_0001.png"]

img --> img2["page_0002.png"]

img --> imgN["..."]

d0 --> txt["txt/"]

txt --> txt1["page_0001.txt"]

txt --> txt2["page_0002.txt"]

txt --> txtN["..."]

dataset --> dots["..."]

`

Clase ImageTextDataset

Se implementó una clase Python para cargar pares imagen-texto:

`python

class ImageTextDataset:

def __init__(self, root):

# Carga pares (imagen, texto) de carpetas pareadas

def __getitem__(self, idx):

# Retorna (PIL.Image, str)

`

3.3.3. Fase 2: Benchmark Comparativo

Modelos Evaluados

ModeloVersiónConfiguración
EasyOCR-Idiomas: ['es', 'en']
PaddleOCRPP-OCRv5Modelos server_det + server_rec
DocTR-db_resnet50 + sar_resnet31

Métricas de Evaluación

Se utilizó la biblioteca jiwer para calcular:

`python

from jiwer import wer, cer

def evaluate_text(reference, prediction):

return {

'WER': wer(reference, prediction),

'CER': cer(reference, prediction)

}

`

3.3.4. Fase 3: Espacio de Búsqueda

Hiperparámetros Seleccionados

ParámetroTipoRango/ValoresDescripción
use_doc_orientation_classifyBooleano[True, False]Clasificación de orientación del documento
use_doc_unwarpingBooleano[True, False]Corrección de deformación del documento
textline_orientationBooleano[True, False]Clasificación de orientación de línea de texto
text_det_threshContinuo[0.0, 0.7]Umbral de detección de píxeles de texto
text_det_box_threshContinuo[0.0, 0.7]Umbral de caja de detección
text_det_unclip_ratioFijo0.0Coeficiente de expansión (fijado)
text_rec_score_threshContinuo[0.0, 0.7]Umbral de confianza de reconocimiento

Configuración de Ray Tune

`python

from ray import tune

from ray.tune.search.optuna import OptunaSearch

search_space = {

"use_doc_orientation_classify": tune.choice([True, False]),

"use_doc_unwarping": tune.choice([True, False]),

"textline_orientation": tune.choice([True, False]),

"text_det_thresh": tune.uniform(0.0, 0.7),

"text_det_box_thresh": tune.uniform(0.0, 0.7),

"text_det_unclip_ratio": tune.choice([0.0]),

"text_rec_score_thresh": tune.uniform(0.0, 0.7),

}

tuner = tune.Tuner(

trainable_paddle_ocr,

tune_config=tune.TuneConfig(

metric="CER",

mode="min",

search_alg=OptunaSearch(),

num_samples=64,

max_concurrent_trials=2

)

)

`

3.3.5. Fase 4: Ejecución de Optimización

Arquitectura de Ejecución

Debido a incompatibilidades entre Ray y PaddleOCR en el mismo proceso, se implementó una arquitectura basada en subprocesos:

`mermaid

flowchart LR

A["Ray Tune (proceso principal)"]

A --> B["Subprocess 1: paddle_ocr_tuning.py --config"]

B --> B_out["Retorna JSON con métricas"]

A --> C["Subprocess 2: paddle_ocr_tuning.py --config"]

C --> C_out["Retorna JSON con métricas"]

`

Script de Evaluación (paddle_ocr_tuning.py)

El script recibe hiperparámetros por línea de comandos:

`bash

python paddle_ocr_tuning.py \

--pdf-folder ./dataset \

--textline-orientation True \

--text-det-box-thresh 0.5 \

--text-det-thresh 0.4 \

--text-rec-score-thresh 0.6

`

Y retorna métricas en formato JSON:

`json {

"CER": 0.0125,

"WER": 0.1040,

"TIME": 331.09,

"PAGES": 5,

"TIME_PER_PAGE": 66.12

}

`

3.3.6. Fase 5: Validación

Protocolo de Validación

  1. Baseline: Ejecución con configuración por defecto de PaddleOCR
  2. Optimizado: Ejecución con mejor configuración encontrada
  3. Comparación: Evaluación sobre las 24 páginas del dataset completo
  4. Métricas reportadas: CER, WER, tiempo de procesamiento

3.3.7. Entorno de Ejecución

Hardware

ComponenteEspecificación
CPUIntel Core (especificar modelo)
RAM16 GB
GPUNo disponible (ejecución en CPU)
AlmacenamientoSSD

Software

ComponenteVersión
Sistema OperativoWindows 10/11
Python3.11.9
PaddleOCR3.3.2
PaddlePaddle3.2.2
Ray2.52.1
Optuna4.6.0

3.3.8. Limitaciones Metodológicas

  1. Tamaño del dataset: El dataset contiene 24 páginas de un único tipo de documento. Resultados pueden no generalizar a otros formatos.
  1. Ejecución en CPU: Los tiempos de procesamiento (~70s/página) serían significativamente menores con GPU.
  1. Ground truth imperfecto: El texto de referencia extraído de PDF puede contener errores en documentos con layouts complejos.
  1. Parámetro fijo: text_det_unclip_ratio` quedó fijado en 0.0 durante todo el experimento por decisión de diseño inicial.

3.4. Resumen del capítulo

Este capítulo ha establecido:

  1. Un objetivo general SMART: alcanzar CER < 2% mediante optimización de hiperparámetros
  2. Cinco objetivos específicos medibles y alcanzables
  3. Una metodología experimental en cinco fases claramente definidas
  4. El espacio de búsqueda de hiperparámetros y la configuración de Ray Tune
  5. Las limitaciones reconocidas del enfoque

El siguiente capítulo presenta el desarrollo específico de la contribución, incluyendo el benchmark comparativo de soluciones OCR, la optimización de hiperparámetros y el análisis de resultados.

4. Desarrollo específico de la contribución

Este capítulo presenta el desarrollo completo del estudio comparativo y la optimización de hiperparámetros de sistemas OCR. Se estructura según el tipo de trabajo "Comparativa de soluciones" establecido por las instrucciones de UNIR: planteamiento de la comparativa, desarrollo de la comparativa, y discusión y análisis de resultados.

4.1. Planteamiento de la comparativa

4.1.1. Introducción

Esta sección presenta los resultados del estudio comparativo realizado entre tres soluciones OCR de código abierto: EasyOCR, PaddleOCR y DocTR. Los experimentos fueron documentados en el notebook ocr_benchmark_notebook.ipynb del repositorio. El objetivo es identificar el modelo base más prometedor para la posterior fase de optimización de hiperparámetros.

4.1.2. Configuración del Experimento

Dataset de Evaluación

Se utilizó el documento "Instrucciones para la redacción y elaboración del TFE" del Máster Universitario en Inteligencia Artificial de UNIR, ubicado en la carpeta instructions/.

Tabla 3. Características del dataset de evaluación.
CaracterísticaValor
Número de páginas evaluadas5 (páginas 1-5 en benchmark inicial)
FormatoPDF digital (no escaneado)
IdiomaEspañol
Resolución de conversión300 DPI
Fuente: Elaboración propia.

Configuración de los Modelos

Según el código en ocr_benchmark_notebook.ipynb:

EasyOCR:

``python

easyocr_reader = easyocr.Reader(['es', 'en']) # Spanish and English

` PaddleOCR (PP-OCRv5): `python

paddleocr_model = PaddleOCR(

text_detection_model_name="PP-OCRv5_server_det",

text_recognition_model_name="PP-OCRv5_server_rec",

use_doc_orientation_classify=False,

use_doc_unwarping=False,

use_textline_orientation=True,

)

`

Versión utilizada: PaddleOCR 3.2.0 (según output del notebook)

DocTR:
`python

doctr_model = ocr_predictor(det_arch="db_resnet50", reco_arch="sar_resnet31", pretrained=True)

`

Métricas de Evaluación

Se utilizó la biblioteca jiwer para calcular CER y WER:

`python

from jiwer import wer, cer

def evaluate_text(reference, prediction):

return {'WER': wer(reference, prediction), 'CER': cer(reference, prediction)}

`

4.1.3. Resultados del Benchmark

Resultados de PaddleOCR (Datos del CSV)

Del archivo results/ai_ocr_benchmark_finetune_results_20251206_113206.csv, se obtienen los siguientes resultados de PaddleOCR para las páginas 5-9 del documento:

Tabla 4. Resultados de PaddleOCR por página (benchmark inicial).
PáginaWERCER
512.16%6.33%
612.81%6.40%
711.06%6.24%
88.13%1.54%
910.61%5.58%
Fuente:
results/ai_ocr_benchmark_finetune_results_20251206_113206.csv. Promedio PaddleOCR (páginas 5-9):

Comparativa de Modelos

Según la documentación del notebook ocr_benchmark_notebook.ipynb, los tres modelos evaluados representan diferentes paradigmas de OCR:

Tabla 5. Comparativa de arquitecturas OCR evaluadas.
ModeloTipoComponentesFortalezas Clave
EasyOCREnd-to-end (det + rec)DB + CRNN/TransformerLigero, fácil de usar, multilingüe
PaddleOCR (PP-OCR)End-to-end (det + rec + cls)DB + SRN/CRNNSoporte multilingüe robusto, pipeline configurable
DocTREnd-to-end (det + rec)DB/LinkNet + CRNN/SAR/VitSTROrientado a investigación, API limpia
Fuente: Documentación oficial de cada herramienta (JaidedAI, 2020; PaddlePaddle, 2024; Mindee, 2021).

Ejemplo de Salida OCR

Del archivo CSV, un ejemplo de predicción de PaddleOCR para la página 8:

"Escribe siempre al menos un párrafo de introducción en cada capítulo o apartado, explicando de qué vas a tratar en esa sección. Evita que aparezcan dos encabezados de nivel consecutivos sin ningún texto entre medias. [...] En esta titulacióon se cita de acuerdo con la normativa Apa."
Errores observados en este ejemplo:

4.1.4. Justificación de la Selección de PaddleOCR

Criterios de Selección

Basándose en los resultados obtenidos y la documentación del benchmark:

  1. Rendimiento: PaddleOCR obtuvo CER entre 1.54% y 6.40% en las páginas evaluadas
  2. Configurabilidad: PaddleOCR ofrece múltiples hiperparámetros ajustables:
- Umbrales de detección (
text_det_thresh, text_det_box_thresh)

- Umbral de reconocimiento (text_rec_score_thresh)

- Componentes opcionales (use_textline_orientation, use_doc_orientation_classify, use_doc_unwarping)

  1. Documentación oficial: [PaddleOCR Documentation](https://www.paddleocr.ai/v3.0.0/en/version3.x/pipeline_usage/OCR.html)

Decisión

Se selecciona PaddleOCR (PP-OCRv5) para la fase de optimización debido a:

4.1.5. Limitaciones del Benchmark

  1. Tamaño reducido: Solo 5 páginas evaluadas en el benchmark comparativo inicial
  2. Único tipo de documento: Documentos académicos de UNIR únicamente
  3. Ground truth: El texto de referencia se extrajo automáticamente del PDF, lo cual puede introducir errores en layouts complejos

4.1.6. Resumen de la Sección

Esta sección ha presentado:

  1. La configuración del benchmark según ocr_benchmark_notebook.ipynb
  2. Los resultados cuantitativos de PaddleOCR del archivo CSV de resultados
  3. La justificación de la selección de PaddleOCR para optimización
Fuentes de datos utilizadas:

4.2. Desarrollo de la comparativa: Optimización de hiperparámetros

4.2.1. Introducción

Esta sección describe el proceso de optimización de hiperparámetros de PaddleOCR utilizando Ray Tune con el algoritmo de búsqueda Optuna. Los experimentos fueron implementados en el notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb y los resultados se almacenaron en src/raytune_paddle_subproc_results_20251207_192320.csv.

4.2.2. Configuración del Experimento

Entorno de Ejecución

Según los outputs del notebook:

Tabla 6. Entorno de ejecución del experimento.
ComponenteVersión/Especificación
Python3.11.9
PaddlePaddle3.2.2
PaddleOCR3.3.2
Ray2.52.1
GPUNo disponible (CPU only)
Fuente: Outputs del notebook
src/paddle_ocr_fine_tune_unir_raytune.ipynb.

Dataset

Se utilizó un dataset estructurado en src/dataset/ creado mediante el notebook src/prepare_dataset.ipynb:

Espacio de Búsqueda

Según el código del notebook, se definió el siguiente espacio de búsqueda:

`python

search_space = {

"use_doc_orientation_classify": tune.choice([True, False]),

"use_doc_unwarping": tune.choice([True, False]),

"textline_orientation": tune.choice([True, False]),

"text_det_thresh": tune.uniform(0.0, 0.7),

"text_det_box_thresh": tune.uniform(0.0, 0.7),

"text_det_unclip_ratio": tune.choice([0.0]), # Fijado

"text_rec_score_thresh": tune.uniform(0.0, 0.7),

}

` Descripción de parámetros (según documentación de PaddleOCR):
ParámetroDescripción
use_doc_orientation_classifyClasificación de orientación del documento
use_doc_unwarpingCorrección de deformación del documento
textline_orientationClasificación de orientación de línea de texto
text_det_threshUmbral de detección de píxeles de texto
text_det_box_threshUmbral de caja de detección
text_det_unclip_ratioCoeficiente de expansión (fijado en 0.0)
text_rec_score_threshUmbral de confianza de reconocimiento

Configuración de Ray Tune

`python

tuner = tune.Tuner(

trainable_paddle_ocr,

tune_config=tune.TuneConfig(

metric="CER",

mode="min",

search_alg=OptunaSearch(),

num_samples=64,

max_concurrent_trials=2

),

run_config=air.RunConfig(verbose=2, log_to_file=False),

param_space=search_space

)

`

4.2.3. Resultados de la Optimización

Estadísticas Descriptivas

Del archivo CSV de resultados (raytune_paddle_subproc_results_20251207_192320.csv):

Tabla 7. Estadísticas descriptivas de los 64 trials de Ray Tune.
EstadísticaCERWERTiempo (s)Tiempo/Página (s)
count64646464
mean5.25%14.28%347.6169.42
std11.03%10.75%7.881.57
min1.15%9.89%320.9764.10
25%1.20%10.04%344.2468.76
50%1.23%10.20%346.4269.19
75%4.03%13.20%350.1469.93
max51.61%59.45%368.5773.63
Fuente:
src/raytune_paddle_subproc_results_20251207_192320.csv.

Mejor Configuración Encontrada

Según el análisis del notebook:

`

Best CER: 0.011535 (1.15%)

Best WER: 0.098902 (9.89%)

Configuración óptima:

textline_orientation: True

use_doc_orientation_classify: False

use_doc_unwarping: False

text_det_thresh: 0.4690

text_det_box_thresh: 0.5412

text_det_unclip_ratio: 0.0

text_rec_score_thresh: 0.6350

`

Análisis de Correlación

Correlación de Pearson entre parámetros y métricas de error (del notebook):

Correlación con CER:
ParámetroCorrelación
CER1.000
config/text_det_box_thresh0.226
config/text_rec_score_thresh-0.161
config/text_det_thresh-0.523
config/text_det_unclip_ratioNaN
Correlación con WER:
ParámetroCorrelación
WER1.000
config/text_det_box_thresh0.227
config/text_rec_score_thresh-0.173
config/text_det_thresh-0.521
config/text_det_unclip_ratioNaN
Hallazgo clave: El parámetro
text_det_thresh muestra la correlación más fuerte (-0.52), indicando que valores más altos de este umbral tienden a reducir el error.

Impacto del Parámetro textline_orientation

Según el análisis del notebook, este parámetro booleano tiene el mayor impacto:

Tabla 8. Impacto del parámetro textline_orientation en las métricas de error.
textline_orientationCER MedioWER Medio
True~3.76%~12.73%
False~12.40%~21.71%
Fuente: Análisis del notebook
src/paddle_ocr_fine_tune_unir_raytune.ipynb. Interpretación:

El CER medio es ~3.3x menor con textline_orientation=True (3.76% vs 12.40%). Además, la varianza es mucho menor, lo que indica resultados más consistentes. Para documentos en español con layouts mixtos (tablas, encabezados, direcciones), la clasificación de orientación ayuda a PaddleOCR a ordenar correctamente las líneas de texto.

`mermaid

%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#0098CD'}}}%%

xychart-beta

title "Impacto de textline_orientation en CER"

x-axis ["textline_orientation=False", "textline_orientation=True"]

y-axis "CER (%)" 0 --> 15

bar [12.40, 3.76]

` Figura 3. Comparación del CER medio según el valor del parámetro textline_orientation.

Análisis de Fallos

Los trials con CER muy alto (>40%) se produjeron cuando:

Ejemplo de trial con fallo catastrófico:

4.2.4. Comparación Baseline vs Optimizado

Resultados sobre Dataset Completo (24 páginas)

Del análisis final del notebook ejecutando sobre las 24 páginas:

Tabla 9. Comparación baseline vs configuración optimizada (24 páginas).
ModeloCERWER
PaddleOCR (Baseline)7.78%14.94%
PaddleOCR-HyperAdjust1.49%7.62%
Fuente: Ejecución final en notebook
src/paddle_ocr_fine_tune_unir_raytune.ipynb.

Métricas de Mejora

Tabla 10. Análisis de la mejora obtenida.
MétricaBaselineOptimizadoMejora AbsolutaReducción Error
CER7.78%1.49%-6.29 pp80.9%
WER14.94%7.62%-7.32 pp49.0%
Fuente: Elaboración propia a partir de los resultados experimentales.

Interpretación (del notebook)

"La optimización de hiperparámetros mejoró la precisión de caracteres de 92.2% a 98.5%, una ganancia de 6.3 puntos porcentuales. Aunque el baseline ya ofrecía resultados aceptables, la configuración optimizada reduce los errores residuales en un 80.9%."
`mermaid

%%{init: {'theme': 'base'}}%%

xychart-beta

title "Comparación Baseline vs Optimizado (24 páginas)"

x-axis ["CER", "WER"]

y-axis "Tasa de error (%)" 0 --> 16

bar "Baseline" [7.78, 14.94]

bar "Optimizado" [1.49, 7.62]

` Figura 4. Comparación de métricas de error entre configuración baseline y optimizada. Impacto práctico: En un documento de 10,000 caracteres:

4.2.5. Tiempo de Ejecución

MétricaValor
Tiempo total del experimento~6 horas (64 trials × ~6 min/trial)
Tiempo medio por trial367.72 segundos
Tiempo medio por página69.42 segundos
Total páginas procesadas64 trials × 5 páginas = 320 evaluaciones

4.2.6. Resumen de la Sección

Esta sección ha presentado:

  1. Configuración del experimento: 64 trials con Ray Tune + Optuna sobre 7 hiperparámetros
  2. Resultados estadísticos: CER medio 5.25%, CER mínimo 1.15%
  3. Hallazgos clave:
-
textline_orientation=True es crítico (reduce CER ~70%)

- text_det_thresh tiene correlación -0.52 con CER

- Valores bajos de text_det_thresh (<0.1) causan fallos catastróficos

  1. Mejora final: CER reducido de 7.78% a 1.49% (reducción del 80.9%)
Fuentes de datos:

4.3. Discusión y análisis de resultados

4.3.1. Introducción

Esta sección presenta un análisis consolidado de los resultados obtenidos en las fases de benchmark comparativo y optimización de hiperparámetros. Se discuten las implicaciones prácticas y se evalúa el cumplimiento de los objetivos planteados.

4.3.2. Resumen de Resultados

Resultados del Benchmark Comparativo

Del archivo results/ai_ocr_benchmark_finetune_results_20251206_113206.csv, PaddleOCR con configuración inicial (use_textline_orientation=True) obtuvo los siguientes resultados en las páginas 5-9:

PáginaWERCER
512.16%6.33%
612.81%6.40%
711.06%6.24%
88.13%1.54%
910.61%5.58%
Promedio10.95%5.22%

Resultados de la Optimización con Ray Tune

Del archivo src/raytune_paddle_subproc_results_20251207_192320.csv (64 trials):

MétricaValor
CER mínimo1.15%
CER medio5.25%
CER máximo51.61%
WER mínimo9.89%
WER medio14.28%
WER máximo59.45%

Comparación Final (Dataset Completo - 24 páginas)

Resultados del notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb:

ModeloCERPrecisión CaracteresWERPrecisión Palabras
PaddleOCR (Baseline)7.78%92.22%14.94%85.06%
PaddleOCR-HyperAdjust1.49%98.51%7.62%92.38%

4.3.3. Análisis de Resultados

Mejora Obtenida

Forma de MediciónValor
Mejora en precisión de caracteres (absoluta)+6.29 puntos porcentuales
Reducción del CER (relativa)80.9%
Mejora en precisión de palabras (absoluta)+7.32 puntos porcentuales
Reducción del WER (relativa)49.0%
Precisión final de caracteres98.51%

Impacto de Hiperparámetros Individuales

Parámetro
textline_orientation

Este parámetro booleano demostró ser el más influyente:

ValorCER MedioImpacto
True~3.76%Rendimiento óptimo
False~12.40%3.3x peor
Reducción del CER: 69.7% cuando se habilita la clasificación de orientación de línea. Parámetro
text_det_thresh

Correlación con CER: -0.523 (la más fuerte de los parámetros continuos)

RangoComportamiento
< 0.1Fallos catastróficos (CER 40-50%)
0.3 - 0.6Rendimiento óptimo
Valor óptimo0.4690
Parámetros con menor impacto
ParámetroCorrelación con CERValor óptimo
text_det_box_thresh+0.2260.5412
text_rec_score_thresh-0.1610.6350
use_doc_orientation_classify-False
use_doc_unwarping-False

Configuración Óptima Final

`python

config_optimizada = {

"textline_orientation": True, # CRÍTICO

"use_doc_orientation_classify": False,

"use_doc_unwarping": False,

"text_det_thresh": 0.4690, # Correlación -0.52

"text_det_box_thresh": 0.5412,

"text_det_unclip_ratio": 0.0,

"text_rec_score_thresh": 0.6350,

}

`

4.3.4. Discusión

Hallazgos Principales

  1. Importancia de la clasificación de orientación de línea: El parámetro textline_orientation=True es el factor más determinante. Esto tiene sentido para documentos con layouts mixtos (tablas, encabezados, direcciones) donde el orden correcto de las líneas de texto es crucial.
  1. Umbral de detección crítico: El parámetro text_det_thresh presenta un umbral mínimo efectivo (~0.1). Valores inferiores generan demasiados falsos positivos en la detección, corrompiendo el reconocimiento posterior.
  1. Componentes opcionales innecesarios: Para documentos académicos digitales (no escaneados), los módulos de corrección de orientación de documento (use_doc_orientation_classify) y corrección de deformación (use_doc_unwarping) no aportan mejora e incluso pueden introducir overhead.

Interpretación de la Correlación Negativa

La correlación negativa de text_det_thresh (-0.52) con el CER indica que:

Limitaciones de los Resultados

  1. Generalización: Los resultados se obtuvieron sobre documentos de un único tipo (instrucciones académicas UNIR). La configuración óptima puede variar para otros tipos de documentos.
  1. Ground truth automático: El texto de referencia se extrajo programáticamente del PDF. En layouts complejos, esto puede introducir errores en la evaluación.
  1. Ejecución en CPU: Los tiempos reportados (~69s/página) corresponden a ejecución en CPU. Con GPU, los tiempos serían significativamente menores.
  1. Parámetro fijo: text_det_unclip_ratio permaneció fijo en 0.0 durante todo el experimento por decisión de diseño.

Comparación con Objetivos

ObjetivoMetaResultadoCumplimiento
OE1: Comparar soluciones OCREvaluar EasyOCR, PaddleOCR, DocTRPaddleOCR seleccionado
OE2: Preparar datasetConstruir dataset estructuradoDataset de 24 páginas
OE3: Identificar hiperparámetros críticosAnalizar correlacionestextline_orientation y text_det_thresh identificados
OE4: Optimizar con Ray TuneMínimo 50 configuraciones64 trials ejecutados
OE5: Validar configuraciónDocumentar mejoraCER 7.78% → 1.49%
Objetivo GeneralCER < 2%CER = 1.49%

4.3.5. Implicaciones Prácticas

Recomendaciones de Configuración

Para documentos académicos en español similares a los evaluados:

  1. Obligatorio: use_textline_orientation=True
  2. Recomendado: text_det_thresh entre 0.4 y 0.5
  3. Opcional: text_det_box_thresh ~0.5, text_rec_score_thresh >0.6
  4. No recomendado: Habilitar use_doc_orientation_classify o use_doc_unwarping para documentos digitales

Impacto Cuantitativo

En un documento típico de 10,000 caracteres:

ConfiguraciónErrores estimados
Baseline~778 caracteres
Optimizada~149 caracteres
Reducción629 caracteres menos con errores

Aplicabilidad

Esta metodología de optimización es aplicable cuando:

4.3.6. Resumen de la Sección

Esta sección ha presentado:

  1. Los resultados consolidados del benchmark y la optimización
  2. El análisis del impacto de cada hiperparámetro
  3. La configuración óptima identificada
  4. La discusión de limitaciones y aplicabilidad
  5. El cumplimiento de los objetivos planteados
Resultado principal: Se logró reducir el CER del 7.78% al 1.49% (mejora del 80.9%) mediante optimización de hiperparámetros, cumpliendo el objetivo de alcanzar CER < 2%. Fuentes de datos:

5. Conclusiones y trabajo futuro

Este capítulo resume las principales conclusiones del trabajo, evalúa el grado de cumplimiento de los objetivos planteados y propone líneas de trabajo futuro que permitirían ampliar y profundizar los resultados obtenidos.

5.1. Conclusiones

5.1.1. Conclusiones Generales

Este Trabajo Fin de Máster ha demostrado que es posible mejorar significativamente el rendimiento de sistemas OCR preentrenados mediante optimización sistemática de hiperparámetros, sin requerir fine-tuning ni recursos GPU dedicados.

El objetivo principal del trabajo era alcanzar un CER inferior al 2% en documentos académicos en español. Los resultados obtenidos confirman el cumplimiento de este objetivo:

MétricaObjetivoResultado
CER< 2%1.49%

5.1.2. Conclusiones Específicas

Respecto a OE1 (Comparativa de soluciones OCR): Respecto a OE2 (Preparación del dataset): Respecto a OE3 (Identificación de hiperparámetros críticos): Respecto a OE4 (Optimización con Ray Tune): Respecto a OE5 (Validación de la configuración):

5.1.3. Hallazgos Clave

  1. Arquitectura sobre umbrales: Un único parámetro booleano (textline_orientation) tiene más impacto que todos los umbrales continuos combinados.
  1. Umbrales mínimos efectivos: Valores de text_det_thresh < 0.1 causan fallos catastróficos (CER >40%).
  1. Simplicidad para documentos digitales: Para documentos PDF digitales (no escaneados), los módulos de corrección de orientación y deformación son innecesarios.
  1. Optimización sin fine-tuning: Se puede mejorar significativamente el rendimiento de modelos preentrenados mediante ajuste de hiperparámetros de inferencia.

5.1.4. Contribuciones del Trabajo

  1. Metodología reproducible: Se documenta un proceso completo de optimización de hiperparámetros OCR con Ray Tune + Optuna.
  1. Análisis de hiperparámetros de PaddleOCR: Se cuantifica el impacto de cada parámetro configurable mediante correlaciones y análisis comparativo.
  1. Configuración óptima para español: Se proporciona una configuración validada para documentos académicos en español.
  1. Código fuente: Todo el código está disponible en el repositorio GitHub para reproducción y extensión.

5.1.5. Limitaciones del Trabajo

  1. Tipo de documento único: Los experimentos se realizaron únicamente sobre documentos académicos de UNIR. La generalización a otros tipos de documentos requiere validación adicional.
  1. Tamaño del dataset: 24 páginas es un corpus limitado para conclusiones estadísticamente robustas.
  1. Ground truth automático: La extracción automática del texto de referencia puede introducir errores en layouts complejos.
  1. Ejecución en CPU: Los tiempos de procesamiento (~69s/página) limitan la aplicabilidad en escenarios de alto volumen.
  1. Parámetro no explorado: text_det_unclip_ratio permaneció fijo en 0.0 durante todo el experimento.

5.2. Líneas de trabajo futuro

5.2.1. Extensiones Inmediatas

  1. Validación cruzada: Evaluar la configuración óptima en otros tipos de documentos en español (facturas, formularios, textos manuscritos).
  1. Exploración de text_det_unclip_ratio: Incluir este parámetro en el espacio de búsqueda.
  1. Dataset ampliado: Construir un corpus más amplio y diverso de documentos en español.
  1. Evaluación con GPU: Medir tiempos de inferencia con aceleración GPU.

5.2.2. Líneas de Investigación

  1. Transfer learning de hiperparámetros: Investigar si las configuraciones óptimas para un tipo de documento transfieren a otros dominios.
  1. Optimización multi-objetivo: Considerar simultáneamente CER, WER y tiempo de inferencia como objetivos.
  1. AutoML para OCR: Aplicar técnicas de AutoML más avanzadas (Neural Architecture Search, meta-learning).
  1. Comparación con fine-tuning: Cuantificar la brecha de rendimiento entre optimización de hiperparámetros y fine-tuning real.

5.2.3. Aplicaciones Prácticas

  1. Herramienta de configuración automática: Desarrollar una herramienta que determine automáticamente la configuración óptima para un nuevo tipo de documento.
  1. Integración en pipelines de producción: Implementar la configuración optimizada en sistemas reales de procesamiento documental.
  1. Benchmark público: Publicar un benchmark de OCR para documentos en español que facilite la comparación de soluciones.

5.2.4. Reflexión Final

Este trabajo demuestra que, en un contexto de recursos limitados donde el fine-tuning de modelos de deep learning no es viable, la optimización de hiperparámetros representa una alternativa práctica y efectiva para mejorar sistemas OCR.

La metodología propuesta es reproducible, los resultados son cuantificables, y las conclusiones son aplicables a escenarios reales de procesamiento documental. La reducción del CER del 7.78% al 1.49% representa una mejora sustancial que puede tener impacto directo en aplicaciones downstream como extracción de información, análisis semántico y búsqueda de documentos.

El código fuente y los datos experimentales están disponibles públicamente para facilitar la reproducción y extensión de este trabajo.

Referencias bibliográficas {.unnumbered}

Akiba, T., Sano, S., Yanase, T., Ohta, T., & Koyama, M. (2019). Optuna: A next-generation hyperparameter optimization framework. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 2623-2631. https://doi.org/10.1145/3292500.3330701

Baek, Y., Lee, B., Han, D., Yun, S., & Lee, H. (2019). Character region awareness for text detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 9365-9374. https://doi.org/10.1109/CVPR.2019.00959

Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(1), 281-305. https://jmlr.org/papers/v13/bergstra12a.html

Bergstra, J., Bardenet, R., Bengio, Y., & Kégl, B. (2011). Algorithms for hyper-parameter optimization. Advances in Neural Information Processing Systems, 24, 2546-2554. https://papers.nips.cc/paper/2011/hash/86e8f7ab32cfd12577bc2619bc635690-Abstract.html

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Lawrence Erlbaum Associates.

Doran, G. T. (1981). There's a S.M.A.R.T. way to write management's goals and objectives. Management Review, 70(11), 35-36.

Du, Y., Li, C., Guo, R., Yin, X., Liu, W., Zhou, J., Bai, Y., Yu, Z., Yang, Y., Dang, Q., & Wang, H. (2020). PP-OCR: A practical ultra lightweight OCR system. arXiv preprint arXiv:2009.09941. https://arxiv.org/abs/2009.09941

Du, Y., Li, C., Guo, R., Cui, C., Liu, W., Zhou, J., Lu, B., Yang, Y., Liu, Q., Hu, X., Yu, D., & Wang, H. (2023). PP-OCRv4: Mobile scene text detection and recognition. arXiv preprint arXiv:2310.05930. https://arxiv.org/abs/2310.05930

Feurer, M., & Hutter, F. (2019). Hyperparameter optimization. In F. Hutter, L. Kotthoff, & J. Vanschoren (Eds.), Automated machine learning: Methods, systems, challenges (pp. 3-33). Springer. https://doi.org/10.1007/978-3-030-05318-5_1

He, P., Huang, W., Qiao, Y., Loy, C. C., & Tang, X. (2016). Reading scene text in deep convolutional sequences. Proceedings of the AAAI Conference on Artificial Intelligence, 30(1), 3501-3508. https://doi.org/10.1609/aaai.v30i1.10291

JaidedAI. (2020). EasyOCR: Ready-to-use OCR with 80+ supported languages. GitHub. https://github.com/JaidedAI/EasyOCR

Liang, J., Doermann, D., & Li, H. (2005). Camera-based analysis of text and documents: A survey. International Journal of Document Analysis and Recognition, 7(2), 84-104. https://doi.org/10.1007/s10032-004-0138-z

Liao, M., Wan, Z., Yao, C., Chen, K., & Bai, X. (2020). Real-time scene text detection with differentiable binarization. Proceedings of the AAAI Conference on Artificial Intelligence, 34(07), 11474-11481. https://doi.org/10.1609/aaai.v34i07.6812

Liaw, R., Liang, E., Nishihara, R., Moritz, P., Gonzalez, J. E., & Stoica, I. (2018). Tune: A research platform for distributed model selection and training. arXiv preprint arXiv:1807.05118. https://arxiv.org/abs/1807.05118

Mindee. (2021). DocTR: Document Text Recognition. GitHub. https://github.com/mindee/doctr

Moritz, P., Nishihara, R., Wang, S., Tumanov, A., Liaw, R., Liang, E., Elibol, M., Yang, Z., Paul, W., Jordan, M. I., & Stoica, I. (2018). Ray: A distributed framework for emerging AI applications. 13th USENIX Symposium on Operating Systems Design and Implementation (OSDI 18), 561-577. https://www.usenix.org/conference/osdi18/presentation/moritz

Morris, A. C., Maier, V., & Green, P. D. (2004). From WER and RIL to MER and WIL: Improved evaluation measures for connected speech recognition. Eighth International Conference on Spoken Language Processing. https://doi.org/10.21437/Interspeech.2004-668

PaddlePaddle. (2024). PaddleOCR: Awesome multilingual OCR toolkits based on PaddlePaddle. GitHub. https://github.com/PaddlePaddle/PaddleOCR

Pearson, K. (1895). Notes on regression and inheritance in the case of two parents. Proceedings of the Royal Society of London, 58, 240-242. https://doi.org/10.1098/rspl.1895.0041

PyMuPDF. (2024). PyMuPDF documentation. https://pymupdf.readthedocs.io/

Shi, B., Bai, X., & Yao, C. (2016). An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(11), 2298-2304. https://doi.org/10.1109/TPAMI.2016.2646371

Smith, R. (2007). An overview of the Tesseract OCR engine. Ninth International Conference on Document Analysis and Recognition (ICDAR 2007), 2, 629-633. https://doi.org/10.1109/ICDAR.2007.4376991

Zhou, X., Yao, C., Wen, H., Wang, Y., Zhou, S., He, W., & Liang, J. (2017). EAST: An efficient and accurate scene text detector. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 5551-5560. https://doi.org/10.1109/CVPR.2017.283

Zoph, B., & Le, Q. V. (2017). Neural architecture search with reinforcement learning. International Conference on Learning Representations (ICLR). https://arxiv.org/abs/1611.01578

Anexo A. Código fuente y datos analizados {.unnumbered}

A.1 Repositorio del Proyecto

El código fuente completo y los datos utilizados en este trabajo están disponibles en el siguiente repositorio:

URL del repositorio: https://github.com/seryus/MastersThesis

El repositorio incluye:

A.2 Estructura del Repositorio

``

MastersThesis/

├── docs/ # Capítulos de la tesis en Markdown

├── src/

│ ├── paddle_ocr_fine_tune_unir_raytune.ipynb # Experimento principal

│ ├── paddle_ocr_tuning.py # Script de evaluación CLI

│ ├── dataset_manager.py # Clase ImageTextDataset

│ ├── prepare_dataset.ipynb # Preparación del dataset

│ └── raytune_paddle_subproc_results_*.csv # Resultados de 64 trials

├── results/ # Resultados de benchmarks

├── instructions/ # Instrucciones y plantilla UNIR

└── README.md

`

A.3 Requisitos de Software

Para reproducir los experimentos se requieren las siguientes dependencias:

ComponenteVersión
Python3.11.9
PaddlePaddle3.2.2
PaddleOCR3.3.2
Ray2.52.1
Optuna4.6.0
jiwer(última versión)
PyMuPDF(última versión)

A.4 Instrucciones de Ejecución

  1. Clonar el repositorio
  2. Instalar dependencias: pip install -r requirements.txt
  3. Ejecutar el notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb`

A.5 Licencia

El código se distribuye bajo licencia MIT.