
Universidad Internacional de La Rioja
Escuela Superior de Ingeniería y Tecnología
Máster Universitario en Inteligencia Artificial
Trabajo Fin de Estudio presentado por: Sergio Jiménez Jiménez
Tipo de trabajo: Comparativa de soluciones / Piloto experimental
Director: [Nombre del Director]
Fecha: 2025
El presente Trabajo Fin de Máster aborda la optimización de sistemas de Reconocimiento Óptico de Caracteres (OCR) basados en inteligencia artificial para documentos en español, específicamente en un entorno con recursos computacionales limitados donde el fine-tuning de modelos no es viable. El objetivo principal es identificar la configuración óptima de hiperparámetros que maximice la precisión del reconocimiento de texto sin requerir entrenamiento adicional de los modelos.
Se realizó un estudio comparativo de tres soluciones OCR de código abierto: EasyOCR, PaddleOCR (PP-OCRv5) y DocTR, evaluando su rendimiento mediante las métricas estándar CER (Character Error Rate) y WER (Word Error Rate) sobre un corpus de documentos académicos en español. Tras identificar PaddleOCR como la solución más prometedora, se procedió a una optimización sistemática de hiperparámetros utilizando Ray Tune con el algoritmo de búsqueda Optuna, ejecutando 64 configuraciones diferentes.
Los resultados demuestran que la optimización de hiperparámetros logró una mejora significativa del rendimiento: el CER se redujo de 7.78% a 1.49% (mejora del 80.9% en reducción de errores), alcanzando una precisión de caracteres del 98.51%. El hallazgo más relevante fue que el parámetro textline_orientation (clasificación de orientación de línea de texto) tiene un impacto crítico, reduciendo el CER en un 69.7% cuando está habilitado. Adicionalmente, se identificó que el umbral de detección de píxeles (text_det_thresh) presenta una correlación negativa fuerte (-0.52) con el error, siendo el parámetro continuo más influyente.
Este trabajo demuestra que es posible obtener mejoras sustanciales en sistemas OCR mediante optimización de hiperparámetros, ofreciendo una alternativa práctica al fine-tuning cuando los recursos computacionales son limitados.
Palabras clave: OCR, Reconocimiento Óptico de Caracteres, PaddleOCR, Optimización de Hiperparámetros, Ray Tune, Procesamiento de Documentos, Inteligencia Artificial---
This Master's Thesis addresses the optimization of Artificial Intelligence-based Optical Character Recognition (OCR) systems for Spanish documents, specifically in a resource-constrained environment where model fine-tuning is not feasible. The main objective is to identify the optimal hyperparameter configuration that maximizes text recognition accuracy without requiring additional model training.
A comparative study of three open-source OCR solutions was conducted: EasyOCR, PaddleOCR (PP-OCRv5), and DocTR, evaluating their performance using standard CER (Character Error Rate) and WER (Word Error Rate) metrics on a corpus of academic documents in Spanish. After identifying PaddleOCR as the most promising solution, systematic hyperparameter optimization was performed using Ray Tune with the Optuna search algorithm, executing 64 different configurations.
Results demonstrate that hyperparameter optimization achieved significant performance improvement: CER was reduced from 7.78% to 1.49% (80.9% error reduction), achieving 98.51% character accuracy. The most relevant finding was that the textline_orientation parameter (text line orientation classification) has a critical impact, reducing CER by 69.7% when enabled. Additionally, the pixel detection threshold (text_det_thresh) was found to have a strong negative correlation (-0.52) with error, being the most influential continuous parameter.
This work demonstrates that substantial improvements in OCR systems can be obtained through hyperparameter optimization, offering a practical alternative to fine-tuning when computational resources are limited.
Keywords: OCR, Optical Character Recognition, PaddleOCR, Hyperparameter Optimization, Ray Tune, Document Processing, Artificial Intelligence[El índice se generará automáticamente en Word]
Este capítulo presenta la motivación del trabajo, identificando el problema a resolver y justificando su relevancia. Se plantea la pregunta de investigación central y se describe la estructura del documento.
El Reconocimiento Óptico de Caracteres (OCR) es una tecnología fundamental en la era de la digitalización documental. Su capacidad para convertir imágenes de texto en datos editables y procesables ha transformado sectores como la administración pública, el ámbito legal, la banca y la educación. Sin embargo, a pesar de los avances significativos impulsados por el aprendizaje profundo, la implementación práctica de sistemas OCR de alta precisión sigue presentando desafíos considerables.
El procesamiento de documentos en español presenta particularidades que complican el reconocimiento automático de texto. Los caracteres especiales (ñ, acentos), las variaciones tipográficas en documentos académicos y administrativos, y la presencia de elementos gráficos como tablas, encabezados y marcas de agua generan errores que pueden propagarse en aplicaciones downstream como la extracción de entidades nombradas o el análisis semántico.
Los modelos OCR basados en redes neuronales profundas, como los empleados en PaddleOCR, EasyOCR o DocTR, ofrecen un rendimiento impresionante en benchmarks estándar. No obstante, su adaptación a dominios específicos típicamente requiere fine-tuning con datos etiquetados del dominio objetivo y recursos computacionales significativos (GPUs de alta capacidad). Esta barrera técnica y económica excluye a muchos investigadores y organizaciones de beneficiarse plenamente de estas tecnologías.
La presente investigación surge de una necesidad práctica: optimizar un sistema OCR para documentos académicos en español sin disponer de recursos GPU para realizar fine-tuning. Esta restricción, lejos de ser una limitación excepcional, representa la realidad de muchos entornos académicos y empresariales donde el acceso a infraestructura de cómputo avanzada es limitado.
El problema central que aborda este trabajo puede formularse de la siguiente manera:
¿Es posible mejorar significativamente el rendimiento de modelos OCR preentrenados para documentos en español mediante la optimización sistemática de hiperparámetros, sin requerir fine-tuning ni recursos GPU?
Este planteamiento se descompone en las siguientes cuestiones específicas:
La relevancia de este problema radica en su aplicabilidad inmediata. Una metodología reproducible para optimizar OCR sin fine-tuning beneficiaría a:
El presente documento se organiza en los siguientes capítulos:
Capítulo 2 - Contexto y Estado del Arte: Se presenta una revisión de las tecnologías OCR basadas en aprendizaje profundo, incluyendo las arquitecturas de detección y reconocimiento de texto, así como los trabajos previos en optimización de estos sistemas. Capítulo 3 - Objetivos y Metodología: Se definen los objetivos SMART del trabajo y se describe la metodología experimental seguida, incluyendo la preparación del dataset, las métricas de evaluación y el proceso de optimización con Ray Tune. Capítulo 4 - Desarrollo Específico de la Contribución: Este capítulo presenta el desarrollo completo del estudio comparativo y la optimización de hiperparámetros de sistemas OCR, estructurado en tres secciones: (4.1) planteamiento de la comparativa con la evaluación de EasyOCR, PaddleOCR y DocTR; (4.2) desarrollo de la comparativa con la optimización de hiperparámetros mediante Ray Tune; y (4.3) discusión y análisis de resultados. Capítulo 5 - Conclusiones y Trabajo Futuro: Se resumen las contribuciones del trabajo, se discute el grado de cumplimiento de los objetivos y se proponen líneas de trabajo futuro. Anexos: Se incluye el enlace al repositorio de código fuente y datos, así como tablas completas de resultados experimentales.Este capítulo presenta el marco teórico y tecnológico en el que se desarrolla el presente trabajo. Se revisan los fundamentos del Reconocimiento Óptico de Caracteres (OCR), la evolución de las técnicas basadas en aprendizaje profundo, las principales soluciones de código abierto disponibles y los trabajos previos relacionados con la optimización de sistemas OCR.
El Reconocimiento Óptico de Caracteres (OCR) es el proceso de conversión de imágenes de texto manuscrito, mecanografiado o impreso en texto codificado digitalmente. La tecnología OCR ha evolucionado significativamente desde sus orígenes en la década de 1950:
Los sistemas OCR modernos siguen típicamente un pipeline de dos etapas:
``mermaid
flowchart LR
subgraph Input
A["Imagen de
documento"]
end
subgraph "Etapa 1: Detección"
B["Text Detection
(DB, EAST, CRAFT)"]
end
subgraph "Etapa 2: Reconocimiento"
C["Text Recognition
(CRNN, SVTR, Transformer)"]
end
subgraph Output
D["Texto
extraído"]
end
A --> B
B -->|"Regiones de texto
(bounding boxes)"| C
C --> D
style A fill:#e1f5fe
style D fill:#c8e6c9
`
Figura 1. Pipeline típico de un sistema OCR moderno con etapas de detección y reconocimiento.
- Detección de texto (Text Detection): Localización de regiones que contienen texto en la imagen. Las arquitecturas más utilizadas incluyen:
- EAST (Efficient and Accurate Scene Text Detector)
- CRAFT (Character Region Awareness for Text Detection)
- DB (Differentiable Binarization)
- Reconocimiento de texto (Text Recognition): Transcripción del contenido textual de las regiones detectadas. Las arquitecturas predominantes son:
- CRNN (Convolutional Recurrent Neural Network) con CTC loss
- Arquitecturas encoder-decoder con atención
- Transformers (ViTSTR, TrOCR)
Métricas de Evaluación
Las métricas estándar para evaluar sistemas OCR son:
Character Error Rate (CER): Se calcula como CER = (S + D + I) / N, donde S = sustituciones, D = eliminaciones, I = inserciones, N = caracteres de referencia.
Word Error Rate (WER): Se calcula de forma análoga pero a nivel de palabras en lugar de caracteres.
Un CER del 1% significa que 1 de cada 100 caracteres es erróneo. Para aplicaciones críticas como extracción de datos financieros o médicos, se requieren CER inferiores al 1%.
Particularidades del OCR para el Idioma Español
El español presenta características específicas que impactan el OCR:
- Caracteres especiales: ñ, á, é, í, ó, ú, ü, ¿, ¡
- Diacríticos: Los acentos pueden confundirse con ruido o artefactos
- Longitud de palabras: Palabras generalmente más largas que en inglés
- Puntuación: Signos de interrogación y exclamación invertidos
2.2. Estado del arte
Soluciones OCR de Código Abierto
EasyOCR
EasyOCR es una biblioteca de OCR desarrollada por Jaided AI (2020) que soporta más de 80 idiomas. Sus características principales incluyen:
- Arquitectura: Detector CRAFT + Reconocedor CRNN/Transformer
- Fortalezas: Facilidad de uso, soporte multilingüe amplio, bajo consumo de memoria
- Limitaciones: Menor precisión en documentos complejos, opciones de configuración limitadas
- Caso de uso ideal: Prototipado rápido y aplicaciones con restricciones de memoria
PaddleOCR
PaddleOCR es el sistema OCR desarrollado por Baidu como parte del ecosistema PaddlePaddle (2024). La versión PP-OCRv5, utilizada en este trabajo, representa el estado del arte en OCR industrial:
- Arquitectura:
- Detector: DB (Differentiable Binarization) con backbone ResNet (Liao et al., 2020)
- Reconocedor: SVTR (Scene-Text Visual Transformer Recognition)
- Clasificador de orientación opcional
- Hiperparámetros configurables:
Tabla 1. Hiperparámetros configurables de PaddleOCR.
Parámetro Descripción Valor por defecto text_det_thresh Umbral de detección de píxeles 0.3 text_det_box_thresh Umbral de caja de detección 0.6 text_det_unclip_ratio Coeficiente de expansión 1.5 text_rec_score_thresh Umbral de confianza de reconocimiento 0.5 use_textline_orientation Clasificación de orientación False use_doc_orientation_classify Clasificación de orientación de documento False use_doc_unwarping Corrección de deformación False
Fuente: Documentación oficial de PaddleOCR (PaddlePaddle, 2024).
- Fortalezas: Alta precisión, pipeline altamente configurable, modelos específicos para servidor
- Limitaciones: Mayor complejidad de configuración, dependencia del framework PaddlePaddle
DocTR
DocTR (Document Text Recognition) es una biblioteca desarrollada por Mindee (2021) orientada a la investigación:
- Arquitectura:
- Detectores: DB, LinkNet
- Reconocedores: CRNN, SAR, ViTSTR
- Fortalezas: API limpia, orientación académica, salida estructurada de alto nivel
- Limitaciones: Menor rendimiento en español comparado con PaddleOCR
Comparativa de Arquitecturas
Tabla 2. Comparativa de soluciones OCR de código abierto.
Modelo Tipo Componentes Fortalezas Clave EasyOCR End-to-end (det + rec) CRAFT + CRNN/Transformer Ligero, fácil de usar, multilingüe PaddleOCR End-to-end (det + rec + cls) DB + SVTR/CRNN Soporte multilingüe robusto, configurable DocTR End-to-end (det + rec) DB/LinkNet + CRNN/SAR/ViTSTR Orientado a investigación, API limpia
Fuente: Documentación oficial de cada herramienta (JaidedAI, 2020; PaddlePaddle, 2024; Mindee, 2021).
Optimización de Hiperparámetros
Fundamentos
La optimización de hiperparámetros (HPO) busca encontrar la configuración de parámetros que maximiza (o minimiza) una métrica objetivo (Feurer & Hutter, 2019). A diferencia de los parámetros del modelo (pesos), los hiperparámetros no se aprenden durante el entrenamiento.
Los métodos de HPO incluyen:
- Grid Search: Búsqueda exhaustiva en una rejilla predefinida
- Random Search: Muestreo aleatorio del espacio de búsqueda (Bergstra & Bengio, 2012)
- Bayesian Optimization: Modelado probabilístico de la función objetivo (Bergstra et al., 2011)
- Algoritmos evolutivos: Optimización inspirada en evolución biológica
Ray Tune y Optuna
Ray Tune es un framework de optimización de hiperparámetros escalable (Liaw et al., 2018) que permite:
- Ejecución paralela de experimentos
- Early stopping de configuraciones poco prometedoras
- Integración con múltiples algoritmos de búsqueda
Optuna es una biblioteca de optimización bayesiana (Akiba et al., 2019) que implementa:
- Tree-structured Parzen Estimator (TPE)
- Pruning de trials no prometedores
- Visualización de resultados
La combinación Ray Tune + Optuna permite búsquedas eficientes en espacios de alta dimensionalidad.
`mermaid
flowchart TD
subgraph "Ray Tune"
A["Espacio de
búsqueda"]
B["Scheduler
(gestión de trials)"]
C["Trial 1"]
D["Trial 2"]
E["Trial N"]
end
subgraph "Optuna (TPE)"
F["Modelo probabilístico
de la función objetivo"]
G["Sugiere nueva
configuración"]
end
subgraph "Evaluación"
H["Ejecuta modelo OCR
con config"]
I["Calcula métricas
(CER, WER)"]
end
A --> B
B --> C & D & E
C & D & E --> H
H --> I
I -->|"Resultados"| F
F --> G
G -->|"Nueva config"| B
style A fill:#fff3e0
style I fill:#e8f5e9
``
Figura 2. Arquitectura de optimización de hiperparámetros con Ray Tune y Optuna.
La aplicación de HPO a sistemas OCR ha sido explorada principalmente en el contexto de:
Sin embargo, existe un vacío en la literatura respecto a la optimización sistemática de los hiperparámetros de inferencia en pipelines OCR modernos como PaddleOCR, especialmente para idiomas diferentes del inglés y chino.
Los principales recursos para evaluación de OCR en español incluyen:
Los trabajos previos en OCR para español se han centrado principalmente en:
La optimización de hiperparámetros para documentos académicos en español representa una contribución original de este trabajo.
Este capítulo ha presentado:
El estado del arte revela que, si bien existen soluciones OCR de alta calidad, su optimización para dominios específicos mediante ajuste de hiperparámetros (sin fine-tuning) ha recibido poca atención. Este trabajo contribuye a llenar ese vacío proponiendo una metodología reproducible para la optimización de PaddleOCR en documentos académicos en español.
Este capítulo establece los objetivos del trabajo siguiendo la metodología SMART (Doran, 1981) y describe la metodología experimental empleada para alcanzarlos. Se define un objetivo general y cinco objetivos específicos, todos ellos medibles y verificables.
Optimizar el rendimiento de PaddleOCR para documentos académicos en español mediante ajuste de hiperparámetros, alcanzando un CER inferior al 2% sin requerir fine-tuning del modelo ni recursos GPU dedicados.
| Criterio | Cumplimiento |
|---|---|
| Específico (S) | Se define claramente qué se quiere lograr: optimizar PaddleOCR mediante ajuste de hiperparámetros para documentos en español |
| Medible (M) | Se establece una métrica cuantificable: CER < 2% |
| Alcanzable (A) | Es viable dado que: (1) PaddleOCR permite configuración de hiperparámetros, (2) Ray Tune posibilita búsqueda automatizada, (3) No se requiere GPU |
| Relevante (R) | El impacto es demostrable: mejora la extracción de texto en documentos académicos sin costes adicionales de infraestructura |
| Temporal (T) | El plazo es un cuatrimestre, correspondiente al TFM |
Evaluar el rendimiento base de EasyOCR, PaddleOCR y DocTR en documentos académicos en español, utilizando CER y WER como métricas, para seleccionar el modelo más prometedor.
Construir un dataset estructurado de imágenes de documentos académicos en español con su texto de referencia (ground truth) extraído del PDF original.
Analizar la correlación entre los hiperparámetros de PaddleOCR y las métricas de error para identificar los parámetros con mayor impacto en el rendimiento.
Ejecutar una búsqueda automatizada de hiperparámetros utilizando Ray Tune con Optuna, evaluando al menos 50 configuraciones diferentes.
Comparar el rendimiento de la configuración baseline versus la configuración optimizada sobre el dataset completo, documentando la mejora obtenida.
``mermaid
flowchart TD
A["Fase 1: Preparación del Dataset
• Conversión PDF → Imágenes (300 DPI)
• Extracción de texto de referencia (PyMuPDF)
• Estructura: carpetas img/ y txt/ pareadas"]
B["Fase 2: Benchmark Comparativo
• Evaluación de EasyOCR, PaddleOCR, DocTR
• Métricas: CER, WER
• Selección del modelo base"]
C["Fase 3: Definición del Espacio de Búsqueda
• Identificación de hiperparámetros configurables
• Definición de rangos y distribuciones
• Configuración de Ray Tune + Optuna"]
D["Fase 4: Optimización de Hiperparámetros
• Ejecución de 64 trials con Ray Tune
• Paralelización (2 trials concurrentes)
• Registro de métricas y configuraciones"]
E["Fase 5: Validación y Análisis
• Comparación baseline vs optimizado
• Análisis de correlaciones
• Documentación de resultados"]
A --> B --> C --> D --> E
`
3.3.2. Fase 1: Preparación del Dataset
Fuente de Datos
Se utilizaron documentos PDF académicos de UNIR (Universidad Internacional de La Rioja), específicamente las instrucciones para la elaboración del TFE del Máster en Inteligencia Artificial.
Proceso de Conversión
El script
prepare_dataset.ipynb implementa:
- Conversión PDF a imágenes:
- Biblioteca: PyMuPDF (fitz)
- Resolución: 300 DPI
- Formato de salida: PNG
- Extracción de texto de referencia:
- Método: page.get_text("dict") de PyMuPDF
- Preservación de estructura de líneas
- Tratamiento de texto vertical/marginal
- Normalización de espacios y saltos de línea
Estructura del Dataset
`mermaid
flowchart LR
dataset["dataset/"] --> d0["0/"]
d0 --> pdf["instrucciones.pdf"]
d0 --> img["img/"]
img --> img1["page_0001.png"]
img --> img2["page_0002.png"]
img --> imgN["..."]
d0 --> txt["txt/"]
txt --> txt1["page_0001.txt"]
txt --> txt2["page_0002.txt"]
txt --> txtN["..."]
dataset --> dots["..."]
`
Clase ImageTextDataset
Se implementó una clase Python para cargar pares imagen-texto:
`python
class ImageTextDataset:
def __init__(self, root):
# Carga pares (imagen, texto) de carpetas pareadas
def __getitem__(self, idx):
# Retorna (PIL.Image, str)
`
3.3.3. Fase 2: Benchmark Comparativo
Modelos Evaluados
Modelo Versión Configuración EasyOCR - Idiomas: ['es', 'en'] PaddleOCR PP-OCRv5 Modelos server_det + server_rec DocTR - db_resnet50 + sar_resnet31
Métricas de Evaluación
Se utilizó la biblioteca
jiwer para calcular:
`python
from jiwer import wer, cer
def evaluate_text(reference, prediction):
return {
'WER': wer(reference, prediction),
'CER': cer(reference, prediction)
}
`
3.3.4. Fase 3: Espacio de Búsqueda
Hiperparámetros Seleccionados
Parámetro Tipo Rango/Valores Descripción use_doc_orientation_classify Booleano [True, False] Clasificación de orientación del documento use_doc_unwarping Booleano [True, False] Corrección de deformación del documento textline_orientation Booleano [True, False] Clasificación de orientación de línea de texto text_det_thresh Continuo [0.0, 0.7] Umbral de detección de píxeles de texto text_det_box_thresh Continuo [0.0, 0.7] Umbral de caja de detección text_det_unclip_ratio Fijo 0.0 Coeficiente de expansión (fijado) text_rec_score_thresh Continuo [0.0, 0.7] Umbral de confianza de reconocimiento
Configuración de Ray Tune
`python
from ray import tune
from ray.tune.search.optuna import OptunaSearch
search_space = {
"use_doc_orientation_classify": tune.choice([True, False]),
"use_doc_unwarping": tune.choice([True, False]),
"textline_orientation": tune.choice([True, False]),
"text_det_thresh": tune.uniform(0.0, 0.7),
"text_det_box_thresh": tune.uniform(0.0, 0.7),
"text_det_unclip_ratio": tune.choice([0.0]),
"text_rec_score_thresh": tune.uniform(0.0, 0.7),
}
tuner = tune.Tuner(
trainable_paddle_ocr,
tune_config=tune.TuneConfig(
metric="CER",
mode="min",
search_alg=OptunaSearch(),
num_samples=64,
max_concurrent_trials=2
)
)
`
3.3.5. Fase 4: Ejecución de Optimización
Arquitectura de Ejecución
Debido a incompatibilidades entre Ray y PaddleOCR en el mismo proceso, se implementó una arquitectura basada en subprocesos:
`mermaid
flowchart LR
A["Ray Tune (proceso principal)"]
A --> B["Subprocess 1: paddle_ocr_tuning.py --config"]
B --> B_out["Retorna JSON con métricas"]
A --> C["Subprocess 2: paddle_ocr_tuning.py --config"]
C --> C_out["Retorna JSON con métricas"]
`
Script de Evaluación (paddle_ocr_tuning.py)
El script recibe hiperparámetros por línea de comandos:
`bash
python paddle_ocr_tuning.py \
--pdf-folder ./dataset \
--textline-orientation True \
--text-det-box-thresh 0.5 \
--text-det-thresh 0.4 \
--text-rec-score-thresh 0.6
`
Y retorna métricas en formato JSON:
`json
{
"CER": 0.0125,
"WER": 0.1040,
"TIME": 331.09,
"PAGES": 5,
"TIME_PER_PAGE": 66.12
}
`
3.3.6. Fase 5: Validación
Protocolo de Validación
- Baseline: Ejecución con configuración por defecto de PaddleOCR
- Optimizado: Ejecución con mejor configuración encontrada
- Comparación: Evaluación sobre las 24 páginas del dataset completo
- Métricas reportadas: CER, WER, tiempo de procesamiento
3.3.7. Entorno de Ejecución
Hardware
Componente Especificación CPU Intel Core (especificar modelo) RAM 16 GB GPU No disponible (ejecución en CPU) Almacenamiento SSD
Software
Componente Versión Sistema Operativo Windows 10/11 Python 3.11.9 PaddleOCR 3.3.2 PaddlePaddle 3.2.2 Ray 2.52.1 Optuna 4.6.0
3.3.8. Limitaciones Metodológicas
- Tamaño del dataset: El dataset contiene 24 páginas de un único tipo de documento. Resultados pueden no generalizar a otros formatos.
- Ejecución en CPU: Los tiempos de procesamiento (~70s/página) serían significativamente menores con GPU.
- Ground truth imperfecto: El texto de referencia extraído de PDF puede contener errores en documentos con layouts complejos.
- Parámetro fijo:
text_det_unclip_ratio` quedó fijado en 0.0 durante todo el experimento por decisión de diseño inicial.
Este capítulo ha establecido:
El siguiente capítulo presenta el desarrollo específico de la contribución, incluyendo el benchmark comparativo de soluciones OCR, la optimización de hiperparámetros y el análisis de resultados.
Este capítulo presenta el desarrollo completo del estudio comparativo y la optimización de hiperparámetros de sistemas OCR. Se estructura según el tipo de trabajo "Comparativa de soluciones" establecido por las instrucciones de UNIR: planteamiento de la comparativa, desarrollo de la comparativa, y discusión y análisis de resultados.
Esta sección presenta los resultados del estudio comparativo realizado entre tres soluciones OCR de código abierto: EasyOCR, PaddleOCR y DocTR. Los experimentos fueron documentados en el notebook ocr_benchmark_notebook.ipynb del repositorio. El objetivo es identificar el modelo base más prometedor para la posterior fase de optimización de hiperparámetros.
Se utilizó el documento "Instrucciones para la redacción y elaboración del TFE" del Máster Universitario en Inteligencia Artificial de UNIR, ubicado en la carpeta instructions/.
| Característica | Valor |
|---|---|
| Número de páginas evaluadas | 5 (páginas 1-5 en benchmark inicial) |
| Formato | PDF digital (no escaneado) |
| Idioma | Español |
| Resolución de conversión | 300 DPI |
Según el código en ocr_benchmark_notebook.ipynb:
``python
easyocr_reader = easyocr.Reader(['es', 'en']) # Spanish and English
`
PaddleOCR (PP-OCRv5):
`python
paddleocr_model = PaddleOCR(
text_detection_model_name="PP-OCRv5_server_det",
text_recognition_model_name="PP-OCRv5_server_rec",
use_doc_orientation_classify=False,
use_doc_unwarping=False,
use_textline_orientation=True,
)
`
Versión utilizada: PaddleOCR 3.2.0 (según output del notebook)
DocTR:
`python
doctr_model = ocr_predictor(det_arch="db_resnet50", reco_arch="sar_resnet31", pretrained=True)
`
Métricas de Evaluación
Se utilizó la biblioteca
jiwer para calcular CER y WER:
`python
from jiwer import wer, cer
def evaluate_text(reference, prediction):
return {'WER': wer(reference, prediction), 'CER': cer(reference, prediction)}
`
4.1.3. Resultados del Benchmark
Resultados de PaddleOCR (Datos del CSV)
Del archivo
results/ai_ocr_benchmark_finetune_results_20251206_113206.csv, se obtienen los siguientes resultados de PaddleOCR para las páginas 5-9 del documento:
Tabla 4. Resultados de PaddleOCR por página (benchmark inicial).
Página WER CER 5 12.16% 6.33% 6 12.81% 6.40% 7 11.06% 6.24% 8 8.13% 1.54% 9 10.61% 5.58%
Fuente: results/ai_ocr_benchmark_finetune_results_20251206_113206.csv.
Promedio PaddleOCR (páginas 5-9):
- CER medio: ~5.22%
- WER medio: ~10.95%
Comparativa de Modelos
Según la documentación del notebook
ocr_benchmark_notebook.ipynb, los tres modelos evaluados representan diferentes paradigmas de OCR:
Tabla 5. Comparativa de arquitecturas OCR evaluadas.
Modelo Tipo Componentes Fortalezas Clave EasyOCR End-to-end (det + rec) DB + CRNN/Transformer Ligero, fácil de usar, multilingüe PaddleOCR (PP-OCR) End-to-end (det + rec + cls) DB + SRN/CRNN Soporte multilingüe robusto, pipeline configurable DocTR End-to-end (det + rec) DB/LinkNet + CRNN/SAR/VitSTR Orientado a investigación, API limpia
Fuente: Documentación oficial de cada herramienta (JaidedAI, 2020; PaddlePaddle, 2024; Mindee, 2021).
Ejemplo de Salida OCR
Del archivo CSV, un ejemplo de predicción de PaddleOCR para la página 8:
"Escribe siempre al menos un párrafo de introducción en cada capítulo o apartado, explicando de qué vas a tratar en esa sección. Evita que aparezcan dos encabezados de nivel consecutivos sin ningún texto entre medias. [...] En esta titulacióon se cita de acuerdo con la normativa Apa."
Errores observados en este ejemplo:
titulacióon en lugar de titulación (carácter duplicado)Apa en lugar de APA (capitalización)
4.1.4. Justificación de la Selección de PaddleOCR
Criterios de Selección
Basándose en los resultados obtenidos y la documentación del benchmark:
- Rendimiento: PaddleOCR obtuvo CER entre 1.54% y 6.40% en las páginas evaluadas
- Configurabilidad: PaddleOCR ofrece múltiples hiperparámetros ajustables:
- Umbrales de detección (text_det_thresh, text_det_box_thresh)
- Umbral de reconocimiento (
text_rec_score_thresh)
- Componentes opcionales (
use_textline_orientation, use_doc_orientation_classify, use_doc_unwarping)
- Documentación oficial: [PaddleOCR Documentation](https://www.paddleocr.ai/v3.0.0/en/version3.x/pipeline_usage/OCR.html)
Decisión
Se selecciona PaddleOCR (PP-OCRv5) para la fase de optimización debido a:
- Resultados iniciales prometedores (CER ~5%)
- Alta configurabilidad de hiperparámetros de inferencia
- Pipeline modular que permite experimentación
4.1.5. Limitaciones del Benchmark
- Tamaño reducido: Solo 5 páginas evaluadas en el benchmark comparativo inicial
- Único tipo de documento: Documentos académicos de UNIR únicamente
- Ground truth: El texto de referencia se extrajo automáticamente del PDF, lo cual puede introducir errores en layouts complejos
4.1.6. Resumen de la Sección
Esta sección ha presentado:
- La configuración del benchmark según
ocr_benchmark_notebook.ipynbLos resultados cuantitativos de PaddleOCR del archivo CSV de resultados La justificación de la selección de PaddleOCR para optimización
Fuentes de datos utilizadas:
ocr_benchmark_notebook.ipynb: Código del benchmarkresults/ai_ocr_benchmark_finetune_results_20251206_113206.csv: Resultados numéricosDocumentación oficial de PaddleOCR
4.2. Desarrollo de la comparativa: Optimización de hiperparámetros
4.2.1. Introducción
Esta sección describe el proceso de optimización de hiperparámetros de PaddleOCR utilizando Ray Tune con el algoritmo de búsqueda Optuna. Los experimentos fueron implementados en el notebook
src/paddle_ocr_fine_tune_unir_raytune.ipynb y los resultados se almacenaron en src/raytune_paddle_subproc_results_20251207_192320.csv.
4.2.2. Configuración del Experimento
Entorno de Ejecución
Según los outputs del notebook:
Tabla 6. Entorno de ejecución del experimento.
Componente Versión/Especificación Python 3.11.9 PaddlePaddle 3.2.2 PaddleOCR 3.3.2 Ray 2.52.1 GPU No disponible (CPU only)
Fuente: Outputs del notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb.
Dataset
Se utilizó un dataset estructurado en
src/dataset/ creado mediante el notebook src/prepare_dataset.ipynb:
- Estructura: Carpetas con subcarpetas
img/ y txt/ pareadasPáginas evaluadas por trial: 5 (páginas 5-10 del documento) Gestión de datos: Clase ImageTextDataset en src/dataset_manager.py
Espacio de Búsqueda
Según el código del notebook, se definió el siguiente espacio de búsqueda:
`python
search_space = {
"use_doc_orientation_classify": tune.choice([True, False]),
"use_doc_unwarping": tune.choice([True, False]),
"textline_orientation": tune.choice([True, False]),
"text_det_thresh": tune.uniform(0.0, 0.7),
"text_det_box_thresh": tune.uniform(0.0, 0.7),
"text_det_unclip_ratio": tune.choice([0.0]), # Fijado
"text_rec_score_thresh": tune.uniform(0.0, 0.7),
}
`
Descripción de parámetros (según documentación de PaddleOCR):
Parámetro Descripción use_doc_orientation_classify Clasificación de orientación del documento use_doc_unwarping Corrección de deformación del documento textline_orientation Clasificación de orientación de línea de texto text_det_thresh Umbral de detección de píxeles de texto text_det_box_thresh Umbral de caja de detección text_det_unclip_ratio Coeficiente de expansión (fijado en 0.0) text_rec_score_thresh Umbral de confianza de reconocimiento
Configuración de Ray Tune
`python
tuner = tune.Tuner(
trainable_paddle_ocr,
tune_config=tune.TuneConfig(
metric="CER",
mode="min",
search_alg=OptunaSearch(),
num_samples=64,
max_concurrent_trials=2
),
run_config=air.RunConfig(verbose=2, log_to_file=False),
param_space=search_space
)
`
- Métrica objetivo: CER (minimizar)
- Algoritmo de búsqueda: Optuna (TPE - Tree-structured Parzen Estimator)
- Número de trials: 64
- Trials concurrentes: 2
4.2.3. Resultados de la Optimización
Estadísticas Descriptivas
Del archivo CSV de resultados (
raytune_paddle_subproc_results_20251207_192320.csv):
Tabla 7. Estadísticas descriptivas de los 64 trials de Ray Tune.
Estadística CER WER Tiempo (s) Tiempo/Página (s) count 64 64 64 64 mean 5.25% 14.28% 347.61 69.42 std 11.03% 10.75% 7.88 1.57 min 1.15% 9.89% 320.97 64.10 25% 1.20% 10.04% 344.24 68.76 50% 1.23% 10.20% 346.42 69.19 75% 4.03% 13.20% 350.14 69.93 max 51.61% 59.45% 368.57 73.63
Fuente: src/raytune_paddle_subproc_results_20251207_192320.csv.
Mejor Configuración Encontrada
Según el análisis del notebook:
`
Best CER: 0.011535 (1.15%)
Best WER: 0.098902 (9.89%)
Configuración óptima:
textline_orientation: True
use_doc_orientation_classify: False
use_doc_unwarping: False
text_det_thresh: 0.4690
text_det_box_thresh: 0.5412
text_det_unclip_ratio: 0.0
text_rec_score_thresh: 0.6350
`
Análisis de Correlación
Correlación de Pearson entre parámetros y métricas de error (del notebook):
Correlación con CER:
Parámetro Correlación CER 1.000 config/text_det_box_thresh 0.226 config/text_rec_score_thresh -0.161 config/text_det_thresh -0.523 config/text_det_unclip_ratio NaN
Correlación con WER:
Parámetro Correlación WER 1.000 config/text_det_box_thresh 0.227 config/text_rec_score_thresh -0.173 config/text_det_thresh -0.521 config/text_det_unclip_ratio NaN
Hallazgo clave: El parámetro text_det_thresh muestra la correlación más fuerte (-0.52), indicando que valores más altos de este umbral tienden a reducir el error.
Impacto del Parámetro textline_orientation
Según el análisis del notebook, este parámetro booleano tiene el mayor impacto:
Tabla 8. Impacto del parámetro textline_orientation en las métricas de error.
textline_orientation CER Medio WER Medio True ~3.76% ~12.73% False ~12.40% ~21.71%
Fuente: Análisis del notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb.
Interpretación:
El CER medio es ~3.3x menor con
textline_orientation=True (3.76% vs 12.40%). Además, la varianza es mucho menor, lo que indica resultados más consistentes. Para documentos en español con layouts mixtos (tablas, encabezados, direcciones), la clasificación de orientación ayuda a PaddleOCR a ordenar correctamente las líneas de texto.
`mermaid
%%{init: {'theme': 'base', 'themeVariables': { 'primaryColor': '#0098CD'}}}%%
xychart-beta
title "Impacto de textline_orientation en CER"
x-axis ["textline_orientation=False", "textline_orientation=True"]
y-axis "CER (%)" 0 --> 15
bar [12.40, 3.76]
`
Figura 3. Comparación del CER medio según el valor del parámetro textline_orientation.
Análisis de Fallos
Los trials con CER muy alto (>40%) se produjeron cuando:
text_det_thresh < 0.1 (valores muy bajos)textline_orientation = False
Ejemplo de trial con fallo catastrófico:
- CER: 51.61%
- WER: 59.45%
- Configuración:
text_det_thresh=0.017, textline_orientation=True
4.2.4. Comparación Baseline vs Optimizado
Resultados sobre Dataset Completo (24 páginas)
Del análisis final del notebook ejecutando sobre las 24 páginas:
Tabla 9. Comparación baseline vs configuración optimizada (24 páginas).
Modelo CER WER PaddleOCR (Baseline) 7.78% 14.94% PaddleOCR-HyperAdjust 1.49% 7.62%
Fuente: Ejecución final en notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb.
Métricas de Mejora
Tabla 10. Análisis de la mejora obtenida.
Métrica Baseline Optimizado Mejora Absoluta Reducción Error CER 7.78% 1.49% -6.29 pp 80.9% WER 14.94% 7.62% -7.32 pp 49.0%
Fuente: Elaboración propia a partir de los resultados experimentales.
Interpretación (del notebook)
"La optimización de hiperparámetros mejoró la precisión de caracteres de 92.2% a 98.5%, una ganancia de 6.3 puntos porcentuales. Aunque el baseline ya ofrecía resultados aceptables, la configuración optimizada reduce los errores residuales en un 80.9%."
`mermaid
%%{init: {'theme': 'base'}}%%
xychart-beta
title "Comparación Baseline vs Optimizado (24 páginas)"
x-axis ["CER", "WER"]
y-axis "Tasa de error (%)" 0 --> 16
bar "Baseline" [7.78, 14.94]
bar "Optimizado" [1.49, 7.62]
`
Figura 4. Comparación de métricas de error entre configuración baseline y optimizada.
Impacto práctico: En un documento de 10,000 caracteres:
- Baseline: ~778 caracteres con error
- Optimizado: ~149 caracteres con error
- Diferencia: ~629 caracteres menos con errores
4.2.5. Tiempo de Ejecución
Métrica Valor Tiempo total del experimento ~6 horas (64 trials × ~6 min/trial) Tiempo medio por trial 367.72 segundos Tiempo medio por página 69.42 segundos Total páginas procesadas 64 trials × 5 páginas = 320 evaluaciones
4.2.6. Resumen de la Sección
Esta sección ha presentado:
- Configuración del experimento: 64 trials con Ray Tune + Optuna sobre 7 hiperparámetros
- Resultados estadísticos: CER medio 5.25%, CER mínimo 1.15%
- Hallazgos clave:
- textline_orientation=True es crítico (reduce CER ~70%)
-
text_det_thresh tiene correlación -0.52 con CER
- Valores bajos de
text_det_thresh (<0.1) causan fallos catastróficos
- Mejora final: CER reducido de 7.78% a 1.49% (reducción del 80.9%)
Fuentes de datos:
src/paddle_ocr_fine_tune_unir_raytune.ipynb: Código del experimentosrc/raytune_paddle_subproc_results_20251207_192320.csv: Resultados de 64 trialssrc/paddle_ocr_tuning.py: Script de evaluación
4.3. Discusión y análisis de resultados
4.3.1. Introducción
Esta sección presenta un análisis consolidado de los resultados obtenidos en las fases de benchmark comparativo y optimización de hiperparámetros. Se discuten las implicaciones prácticas y se evalúa el cumplimiento de los objetivos planteados.
4.3.2. Resumen de Resultados
Resultados del Benchmark Comparativo
Del archivo
results/ai_ocr_benchmark_finetune_results_20251206_113206.csv, PaddleOCR con configuración inicial (use_textline_orientation=True) obtuvo los siguientes resultados en las páginas 5-9:
Página WER CER 5 12.16% 6.33% 6 12.81% 6.40% 7 11.06% 6.24% 8 8.13% 1.54% 9 10.61% 5.58% Promedio 10.95% 5.22%
Resultados de la Optimización con Ray Tune
Del archivo
src/raytune_paddle_subproc_results_20251207_192320.csv (64 trials):
Métrica Valor CER mínimo 1.15% CER medio 5.25% CER máximo 51.61% WER mínimo 9.89% WER medio 14.28% WER máximo 59.45%
Comparación Final (Dataset Completo - 24 páginas)
Resultados del notebook
src/paddle_ocr_fine_tune_unir_raytune.ipynb:
Modelo CER Precisión Caracteres WER Precisión Palabras PaddleOCR (Baseline) 7.78% 92.22% 14.94% 85.06% PaddleOCR-HyperAdjust 1.49% 98.51% 7.62% 92.38%
4.3.3. Análisis de Resultados
Mejora Obtenida
Forma de Medición Valor Mejora en precisión de caracteres (absoluta) +6.29 puntos porcentuales Reducción del CER (relativa) 80.9% Mejora en precisión de palabras (absoluta) +7.32 puntos porcentuales Reducción del WER (relativa) 49.0% Precisión final de caracteres 98.51%
Impacto de Hiperparámetros Individuales
Parámetro textline_orientation
Este parámetro booleano demostró ser el más influyente:
Valor CER Medio Impacto True ~3.76% Rendimiento óptimo False ~12.40% 3.3x peor
Reducción del CER: 69.7% cuando se habilita la clasificación de orientación de línea.
Parámetro text_det_thresh
Correlación con CER: -0.523 (la más fuerte de los parámetros continuos)
Rango Comportamiento < 0.1 Fallos catastróficos (CER 40-50%) 0.3 - 0.6 Rendimiento óptimo Valor óptimo 0.4690
Parámetros con menor impacto
Parámetro Correlación con CER Valor óptimo text_det_box_thresh +0.226 0.5412 text_rec_score_thresh -0.161 0.6350 use_doc_orientation_classify - False use_doc_unwarping - False
Configuración Óptima Final
`python
config_optimizada = {
"textline_orientation": True, # CRÍTICO
"use_doc_orientation_classify": False,
"use_doc_unwarping": False,
"text_det_thresh": 0.4690, # Correlación -0.52
"text_det_box_thresh": 0.5412,
"text_det_unclip_ratio": 0.0,
"text_rec_score_thresh": 0.6350,
}
`
4.3.4. Discusión
Hallazgos Principales
- Importancia de la clasificación de orientación de línea: El parámetro
textline_orientation=True es el factor más determinante. Esto tiene sentido para documentos con layouts mixtos (tablas, encabezados, direcciones) donde el orden correcto de las líneas de texto es crucial.
- Umbral de detección crítico: El parámetro
text_det_thresh presenta un umbral mínimo efectivo (~0.1). Valores inferiores generan demasiados falsos positivos en la detección, corrompiendo el reconocimiento posterior.
- Componentes opcionales innecesarios: Para documentos académicos digitales (no escaneados), los módulos de corrección de orientación de documento (
use_doc_orientation_classify) y corrección de deformación (use_doc_unwarping) no aportan mejora e incluso pueden introducir overhead.
Interpretación de la Correlación Negativa
La correlación negativa de
text_det_thresh (-0.52) con el CER indica que:
- Umbrales más altos filtran detecciones de baja confianza
- Esto reduce falsos positivos que generan texto erróneo
- El reconocimiento es más preciso con menos regiones pero más confiables
Limitaciones de los Resultados
- Generalización: Los resultados se obtuvieron sobre documentos de un único tipo (instrucciones académicas UNIR). La configuración óptima puede variar para otros tipos de documentos.
- Ground truth automático: El texto de referencia se extrajo programáticamente del PDF. En layouts complejos, esto puede introducir errores en la evaluación.
- Ejecución en CPU: Los tiempos reportados (~69s/página) corresponden a ejecución en CPU. Con GPU, los tiempos serían significativamente menores.
- Parámetro fijo:
text_det_unclip_ratio permaneció fijo en 0.0 durante todo el experimento por decisión de diseño.
Comparación con Objetivos
Objetivo Meta Resultado Cumplimiento OE1: Comparar soluciones OCR Evaluar EasyOCR, PaddleOCR, DocTR PaddleOCR seleccionado ✓ OE2: Preparar dataset Construir dataset estructurado Dataset de 24 páginas ✓ OE3: Identificar hiperparámetros críticos Analizar correlaciones textline_orientation y text_det_thresh identificados ✓ OE4: Optimizar con Ray Tune Mínimo 50 configuraciones 64 trials ejecutados ✓ OE5: Validar configuración Documentar mejora CER 7.78% → 1.49% ✓ Objetivo General CER < 2% CER = 1.49% ✓
4.3.5. Implicaciones Prácticas
Recomendaciones de Configuración
Para documentos académicos en español similares a los evaluados:
- Obligatorio:
use_textline_orientation=TrueRecomendado: text_det_thresh entre 0.4 y 0.5Opcional: text_det_box_thresh ~0.5, text_rec_score_thresh >0.6No recomendado: Habilitar use_doc_orientation_classify o use_doc_unwarping para documentos digitales
Impacto Cuantitativo
En un documento típico de 10,000 caracteres:
Configuración Errores estimados Baseline ~778 caracteres Optimizada ~149 caracteres Reducción 629 caracteres menos con errores
Aplicabilidad
Esta metodología de optimización es aplicable cuando:
- No se dispone de recursos GPU para fine-tuning
- El modelo preentrenado ya tiene soporte para el idioma objetivo
- Se busca mejorar rendimiento sin reentrenar
4.3.6. Resumen de la Sección
Esta sección ha presentado:
- Los resultados consolidados del benchmark y la optimización
- El análisis del impacto de cada hiperparámetro
- La configuración óptima identificada
- La discusión de limitaciones y aplicabilidad
- El cumplimiento de los objetivos planteados
Resultado principal: Se logró reducir el CER del 7.78% al 1.49% (mejora del 80.9%) mediante optimización de hiperparámetros, cumpliendo el objetivo de alcanzar CER < 2%.
Fuentes de datos:
results/ai_ocr_benchmark_finetune_results_20251206_113206.csvsrc/raytune_paddle_subproc_results_20251207_192320.csvsrc/paddle_ocr_fine_tune_unir_raytune.ipynb`Este capítulo resume las principales conclusiones del trabajo, evalúa el grado de cumplimiento de los objetivos planteados y propone líneas de trabajo futuro que permitirían ampliar y profundizar los resultados obtenidos.
Este Trabajo Fin de Máster ha demostrado que es posible mejorar significativamente el rendimiento de sistemas OCR preentrenados mediante optimización sistemática de hiperparámetros, sin requerir fine-tuning ni recursos GPU dedicados.
El objetivo principal del trabajo era alcanzar un CER inferior al 2% en documentos académicos en español. Los resultados obtenidos confirman el cumplimiento de este objetivo:
| Métrica | Objetivo | Resultado |
|---|---|---|
| CER | < 2% | 1.49% |
ImageTextDataset facilita la carga de pares imagen-textotextline_orientation es el más influyente: reduce el CER en un 69.7% cuando está habilitadotext_det_thresh presenta la correlación más fuerte (-0.52) con el CERuse_doc_orientation_classify, use_doc_unwarping) no aportan mejora en documentos digitalestextline_orientation) tiene más impacto que todos los umbrales continuos combinados.text_det_thresh < 0.1 causan fallos catastróficos (CER >40%).text_det_unclip_ratio permaneció fijo en 0.0 durante todo el experimento.text_det_unclip_ratio: Incluir este parámetro en el espacio de búsqueda.Este trabajo demuestra que, en un contexto de recursos limitados donde el fine-tuning de modelos de deep learning no es viable, la optimización de hiperparámetros representa una alternativa práctica y efectiva para mejorar sistemas OCR.
La metodología propuesta es reproducible, los resultados son cuantificables, y las conclusiones son aplicables a escenarios reales de procesamiento documental. La reducción del CER del 7.78% al 1.49% representa una mejora sustancial que puede tener impacto directo en aplicaciones downstream como extracción de información, análisis semántico y búsqueda de documentos.
El código fuente y los datos experimentales están disponibles públicamente para facilitar la reproducción y extensión de este trabajo.
Akiba, T., Sano, S., Yanase, T., Ohta, T., & Koyama, M. (2019). Optuna: A next-generation hyperparameter optimization framework. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 2623-2631. https://doi.org/10.1145/3292500.3330701
Baek, Y., Lee, B., Han, D., Yun, S., & Lee, H. (2019). Character region awareness for text detection. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 9365-9374. https://doi.org/10.1109/CVPR.2019.00959
Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(1), 281-305. https://jmlr.org/papers/v13/bergstra12a.html
Bergstra, J., Bardenet, R., Bengio, Y., & Kégl, B. (2011). Algorithms for hyper-parameter optimization. Advances in Neural Information Processing Systems, 24, 2546-2554. https://papers.nips.cc/paper/2011/hash/86e8f7ab32cfd12577bc2619bc635690-Abstract.html
Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Lawrence Erlbaum Associates.
Doran, G. T. (1981). There's a S.M.A.R.T. way to write management's goals and objectives. Management Review, 70(11), 35-36.
Du, Y., Li, C., Guo, R., Yin, X., Liu, W., Zhou, J., Bai, Y., Yu, Z., Yang, Y., Dang, Q., & Wang, H. (2020). PP-OCR: A practical ultra lightweight OCR system. arXiv preprint arXiv:2009.09941. https://arxiv.org/abs/2009.09941
Du, Y., Li, C., Guo, R., Cui, C., Liu, W., Zhou, J., Lu, B., Yang, Y., Liu, Q., Hu, X., Yu, D., & Wang, H. (2023). PP-OCRv4: Mobile scene text detection and recognition. arXiv preprint arXiv:2310.05930. https://arxiv.org/abs/2310.05930
Feurer, M., & Hutter, F. (2019). Hyperparameter optimization. In F. Hutter, L. Kotthoff, & J. Vanschoren (Eds.), Automated machine learning: Methods, systems, challenges (pp. 3-33). Springer. https://doi.org/10.1007/978-3-030-05318-5_1
He, P., Huang, W., Qiao, Y., Loy, C. C., & Tang, X. (2016). Reading scene text in deep convolutional sequences. Proceedings of the AAAI Conference on Artificial Intelligence, 30(1), 3501-3508. https://doi.org/10.1609/aaai.v30i1.10291
JaidedAI. (2020). EasyOCR: Ready-to-use OCR with 80+ supported languages. GitHub. https://github.com/JaidedAI/EasyOCR
Liang, J., Doermann, D., & Li, H. (2005). Camera-based analysis of text and documents: A survey. International Journal of Document Analysis and Recognition, 7(2), 84-104. https://doi.org/10.1007/s10032-004-0138-z
Liao, M., Wan, Z., Yao, C., Chen, K., & Bai, X. (2020). Real-time scene text detection with differentiable binarization. Proceedings of the AAAI Conference on Artificial Intelligence, 34(07), 11474-11481. https://doi.org/10.1609/aaai.v34i07.6812
Liaw, R., Liang, E., Nishihara, R., Moritz, P., Gonzalez, J. E., & Stoica, I. (2018). Tune: A research platform for distributed model selection and training. arXiv preprint arXiv:1807.05118. https://arxiv.org/abs/1807.05118
Mindee. (2021). DocTR: Document Text Recognition. GitHub. https://github.com/mindee/doctr
Moritz, P., Nishihara, R., Wang, S., Tumanov, A., Liaw, R., Liang, E., Elibol, M., Yang, Z., Paul, W., Jordan, M. I., & Stoica, I. (2018). Ray: A distributed framework for emerging AI applications. 13th USENIX Symposium on Operating Systems Design and Implementation (OSDI 18), 561-577. https://www.usenix.org/conference/osdi18/presentation/moritz
Morris, A. C., Maier, V., & Green, P. D. (2004). From WER and RIL to MER and WIL: Improved evaluation measures for connected speech recognition. Eighth International Conference on Spoken Language Processing. https://doi.org/10.21437/Interspeech.2004-668
PaddlePaddle. (2024). PaddleOCR: Awesome multilingual OCR toolkits based on PaddlePaddle. GitHub. https://github.com/PaddlePaddle/PaddleOCR
Pearson, K. (1895). Notes on regression and inheritance in the case of two parents. Proceedings of the Royal Society of London, 58, 240-242. https://doi.org/10.1098/rspl.1895.0041
PyMuPDF. (2024). PyMuPDF documentation. https://pymupdf.readthedocs.io/
Shi, B., Bai, X., & Yao, C. (2016). An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(11), 2298-2304. https://doi.org/10.1109/TPAMI.2016.2646371
Smith, R. (2007). An overview of the Tesseract OCR engine. Ninth International Conference on Document Analysis and Recognition (ICDAR 2007), 2, 629-633. https://doi.org/10.1109/ICDAR.2007.4376991
Zhou, X., Yao, C., Wen, H., Wang, Y., Zhou, S., He, W., & Liang, J. (2017). EAST: An efficient and accurate scene text detector. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 5551-5560. https://doi.org/10.1109/CVPR.2017.283
Zoph, B., & Le, Q. V. (2017). Neural architecture search with reinforcement learning. International Conference on Learning Representations (ICLR). https://arxiv.org/abs/1611.01578
El código fuente completo y los datos utilizados en este trabajo están disponibles en el siguiente repositorio:
URL del repositorio: https://github.com/seryus/MastersThesisEl repositorio incluye:
``
MastersThesis/
├── docs/ # Capítulos de la tesis en Markdown
├── src/
│ ├── paddle_ocr_fine_tune_unir_raytune.ipynb # Experimento principal
│ ├── paddle_ocr_tuning.py # Script de evaluación CLI
│ ├── dataset_manager.py # Clase ImageTextDataset
│ ├── prepare_dataset.ipynb # Preparación del dataset
│ └── raytune_paddle_subproc_results_*.csv # Resultados de 64 trials
├── results/ # Resultados de benchmarks
├── instructions/ # Instrucciones y plantilla UNIR
└── README.md
`
A.3 Requisitos de Software
Para reproducir los experimentos se requieren las siguientes dependencias:
Componente Versión Python 3.11.9 PaddlePaddle 3.2.2 PaddleOCR 3.3.2 Ray 2.52.1 Optuna 4.6.0 jiwer (última versión) PyMuPDF (última versión)
A.4 Instrucciones de Ejecución
- Clonar el repositorio
- Instalar dependencias:
pip install -r requirements.txtEjecutar el notebook src/paddle_ocr_fine_tune_unir_raytune.ipynb`
El código se distribuye bajo licencia MIT.