Deepseek Logra una Compresión de Texto Diez Veces Mayor al Enseñar a las Computadoras a Ver Documentos como Imágenes en Lugar de Leer Palabra por Palabra

Por
CTOL Editors - Ken
7 min de lectura

La Revolución de la Visión: Cómo la IA Aprendió a Ver Texto en Lugar de Leerlo

DeepSeek de China desafía décadas de ortodoxia en IA con una técnica de compresión radical que podría redefinir cómo las máquinas procesan la información

SILICON VALLEY — En un avance que desafía las suposiciones fundamentales sobre la inteligencia artificial, investigadores de DeepSeek han demostrado que las computadoras podrían manejar documentos largos de manera más eficiente viéndolos como lo hacen los humanos —como imágenes— en lugar de procesarlos palabra por palabra.

Este avance, detallado en un documento publicado hoy, introduce un sistema llamado DeepSeek-OCR que logra algo que los científicos informáticos han buscado durante mucho tiempo: una forma de comprimir drásticamente los enormes costos computacionales de procesar textos extensos sin perder su significado.

En el centro de esta innovación se encuentra una idea contraintuitiva: en lugar de alimentar un sistema de IA con miles de 'tokens' de palabras individuales —el enfoque estándar que se vuelve exponencialmente más caro a medida que los documentos se alargan—, los investigadores renderizan el texto en una imagen. Un codificador de visión especializado comprime luego esa imagen a una fracción de los datos originales, que un modelo de lenguaje "descomprime" de nuevo en texto completo.

«No se trata solo de un OCR mejor», enfatizó el análisis del equipo de ingeniería de CTOL.digital, un colectivo independiente de investigación de IA. «Se trata de romper el cuello de botella del contexto de los LLM al intercambiar 'tokens' de texto costosos por 'tokens' de visión 2D densos».

Las Cifras Relevantes

Las implicaciones se hacen evidentes en las métricas. DeepSeek-OCR logra aproximadamente un 97% de precisión mientras comprime texto en una relación de 10 a 1, utilizando solo 100 'tokens' de visión para representar lo que normalmente requeriría 1.000 'tokens' de texto. Incluso con una compresión más agresiva de 20 a 1, el sistema mantiene una precisión del 60%.

En el 'benchmark' OmniDocBench, que prueba sistemas de IA en diseños de documentos complejos, fórmulas y tablas, DeepSeek-OCR superó a los sistemas establecidos utilizando un orden de magnitud menos recursos computacionales. Donde los sistemas competidores como MinerU 2.0 requerían un promedio de 6.000 'tokens' por página, DeepSeek-OCR logró resultados comparables o mejores con menos de 800.

Las implicaciones prácticas son asombrosas. Los investigadores informan capacidades de procesamiento que superan las 200.000 páginas de documentos al día en una sola GPU de gama alta, un rendimiento que podría escalar hasta los 33 millones de páginas diarias en un 'cluster' de tamaño moderado.

Una Nueva Arquitectura de Memoria

Quizás el aspecto más provocador de la investigación no sea el rendimiento del OCR en sí mismo, sino lo que sugiere sobre el futuro de los sistemas de IA. El equipo de CTOL.digital identificó lo que denominan el paradigma de la «memoria visual»: la posibilidad de que los sistemas de IA mantengan una memoria graduada, similar a la humana, donde la información reciente se almacena en alta resolución y el contexto más antiguo se «desvanece» gradualmente en imágenes comprimidas de menor resolución.

«Si los modelos pueden 'ver' texto directamente, la entrada de visión podría ser más barata que los 'tokens' de texto y más similar a la humana», señalaron investigadores de la comunidad que siguen el desarrollo. «El contexto reciente equivale a mosaicos de alta precisión, el más antiguo a modos diminutos; el olvido surge de forma natural».

Este enfoque podría alterar fundamentalmente la forma en que los sistemas de IA abordan el desafío persistente de la comprensión de contextos largos. Los modelos de lenguaje actuales tienen dificultades para procesar documentos, conversaciones o bases de código extensos porque el costo computacional crece cuadráticamente con la longitud. DeepSeek-OCR sugiere una alternativa: renderizar el contexto antiguo como imágenes comprimidas, manteniendo la información reciente con total fidelidad mientras permite un «olvido» natural del contexto distante.

La Arquitectura Detrás del Avance

La eficiencia del sistema se deriva de una arquitectura de codificador cuidadosamente diseñada de tres etapas que suma aproximadamente 380 millones de parámetros, combinada con un decodificador 'Mixture-of-Experts' de 3 mil millones de parámetros que activa solo 570 millones de parámetros por paso de inferencia.

La primera etapa del codificador utiliza atención con ventanas para procesar imágenes de alta resolución localmente sin saturar la memoria. Una red convolucional realiza luego un agresivo submuestreo de 16 veces —el paso crítico de compresión— antes de una etapa final de atención global que captura el contexto general sobre el número de 'tokens' ahora manejable.

El análisis de CTOL.digital destacó la elegancia de este diseño: «Una imagen de 1024×1024 genera 4096 'tokens' de parche, se submuestrea a 256 'tokens' antes de la atención global, manteniendo las activaciones manejables».

El entrenamiento del sistema requirió el procesamiento de aproximadamente 43 millones de pares imagen-texto para capacidades básicas de OCR, más 16 millones de pares especializados para tareas avanzadas como el análisis de gráficos y el reconocimiento de estructuras químicas. El equipo entrenó en 20 nodos, cada uno con ocho GPUs de gama alta, logrando el tipo de escala que define cada vez más la investigación de IA de vanguardia.

Más Allá del Reconocimiento de Texto

El sistema demuestra capacidades que van mucho más allá de la simple transcripción de texto. Puede analizar gráficos y convertirlos en datos estructurados, transformar diagramas químicos a notación estándar, interpretar figuras geométricas y manejar aproximadamente 100 idiomas. En las demostraciones, ha mostrado la capacidad de generar no solo texto plano, sino también formatos estructurados, incluyendo tablas HTML, Markdown y diseños basados en coordenadas.

Sin embargo, el equipo de CTOL.digital también señaló advertencias importantes: «Un 97% no es suficiente para casos de uso estrictos de OCR; la idea es interesante, pero la precisión podría quedarse corta en flujos de trabajo de alto riesgo». Para aplicaciones como historiales médicos o contratos financieros donde la precisión perfecta no es negociable, la supervisión humana seguiría siendo esencial.

Un Patrón de Innovación

Este desarrollo encaja en un patrón más amplio de DeepSeek-AI, que ha ganado reconocimiento por publicar investigaciones fundamentales que desafían los enfoques dominantes. «DeepSeek sigue lanzando ideas de modelos base que a otros les lleva años intentar», observaron miembros de la comunidad de investigación de IA. «Se siente como investigación orientada a la IAG (Inteligencia Artificial General) más que como ajustes de producto».

La investigación también plantea preguntas fascinantes sobre la futura relación entre la visión y el lenguaje en los sistemas de IA. Si los 'tokens' de visión pueden transportar aproximadamente diez veces el contenido semántico de los 'tokens' de texto —una regla general que surge de las relaciones de compresión—, ¿podrían los futuros sistemas de IA abandonar por completo la tokenización de texto en favor del procesamiento visual?

«Si esto escala», especularon los investigadores, «los LLM de contexto largo de próxima generación podrían recordar capturas de pantalla de pensamientos en lugar de cadenas de 'tokens' sin procesar».

El Camino por Delante

Persisten preguntas críticas. ¿Cómo se generaliza este enfoque más allá de los documentos cuidadosamente formateados al texto de forma libre? ¿Cuál es la política óptima de mosaico y resolución para diversos diseños? ¿Y se puede elevar el umbral de precisión manteniendo las ventajas de compresión?

El equipo de CTOL.digital enmarcó el desafío central: «¿Cómo se mapea exactamente el texto de forma libre a una representación que sea máximamente compresible?»

Sin embargo, incluso con estas preguntas abiertas, DeepSeek-OCR representa más que un avance incremental en el reconocimiento óptico de caracteres. Propone una forma fundamentalmente diferente para que los sistemas de IA manejen uno de sus desafíos más persistentes: el procesamiento eficiente de información larga y compleja.

En una era en la que los sistemas de IA son juzgados cada vez más por su capacidad para mantener el contexto, comprender los matices y operar eficientemente a escala, la técnica de la «compresión óptica de contextos» puede resultar ser más que un truco de ingeniería inteligente. Puede ser un atisbo de cómo la inteligencia artificial aprende a recordar —y a olvidar— de forma más similar a la nuestra.

El código y los pesos del modelo han sido publicados, asegurando que la comunidad de investigación más amplia pueda construir sobre estos hallazgos, validarlos y ampliarlos. Queda por ver si esto representa una exploración temporal o un cambio duradero en la arquitectura de la IA. Pero por ahora, la revolución de la visión ha comenzado, literalmente.


El documento técnico y los detalles de implementación están disponibles a través de los repositorios públicos de DeepSeek-AI. El análisis del equipo de ingeniería de CTOL.digital se realizó de forma independiente.

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal