Second Hand News

La informática es fácil. Todo lo que necesitas hacer es pulsar el botón correcto.

La IA en el centro de la red: predominio del tráfico automatizado y saltos en la capacidad de contexto

Tres hitos conocidos esta semana ofrecen una perspectiva sobre la transformación de la infraestructura digital: el tráfico generado por agentes de IA crece ocho veces más rápido que el de los usuarios humanos, el ritmo de lanzamientos ha alcanzado una densidad sin precedentes con doce nuevos modelos en siete días, y OpenAI ha desplegado GPT-5.4, elevando la ventana de contexto hasta el millón de tokens. La convergencia de estos factores muestra una tendencia estructural imparable.

El predominio del tráfico automatizado

Un informe publicado el 26 de marzo por HUMAN Security ha cuantificado una tendencia que los analistas venían anticipando. El tráfico automatizado está creciendo ocho veces más rápido que el tráfico humano, según el 2026 State of AI Traffic & Cyberthreat Benchmark Report. Durante 2025, el volumen mensual de tráfico generado por sistemas de IA creció un 187% de enero a diciembre, prácticamente triplicándose en el año, impulsado principalmente por tres sectores: comercio electrónico, medios y entretenimiento, y turismo y hostelería, que concentraron más del 95% de este tráfico.

Pero la cifra más significativa afecta a una subcategoría específica: la de los agentes autónomos. El tráfico generado por agentes de IA capaces de navegar y actuar en la web de forma independiente creció un 7.851% interanual. La diferencia respecto a los rastreadores tradicionales es cualitativa: mientras que los crawlers convencionales leen datos, los agentes de IA interactúan con ellos, llegando a completar procesos de compra, gestionar cuentas y navegar sesiones autenticadas.

Los bots de OpenAI (ChatGPT User, OAI-SearchBot, GPTBot y ChatGPT Agent) acumulan en torno al 69% de todo el tráfico de IA observado, seguidos de Meta-ExternalAgent con un 16% y las identidades de Anthropic con aproximadamente un 11%.

Esta transición ha forzado una evolución en las medidas de seguridad de los proovedores de contenido. En la actualidad, la identificación de un usuario ya no depende de etiquetas de *User-Agent*, cuya suplantación es trivial. Los sistemas de detección modernos implementan **biometría pasiva**: analizan la micro-aceleración del cursor, el ritmo de pulsaciones de teclado y el renderizado de gráficos ocultos (*Canvas*) para identificar trazas de imperfección que los modelos de IA aún no replican de forma fidedigna.

Densidad de lanzamientos: doce modelos en una semana

El ecosistema de desarrollo de IA mantiene una aceleración constante. Durante la primera semana de marzo se anunciaron más de doce modelos de alta relevancia, marcando el periodo de mayor actividad de lanzamientos en la historia reciente del sector. Entre ellos destaca Qwen 3.5, el nuevo modelo de Alibaba, que consolida la competitividad de los desarrolladores asiáticos en un mercado que ya no cuenta con un liderazgo exclusivamente occidental.

Aunque no todos estos modelos poseen el reconocimiento comercial de los líderes del mercado, su importancia técnica es crítica. La tendencia actual apunta hacia la especialización: sistemas diseñados específicamente para la generación de vídeo, razonamiento espacial 3D, optimización de kernels de GPU o procesamiento de lenguas minoritarias. Esta diversificación multiplica de forma inherente el tráfico automatizado que estos agentes generan al interactuar entre sí.

Ventanas de contexto: el salto al millón de tokens

El tercer eje de esta transformación es la presentación de GPT-5.4 por parte de OpenAI. Disponible en variantes Standard, Thinking y Pro, este modelo redefine las capacidades de procesamiento mediante una ventana de contexto de 1,05 millones de tokens en una sola sesión.

En términos prácticos, esta capacidad permite procesar de forma simultánea varios volúmenes de texto, documentación técnica extensa o el repositorio completo de un proyecto de software complejo. Una ventana de contexto de esta magnitud cambia la naturaleza de la interacción con la IA: el sistema deja de ser una herramienta de consulta para convertirse en un colaborador capaz de mantener la coherencia en proyectos de larga duración y analizar grandes corpus de datos sin pérdida de retentiva.

Un ciclo de retroalimentación autónomo

Estos indicadores convergen en una misma conclusión: la inteligencia artificial ha pasado de ser una herramienta de usuario a una entidad con presencia autónoma en la red. El aumento en la capacidad de razonamiento y memoria de los modelos genera un mayor flujo de datos autónomos que, a su vez, sirven de materia prima para el entrenamiento de las generaciones siguientes.

La línea que separa la automatización legítima de la maliciosa se estrecha: los comportamientos que antes activaban las alarmas de seguridad -navegación rápida, relleno automático de formularios- son ahora la norma para un agente de compras. Según los datos de medición interna de HUMAN Security, recogidos a través de su plataforma Human Defense Platform, solo medio punto porcentual separa la tasa de automatización benigna de la maliciosa.

IA, Internet, e-commerce

TOP