Redes autónomas: Google Cloud entre la promesa y la caída

Entre promesas de redes sin intervención humana y caídas históricas, DTW Ignite 2025 expone la tensión entre la visión de Google Cloud y la realidad de la industria.

La industria de las telecomunicaciones vive obsesionada con la promesa de las redes autónomas: sistemas inteligentes que se gestionan, optimizan y reparan sin apenas intervención humana, a la velocidad del negocio digital. Y, sin embargo, la realidad insiste en recordarnos que ningún avance tecnológico viaja sin lastre.

Este contraste se hizo palpable en Copenhague, durante el DTW Ignite 2025, donde Google Cloud desplegó —con la habitual puesta en escena de Silicon Valley— su Autonomous Networks Operating Framework. ¿La premisa? Si Google ha conseguido operar “la mayor red privada del mundo” con una fracción del personal de cualquier telco regional, ¿por qué no compartir la receta de esa eficiencia con el resto del sector?

Angelo Libertuchi, máximo responsable de telecomunicaciones en Google Cloud, defendió en una entrevista con TelecomTV que el secreto está en la autonomía algorítmica, lo que equivale a modelos propios, integración vertical de IA y plataformas como Spanner y Vertex XAI. Todo, bajo el paraguas de una arquitectura donde los agentes inteligentes no solo detectan y corrigen fallos, sino que orquestan flujos de trabajo cruzando dominios técnicos y de negocio. Es, según Libertuchi, solo la “fase uno” de una hoja de ruta donde Google irá sumando modelos, algoritmos y alianzas con socios tan variados como Ericsson, Nokia, Amdocs, Capgemini y Accenture.

Pero la conversación, que bien podría parecer el anuncio de un futuro inminente, encuentra rápidamente el ancla de la realidad. Apenas unos días antes del evento, Google Cloud sufrió un apagón global —analizado a fondo en TeleSemana.com— que dejó fuera de servicio durante horas a grandes clientes como Spotify y Discord, y a proveedores estratégicos ¿Qué lección deja este incidente? Que incluso la infraestructura más avanzada puede caer, y que la autonomía, lejos de ser garantía de invulnerabilidad, depende de cada capa del stack —y de cada decisión automatizada.

Libertuchi, preguntado de frente por el incidente, no esquiva el tema y reconoce que el fallo no estuvo en la infraestructura per se, sino en una actualización automatizada del sistema de gestión de cuotas, un matiz técnico que, sin embargo, es revelador. El problema se desencadenó en minutos y evidenció la fragilidad inherente a la automatización masiva sin controles suficientes. El directivo de Google insiste en que tecnologías como Spanner aseguran “cero downtime”, pero el evento demuestra que la resiliencia no depende solo de la base de datos, sino de toda la arquitectura y la gobernanza de cambios.

El discurso de la soberanía digital, tan de moda en Europa y otras regiones recelosas de la nube pública, cobra una dimensión adicional tras el apagón. Libertuchi presume de soluciones como Google Distributed Cloud (capaz de operar desconectada incluso de la propia nube), integración local de Gemini y gestión de claves por parte del cliente. Ejemplos como Proximus y Deutsche Telekom (DT) muestran el esfuerzo de Google por adaptarse a los requisitos regulatorios y de soberanía nacional.

Sin embargo, la caída reciente solo refuerza el escepticismo: ¿quién asume la responsabilidad —y el coste— cuando la automatización falla? La resiliencia no se garantiza con SLAs; exige arquitecturas híbridas, redundancia y un nuevo contrato de confianza entre cliente y proveedor.

En este contexto, la estrategia de Google Cloud resulta pragmática ya que nunca se trata de “vender el paquete completo”, sino de probar valor caso a caso. Así lo han hecho con DT y Bell Canada, comenzando por la automatización del RAN y extendiendo gradualmente el marco autónomo a otras áreas, solo cuando se demuestra valor tangible. No es casual: que los operadores, presionados por el CAPEX, la fragmentación tecnológica y la caída de los márgenes, han aprendido a desconfiar de las soluciones milagrosas y a exigir pruebas concretas antes de apostar todo a una sola carta.

Quizá por eso, al final de la entrevista, Libertuchi elige la cautela por encima del triunfalismo. “Siempre estamos dispuestos a conversar sobre el nivel de garantías y la arquitectura adecuada para cada cliente”. Es una invitación abierta, pero también un reconocimiento implícito de los límites actuales.

La autonomía total sigue siendo un horizonte, no un destino inmediato. Y tras el apagón global, la pregunta no es si la nube pública es suficientemente buena, sino si el sector está dispuesto a asumir —y gestionar— el riesgo de automatizar su propia vulnerabilidad.

Tu opinión es importante ¿Qué te ha parecido este contenido?

2 0
Cuenta con más de 22 años de experiencia cubriendo el sector de las telecomunicaciones para América Latina. El Sr. Junquera ha viajado constantemente alrededor del mundo cubriendo los eventos de mayor relevancia para la industria en América, Europa y Asia. Su experiencia académica incluye un BA en periodismo escrito por la Universidad de Suffolk en Boston, MA, y un Master en Economía Internacional en la misma institución.

1 Comentario

  1. Con tanta bomba cayendo por todos lados, esperemos que todos estos grandes hub donde todos estamos conectados, mantengan su infraestructura 🤞

Deje su comentario

Recuperar contraseña

Por favor ingrese su nombre de usuario o dirección de correo electrónico. Recibirá un enlace para crear una nueva contraseña por correo electrónico.