Cuando los servidores se volvieron "lentos"

Léase el título sin entonación de pregunta, porque es una afirmación.

Desde que los enlaces residenciales (y obviamente, los de negocios) son “super rápidos” en algunas regiones (para países tan grandes como México, Estados Unidos, y Canadá, entre otros, sería muy difícil llegar a todas las regiones a ofrecer enlaces de fibra o de más de 10 megas “para todos”), la velocidad en Internet no es ya un factor determinante para contratar un acceso a la Red.

De hecho, podría ser en sí solamente un segundo término, ya que hoy día los servidores se han vuelto lentos.

¿Lentos? ¡Si a mí me parecen rapidísimos!

Bueno, sí. En apariencia, la mayoría de los servidores entregan las páginas y los recursos mayormente rápido, ya que los administradores de sistemas y muchos webmasters estamos comprometidos con la velocidad y la experiencia del usuario. Todo empieza a notarse cuando los usuarios descargan archivos grandes.

Típicamente, los webmasters esperamos que los usuarios tengan un acceso relativamente lento, digamos de hasta 5 mbits/segundo, pero con la popularidad de los accesos de fibra al hogar y redes como la de cablevisión que poco a poco van mejorando (aunque les queda aun mucho trabajo por hacer), nos damos cuenta que tener un acceso de 100 mbits del lado del servidor es casi una burla. Podemos, claro, configurar el servidor para una buena experiencia de navegación, pero cuando un usuario con una conexión de 100 mbits descargue a una vigésima parte de su capacidad, primero criticará a su proveedor, y por supuesto que al final se dará cuenta que su acceso es “demasiado rápido”.

El filesharing, y los accesos rápidos. Nueva encrucijada.

Desde hace algún tiempo ya, todos los servicios de filesharing (excepto Megaupload, ya en la tumba), me han parecido increíblemente lentos. Los enlaces a dichos servicios son muy rápidos, es cierto, pero se van limitando cada vez más por las distancias geográficas. Y es que aunque nosotros tengamos el acceso más rápido de la colonia, que la información viaje medio mundo por una fibra óptica es todo menos óptimo.

Citaba a Megaupload, quienes tenían bien repartidos sus servidores en varios territorios, lo que permitía que la información estuviera más disponible para usuarios de América, Asia, Europa y parte de África. Sin embargo, tras su cierre, solamente podemos notar que la centralización de la información (dicho sea de paso, eso se intentaba eliminar con Internet y es su origen primigenio), nos afecta a todos a la hora de transferir información desde y hacia servicios de filesharing que, le guste o no a las empresas que defienden solamente el derecho de autor, son sumamente necesarios en nuestro mundo conectado.

Peer-to-peer, con deficiencias

Mientras comenzamos a comprender que una de las pocas soluciones que nos quedan es utilizar el P2P para transferir grandes volúmenes de información, tenemos las graves deficiencias en hoteles de datos que no enrutan (vamos, enlazan todo el tráfico) de un servicio de conectividad a otro (un ejemplo sería Bestel/Telefónica con Telmex), por la gran cantidad de conexiones a nivel regional. Solamente Telmex ha demostrado tener rutas “sanas”, y no con calidad de enlace, sino “best effort”, lo que significa que, aunque nosotros queramos confiar en nuestro proveedor, será únicamente un juego de azar el lograr y mantener una velocidad y flujo constantes en nuestra transferencia de la información.

Si bien aparentemente esto no sería un problema para los usuarios de Internet promedio, la verdad es que cada vez más personas están interesadas en transmitir grandes cantidades de información de trabajo (conozco empresas que transfieren hasta 2TB diarios, sin ser trasnacionales), lo que complica poco a poco el panorama.

Soluciones, y panorama general

Visiblemente, el ancho de banda es un problema que no tiene una solución a corto plazo. De hecho, algunos proveedores ya comienzan a ofrecer conexiones para hogar de velocidad Gigabit, mientras a las empresas de hosting, centros de datos y otros interesados en ganar dinero con Internet, se les sigue cobrando una tarifa ridículamente alta por volumen de consumo, y no por tarifa plana. Así, en Estados Unidos vemos que proliferan servicios “domésticos” de centro de datos, en algunos casos muy profesionales y económicos, pero poco fiables a mediano y largo plazo. Esto no ayuda a nadie porque, en lugar de establecer como es debido un centro de datos, y poder ofrecer servicios más fiables permanentemente, algunos pequeños emprendedores entregan un servicio a veces demasiado lento y malo, pero con costos con los que es prácticamente imposible competir.

Una de las soluciones, del lado del consumidor, es que los proveedores de servicios dejen de competir solamente en entregar servicios de altísimas velocidades (que siguen siendo necesarios en varios lugares, pero no prioridad donde ya entregan velocidades más que aceptables), y se comiencen a centrar en estabilizar sus redes, sus interconexiones y tengan un mejor medio ambiente de negocios dentro y fuera de los hoteles de datos.

La solución en el nivel de centros de datos, es que los proveedores bien reduzcan los costos por volumen o, mejor aun, permitan un costo fijo mensual, ya que el uso de la red es prácticamente el mismo para todos los clientes, y el consumidor finalmente paga el costo porque un proveedor no puede escalar de conexiones de 100mbit a 1gbit, y no puede transferir información, a menudo vital, a una velocidad por la que ya le está pagando a su proveedor de Internet.

Si se logran mejorar estas circunstancias, estoy seguro que veremos que los 150 mbit son suficientes para el 85% de la población mundial, y la competencia no será solamente por el precio, ni por la velocidad, sino por la calidad, y eso justamente es lo que más hace falta en estos momentos.

En resumen

Mientras todavía hay personas que pagan accesos carísimos por 2 mbits por segundo, cuando existen las facilidades técnicas para llevar más velocidad a diferentes regiones (Axtel, por cierto, tendrá 3 nuevas ciudades en México para sus enlaces de fibra óptica residencial y PyME, y las presentarán en el primer o segundo trimestre del 2013) por precios muy semejantes, también se hace evidente que las pocas personas que contamos con accesos a Internet de velocidades “premier” comenzamos a sentir que es insuficiente la infraestructura, no solo de nuestros proveedores, sino también de los responsables de sitios. Y es que aunque existen los medios para ofrecer grandes velocidades para navegar en un sitio, es muy cierto que son costosos y no todos tenemos el nivel de financiamento de Facebook o Google.

Por ello, es responsabilidad casi exclusiva de los proveedores de acceso a Internet tanto a nivel carrier como de usuario final, que se eleve la calidad de servicio e interconexión de redes, se reduzcan aun más los precios y se elimine por completo el costo por consumo, ya que esta es la principal limitación para los emprendedores en Internet.

Además, dicho sea de paso, es urgente que lleguemos a la homologación de IPv6, ya que cada día hay más usuarios, y con ello varios dispositivos por usuario, que necesitan conectarse transparentemente a la Red, y no hay nada que nos garantice dicha conectividad.

¿Cual es tu experiencia con el acceso a Internet con que cuentas? ¿Con qué estás contento, con qué molesto, y con qué te identificas en este texto?

Comparte tu opinión y comenta.

blogroll

social