¿Qué incluye el servicio de Fibra Segura?
El servicio Fibra Segura proporciona una conexión FTTH simétrica desde 100 Mbps con respaldo automático 4G, lo que asegura la continuidad operativa en caso de incidencias. Incluye el alquiler del equipo necesario, con reposición al día siguiente laborable en caso de avería, y direccionamiento fijo para facilitar el acceso a servidores y redes internas.
También cuenta con monitorización en tiempo real, lo que permite supervisar la ocupación de red, pérdida de paquetes y latencias, y un soporte técnico especializado para resolver cualquier incidencia. Además, el router se envía preconfigurado para una instalación rápida y sencilla.
Si tengo una MPLS con Sarenet, ¿ puedo utilizar esta conexión de Fibra Segura en mis centros de trabajo?
Sí, es posible integrar Fibra Segura dentro de una MPLS sin coste adicional.
¿Qué necesito para beneficiarme del este servicio de Fibra Segura?
Para contratar Fibra Segura, tu ubicación debe estar dentro de la cobertura FTTH de Sarenet. Nuestro equipo comercial puede informarte sobre la disponibilidad en tu zona. Puedes consultarlo llamando al 900 80 60 06 o escribiendo a comercial@sarenet.es.
El enlace de respaldo funcionará con tecnología 4G/5G, y la velocidad disponible dependerá de la cobertura en la zona donde se instale el router.
¿Cómo conecto los equipos de Fibra Segura que he recibido?
La instalación del equipo es sencilla. Primero, localiza la ONT (un pequeño dispositivo de marca Nokia o Huawei), que debe estar conectada mediante un cable de fibra óptica a la caja instalada por el personal técnico. Verifica que la luz PON esté fija y que la luz LOS esté apagada.
Luego, conecta un cable de red desde la única boca disponible en la ONT (o en la número 1, si tiene varias) hasta la boca número 1 del router Mikrotik. A continuación, usa otro cable de red para conectar la boca número 5 del router Mikrotik a tu red.
Si también has recibido un segundo router 4G de respaldo, conéctalo a tu switch junto al router principal. De esta forma, el sistema podrá realizar balanceo automático y mantener la conexión en caso de caída de la línea principal.
Si tienes dudas durante la instalación, puedes contactar con nuestro soporte técnico especializado para asistencia inmediata.
¿Qué se entiende exactamente por latencia en una red de comunicaciones?
La latencia es el tiempo que tarda un paquete de datos en viajar desde un punto de una red hasta otro y regresar con la respuesta. En términos simples, representa el retraso que existe entre una petición y la recepción de la respuesta dentro de un sistema de comunicaciones.
En una interacción típica entre una persona usuaria y un servidor, la persona usuaria envía una solicitud (por ejemplo, abrir una web o realizar una consulta a una base de datos) y el servidor devuelve una respuesta. La latencia mide el tiempo que tarda ese proceso en completarse.
Una forma intuitiva de entenderlo es imaginar un partido de ping-pong:
- La persona usuaria sería la jugadora A.
- El servidor sería el jugador B.
- La solicitud sería la pelota.
- La latencia sería el tiempo que tarda la pelota en volver al jugador que la lanzó.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Por qué la latencia es un parámetro crítico para el funcionamiento de servicios TI?
La latencia es crítica porque afecta directamente al rendimiento de las aplicaciones y a la experiencia de las personas usuarias. Si el tiempo de respuesta entre sistemas es elevado, las aplicaciones pueden comportarse de forma lenta o ineficiente.
Una latencia elevada puede provocar, entre otros efectos:
- Menor fluidez en la colaboración y el trabajo diario.
- Peor rendimiento de aplicaciones y servicios.
- Una experiencia de uso más lenta o frustrante.
Incluso en redes con gran capacidad de ancho de banda, una latencia elevada puede hacer que el sistema “parezca lento”, porque lo importante no es solo cuántos datos pueden enviarse, sino cuánto tarda cada intercambio de información.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué componentes del recorrido de un paquete de datos contribuyen a la latencia total de una comunicación?
La latencia total de una comunicación es el resultado del tiempo que tarda un paquete de datos en recorrer toda la red, desde el origen hasta el destino y de vuelta.
En ese recorrido intervienen múltiples elementos, entre ellos:
- La distancia entre los dos puntos de comunicación.
- Los dispositivos de red por los que pasan los datos.
- La congestión de la red.
- La tecnología utilizada para transmitir la información.
Cada uno de estos factores puede añadir retrasos adicionales al tránsito de los paquetes.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Cómo influye la distancia física entre origen y destino en la latencia de una conexión de red?
La distancia física entre los puntos de comunicación es uno de los factores más evidentes que afectan a la latencia. Cuanto mayor sea la distancia que debe recorrer la información, mayor será el tiempo necesario para completar el trayecto.
Por ejemplo, conectarse a un servidor ubicado en la misma ciudad generará menos latencia que hacerlo con uno situado en otro continente.
Este efecto se puede entender con la analogía del ping-pong: si la mesa es más grande, la pelota tarda más en ir de un lado a otro.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué papel juega el medio de transmisión (fibra, radio, etc.) en el tiempo de propagación de los datos?
La tecnología utilizada para transportar los datos también influye en la latencia. Distintos medios de transmisión presentan características diferentes en términos de estabilidad y tiempo de respuesta.
Estos son algunos ejemplos de rangos de latencia típicos:
- Fibra FTTH: aproximadamente 5-20 ms, muy estable y adecuada para aplicaciones en tiempo real.
- 4G/LTE: alrededor de 30-90 ms.
- 5G: entre 25-40 ms en condiciones habituales.
- Satélite LEO: aproximadamente 25-50 ms.
- Satélite GEO: entre 500-800 ms debido a la gran distancia hasta el satélite geostacionario.
Esto demuestra que la elección de tecnología puede tener un impacto significativo en el rendimiento de la red.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Por qué la latencia no depende únicamente de la distancia geográfica sino también del número de dispositivos intermedios de red?
Los datos que viajan por una red no siempre siguen una ruta directa entre origen y destino. Con frecuencia deben atravesar múltiples dispositivos de red, como rúteres o sistemas intermedios.
Cuando existen muchas etapas en la ruta de comunicación (lo que se conoce como saltos de red), cada dispositivo añade un pequeño retraso al proceso. Esto puede aumentar la latencia total incluso si la distancia geográfica no es especialmente grande.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Cómo afectan los rúteres y switches intermedios al tiempo total de tránsito de los paquetes?
Cada dispositivo intermedio que procesa un paquete de datos introduce cierto tiempo adicional en la comunicación. Esto se debe a que los equipos de red deben recibir, analizar y reenviar el paquete hacia su siguiente destino.
Si la ruta incluye numerosos dispositivos o si la red no está bien optimizada, los paquetes pueden atravesar múltiples nodos antes de llegar al destino, lo que incrementa el tiempo total de tránsito.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué diferencia existe entre latencia de propagación, latencia de transmisión y latencia de procesamiento dentro de una red?
La latencia total de una comunicación en red se compone de varios tipos de retraso que se producen durante el recorrido de los datos.
- Latencia de propagación: es el tiempo que tarda la señal en viajar físicamente por el medio de transmisión (fibra, radio, etc.) entre origen y destino. Depende principalmente de la distancia.
- Latencia de transmisión: es el tiempo necesario para enviar todos los bits de un paquete al medio de transmisión. Depende del tamaño del paquete y del ancho de banda del enlace.
- Latencia de procesamiento: es el tiempo que emplean rúteres, switches u otros dispositivos para analizar el paquete y decidir cómo reenviarlo.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Por qué una red aparentemente rápida en términos de ancho de banda puede seguir presentando problemas de rendimiento debido a la latencia?
El ancho de banda mide cuánta información puede transmitirse simultáneamente por una red, pero no mide la velocidad con la que cada paquete viaja.
Una red puede tener una gran capacidad de transmisión (por ejemplo, 1 Gbps) y aun así experimentar lentitud si el tiempo de respuesta entre sistemas es elevado.
Además, cuando el tráfico supera el ancho de banda disponible, se generan colas de paquetes que aumentan la latencia y el jitter, lo que deteriora el rendimiento de la red.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué relación existe entre latencia, jitter y pérdida de paquetes en la calidad de las comunicaciones?
La calidad de una red no depende únicamente de la latencia. Existen otros factores clave que influyen en el rendimiento.
Entre ellos destacan:
- Pérdida de paquetes (packet loss): ocurre cuando algunos paquetes enviados no llegan a su destino. Puede producirse por congestión, dispositivos saturados o mala calidad del medio de transmisión.
- Jitter: es la variación de la latencia a lo largo del tiempo. No se refiere al tiempo medio de respuesta, sino a lo irregular que es ese retraso.
Cuando el jitter es elevado, la comunicación se vuelve impredecible y el rendimiento de servicios en tiempo real se deteriora.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué técnicas o decisiones de arquitectura de red pueden ayudar a reducir la latencia percibida por las personas usuarias?
Estos son algunos ejemplos de estrategias para reducir la latencia en una red:
- Reducir la distancia entre sistemas, utilizando centros de datos cercanos o redes de distribución de contenidos.
- Elegir tecnologías de red más eficientes, como fibra óptica frente a tecnologías más antiguas.
- Seleccionar proveedores que optimicen las rutas de red y eviten congestión.
- Aplicar políticas de calidad de servicio (QoS) para priorizar tráfico crítico, como la voz IP.
Estas decisiones ayudan a mejorar el tiempo de respuesta percibido por las personas usuarias.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Cómo se puede medir la latencia real de una red?
Una forma habitual de medir la latencia es calcular el tiempo de ida y vuelta de un paquete de datos entre dos nodos de la red.
Este tiempo se mide en milisegundos y se conoce como RTT (Round Trip Time). Representa el tiempo total que tarda la información en enviarse desde un origen, llegar al destino y volver con la respuesta.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué herramientas suelen utilizarse para medir la latencia real de una red?
Una de las herramientas más comunes para medir la latencia es el comando ping.
Ping es una herramienta de diagnóstico de red que permite verificar la conectividad entre dos nodos, como servidores, ordenadores o rúteres.
Al ejecutarlo, el sistema envía paquetes de prueba y calcula el tiempo de ida y vuelta (RTT), proporcionando así una medición directa de la latencia de la conexión.

Fernando Donate
Ingeniero de Sistemas en Sarenet
¿Qué valores de latencia pueden considerarse aceptables o problemáticos en redes corporativas según el tipo de servicio utilizado?
Los valores de latencia aceptables dependen de la tecnología de red y del tipo de aplicación.
Estos son algunos rangos orientativos de latencia según la tecnología utilizada:
- FTTH: 5-20 ms
- 5G: 25-40 ms (aproximadamente)
- 4G: 30-90 ms
- Satélite LEO: 25-50 ms
- Satélite GEO: 500-800 ms
Las aplicaciones en tiempo real, como voz IP o videollamadas, requieren latencias bajas para funcionar correctamente, mientras que servicios asíncronos como el correo electrónico pueden tolerar retrasos mayores sin que la persona usuaria perciba problemas.

Fernando Donate
Ingeniero de Sistemas en Sarenet