Un estudio realizado por la empresa Nemertes Research, especializada en tecnología, advierte que, en los próximos 3 años, Internet podría saturarse por la demanda provocando cortes en el servicio.

Por su parte AT&T asegura que, sin inversión en infraestructura, la actual arquitectura de red alcanzará su límite para el año 2010, necesitando de una inversión de $130 billones de dólares para mejorar la red a nivel global.

Con 100 millones de vídeos en línea, YouTube es la más grande videoteca del mundo. También es un importante consumidor de espacio: en 2006, con 27 Po., ( 27 millones de Go. –gigaoctectos) por mes, el sitio equivale al tránsito total que se produjo en Internet en el año 2000.

En efecto, el hecho de bajar películas, videojuegos, soporte en línea, VoIP (voz sobre IP), etiquetas RFID y el uso de audio y vídeo en streaming parece estar inundando las redes de telecomunicaciones.

Ahora los contenidos creados por los usuarios generan un tráfico nunca antes visto, sin sumar la cantidad de banda ancha que implica la proliferación a corto tiempo de los vídeos de Alta Definición (HD en inglés), que consume 7 a 10 veces más de banda ancha que el video tradicional en la red.

Entre 2007 y 2011, se prevee que la televisión por medio de Internet, llamada IPTV, se multiplicará por 10.

Un ejemplo de lo que puede ocurrir a medio plazo es la cantidad de vídeo en streaming que se puede utilizar a la vez en la posesión presidencial de Obama. Según Cisco Systems, para el año 2012 el tráfico de video en Internet será 400 veces el tráfico en Estados Unidos en el año 2000 y, junto con el vídeo bajo demanda, IPTV y el P2P, se pronostica que acaparará el 90% del consumo del tráfico IP de ese año.

Esto sin olvidar que, aunque ya hay mas de 1.500 millones de usuarios de Internet en el mundo, las tasas de penetración de banda ancha siguen teniendo tendencias a la alza.

Según el estudio 'La expansión del universo digital', elaborado por IDC y EMC, la cantidad de información digital disponible en el mundo arroja un promedio de 45 GB por cada habitante de la Tierra. Se calcula que en 2011 el universo digital será seis veces mayor al actual (1.800 exabytes), es decir, que el promedio por persona podría ser 270 GB.

El problema radica en que las redes actuales se están quedando cortas para la demanda de banda ancha que exigen las nuevas aplicaciones en Internet. Como bien mencionó la revista Technology Review, un artículo de revista es leído en Internet en 6 minutos. Ver "the evolution of dance" también requiere 6 minutos, pero requiere bajar 100 veces mas datos.

Hay que tener en cuenta que el principal inconveniente no está en las superautopistas, sino en los routers de Internet, que es donde se decide por qué fibra se dirigen los datos. Si muchos paquetes de datos llegan a la vez a dicha intersección, se pueden presentar problemas de congestión. El problema se incrementa cuando se transmite por streaming.

Teniendo en cuenta que el uso de contenidos y aplicativos cada vez mas "pesados" en Internet es un hecho y que seguirá siendo exponencial a medida que haya más penetración de banda ancha, la solución a largo plazo sería que los proveedores de Internet inviertan en las llamadas redes de nueva generación. Sin embargo, ello implica una inversión que pocos se pueden dar el gusto de realizar, no sólo por las condiciones económicas que ello implica, sino por el marco regulatorio actual en varias partes del mundo.

La solución provisional parece que pasará porque los proveedores controlen el intenso tráfico de la red y limiten las descargas de archivos. Para ello, existen varias opciones: o bien cobrar por el gigabyte o por el uso adicional de banda ancha, o limitar el uso de algunos servicios que pasan por sus redes.

La operadora de telecomunicaciones estadounidense Comcast Corporation ya se ha puesto manos a la obra para controlar el tráfico limitando el acceso a algunos usuarios que utilicen abusivamente la banda ancha. Por su parte, Time Warner Cable está probando limitaciones mensuales del ancho de banda, medidas criticadas por la Federal Communications Commission (FCC).

Otra opción planteada en un informe de Deloitte es la aplicación de la inteligencia a la red, lo que significaría conseguir optimizar el uso del ancho de banda, priorizando el tráfico de la red en función de su contenido y del perfil del usuario.

Otra aproximación que los ISP’s están tomando del tema es cooperando con las redes de P2P para compartir los datos mas eficientemente.

Dicho esquema, denominado "Provider Portal for Applications" (P4P), es un estándar abierto y voluntario donde los ISP`s comparten cierta información sobre sus redes con los servidores P2P. El resultado es claro: mejoras en la velocidad de transmisión y menor banda de ancha utilizada. Mas allá de los problemas legales que enfrentan los ISP a nivel de su responsabilidad por los contenidos que circulan en sus redes, es un intento interesante de mejorar la infraestructura existente.

¿Nos encontraremos frente a una saturación de la red total? Es muy poco probable. Sin embargo, las conexiones lentas podrían recordarnos la época inicial de Internet.

Mas allá de las limitaciones del tráfico en Internet, es vital un marco regulatorio que permita cuanto antes hacer las inversiones de infraestructura necesarias no sólo para evitar la saturación de Internet, sino para permitir el desarrollo de las aplicaciones que sobre la Red se están haciendo. De lo contrario, podríamos desincentivar la innovación olvidándonos de nuevas empresas que podrían alzcanzar la importancia que hoy tienen algunas otras como Amazon, Google y YouTube.

Para Nemertes, a pesar de la amplitud de las sumas preconizadas, las inversiones en infraestructura son tranquilamente realizables para un sector donde el mercado mundial superó, en 2007, los mil millones de euros.

Sin embargo, las dos opciones actuales (inversión en redes de nueva generación y la limitación de ancho de banda) tienen problemas que deben ser solucionados.

La inversión en redes de nueva generación necesita un impulso regulatorio urgente que permita a los grandes operadores tener cierta confianza en la recuperación de dichas inversiones. Sin embargo, para lograrlo deberán ser más que simples operadores de telecomunicaciones, lo que, junto con el hecho de la discriminación de paquetes en la segunda opción actual, como es la limitación de ancho de banda, nos lleva al intenso debate de la neutralidad de red.

En efecto, los ISP’s tendrían la posibilidad de discriminar paquetes a favor de sus propios usuarios, en detrimento de sus competidores. Una posibilidad para mitigar el impacto de dicha medida puede ser cobrarles a los usuarios que utilizan cierto límite de ancho de banda un cargo adicional. Y ¿los hábitos de consumo de los internautas?.

En efecto, después de más de 10 años de acceso ilimitado, es probable que no vean con buenos ojos que los proveedores de Internet bloqueen o limiten su acceso a contenidos o aplicaciones en la Red.

Nos encontramos frente a un reto vital para el desarrollo de la actual "sociedad tecnológica mundial". Un reto del que veremos muchas noticias durante el 2009, especialmente relacionadas a la regulación de las redes de nueva generación, el gran salvavidas de la saturación de la Red.

 

Fuente desde: adslayuda