www.zonamovilidad.es

Neutralidad en la red

miércoles 22 de octubre de 2014, 13:04h

Escucha la noticia

Una reciente audiencia celebrada por la Comisión de Comercio, Ciencia y Transporte del Senado de Estados Unidos ha situado ante la opinión pública un debate que discurría larvado en círculos restringidos: la net neutrality.

 Texto: Pilar Bernat
Net neutraly es un principio que establece que todo el tráfico que circula por Internet debe ser tratado en condiciones de igualdad, al margen de cuál sea el contenido y quienes sean emisor y receptor. La fundación ENTER ha publicado un informe al respecto que, por su interés condensamos a continuación. En contra de posibles apariencias, no se trata de una controversia entre empresas, simplemente tecnológica, o exclusivamente estadounidenses. En torno al debate sobre la net neutrality se están ventilando cuestiones que afectarán en importante medida al futuro de la Sociedad de la Información. Es así porque se están dirimiendo dos concepciones diferentes sobre la estructura de Internet: por una parte, si debe permanecer neutral como viene siendo desde sus inicios o, por el contrario, si debe en alguna medida privatizarse para poder hacer frente a las nuevas exigencias, debidas precisamente a su desarrollo social, tecnológico y comercial. Las implicaciones que conlleva optar por uno u otro enfoque van más allá de configurar a Internet como un bien público o un espacio privado, alcanzando ámbitos como el fomento de la innovación, la inversión en redes de banda ancha, la estructura de los mercados, las políticas sobre la competencia, o los modelos y papel de la regulación en los nuevos mercados convergentes, lo que da una idea de los intereses estratégicos en juego. Control de Internet: el centro contra la periferia Internet constituye un fenómeno único en la historia. Ahora bien, este éxito no hubiera sido posible, sin un aspecto clave: su estructura neutral. En teoría de redes de comunicación existen dos modelos básicos de estructura, según donde esté localizada la inteligencia. Uno de inteligencia centralizada como sería el telefónico, en el que el tráfico es dirigido por los switches de los nodos centrales y otro descentralizado que sería, por ejemplo, la red de autopistas, en el que una vez se accede a ella se puede recorrer con total libertad, únicamente sujeto a unas condiciones previas (límite de velocidad, circular por la derecha, etcétera) que son ¡guales para todos. A la hora de diseñar la estructura de Internet se decidió por un modelo descentralizado, pensando, entre otras razones, que así seria más flexible y adaptable a su futura e imprevisible evolución posterior. Ello suponía, en la práctica, que en Internet la inteligencia estaría en las aplicaciones (periferia) y no en los routers (centro). Es lo que se denomina estructura end to end (e2e) o punto a punto. La trascendencia que para Internet ha tenido haber elegido este tipo de estructura ha ido mucho más allá de las cuestiones puramente tecnológicas, ya que se ha configurado como un network abierto, flexible y fácilmente escalable. ¿Por qué se cuestiona la net neutrality? Podría resultar paradójico que las mismas condiciones que han posibilitado el éxito de Internet, su carácter abierto y neutral, pudieran convertirse en las principales amenazas para su viabilidad futura. Sin embargo, es lo que puede ocurrir a consecuencia precisamente de su enorme éxito: están surgiendo nuevos desafíos, a los que Internet tendrá que dar respuesta satisfactoria, que son los que ponen en cuestión el principio de neutralidad de su estructura. Estos desafíos pueden agruparse en torno a dos exigencias principales: a) Proporcionar seguridad frente a conductas no amistosas Así como, en su inicio, Internet era utilizado por una comunidad reducida y homogénea, motivada por unos mismos intereses, fundamentalmente científicos y académicos, con comportamientos fiables, se ha pasado, por la amplitud de su uso y la gran heterogeneidad de internautas, a la proliferación de conductas no amistosas (hackers, defraudadores, etc.) y contenidos no deseables (pornográficos, terroristas...), favoreciendo la tendencia a plantear la necesidad de establecer algún tipo de control que evite o minimice los daños potenciales de esos tipos de conductas y contenidos. Sin embargo, tal eventualidad se enfrenta con un grave problema: Internet no tiene establecido ningún mecanismo de seguridad en su arquitectura. b) Facilitar la calidad de las nuevas aplicaciones El desarrollo de Internet y el avance de las tecnologías, especialmente las relacionadas con la banda ancha, que lo soportan, está haciendo posibles, de forma creciente, las aplicaciones intensivas en media streaming, fundamentalmente video, que para su efectiva comercialización requieren unos determinados niveles de calidad. En concreto, se trata de evitar los retrasos en la recepción de la imagen, que son resultado de que la arquitectura neutral de Internet no discrimine entre aplicaciones, colocando en un mismo nivel de prioridad una de estas aplicaciones de vídeo y un simple correo electrónico. Pero mientras un cierto retraso en un correo electrónico no tiene importancia, que se produzcan latencias en una aplicación de vídeo puede hacer inviable que se desarrollen modelos de negocio que permitan su comercialización. Ello hace que se plantee como necesidad establecer en Internet una cierta funcionalidad QOS (Quality Of Service) que permita discriminar entre distintas aplicaciones. El problema es que satisfacer estas demandas impuestas por la nueva realidad de Internet exige penetrar en el centro del net-work y localizar en él una cierta inteligencia que pueda controlar los packets que están circulando, sea deteniéndolos (por razones de seguridad) o priorizándolos (por razones de negocio). En resumen, el principio de neutralidad, que ha sido un factor clave para el éxito de Internet, afronta su primera crisis de madurez enfrentándose a nuevas demandas que ponen en cuestión su configuración abierta y funcionamiento neutral.

AT&T y Google: dos intereses frente a frente En su parte más visible, el debate sobre la net neutrality parece estar protagonizado por la nueva AT&T, de un lado, y Google, de otro, conforme a las declaraciones realizadas por significados representantes de ambas compañías. El máximo responsable de AT&T, Ed Whitacre, afirmó que proveedores de servicios en Internet como Google o Yahoo se equivocaban si creían que podían cargar más y más sus redes con nuevos servicios sin coste alguno. En defensa de Google, su vicepresidente Vinton Cerf respondió alertando del peligro que suponía para el enorme potencial de la banda ancha que se permitiera a los operadores convertirse en guardianes (gate-keepers) de Internet, pudiendo decidir qué contenidos, aplicaciones y servicios y en qué condiciones podían circular por sus redes. El argumento básico de los operadores en defensa de su posición es que han invertido y deben seguir invirtiendo miles de millones de dólares en el despliegue de sus redes y, por lo tanto, tienen derecho a primar sus propios contenidos o los de aquellos que paguen por ellos. Sobre todo en un contexto creciente de contenidos intensivos en banda ancha que pueden suponer un problema de congestión en las redes. Por parte de los proveedores de servicios, su argumentación no ataca directamente, porque no sería fácil, la posición de los operadores, en el sentido de tener derecho a cobrar a quien utiliza sus redes, sino que se acoge a dos tesis para defender su posición: que los operadores ya rentabilizan sus inversiones a través de lo que cobran a los usuarios, por lo que cualquier cobro que se les aplicara acabaría repercutiendo en aquellos. Segundo, que este proceso de privatización acabaría con el carácter abierto y neutral de Internet, creando concentraciones de poder que perjudicarían a todos los consumidores y amenazando decisivamente la capacidad para fomentar la creatividad y la innovación, lo que dañaría gravemente la competitividad de la economía estadounidense en un mundo globalizado. Lo cierto es que ambas posturas simbolizan el enfrentamiento entre los derechos de propiedad y de uso.

¿Sólo la neutralidad garantiza la innovación? Uno de los argumentos más poderosos que se utiliza en favor de la net neutrality es que garantiza la innovación. Ello se debe a que el éxito o fracaso de cualquier nueva aplicación lo determina su mayor o menor aceptación por parte de los internautas y no, como hubiera sido el caso si Internet hubiera tenido una estructura centralizada, el interés o conveniencia de quienes controlaran el centro del network. Ello explicaría, por ejemplo, el enorme éxito experimentado por una aplicación como la worid wide web (www) que, gracias al carácter neutral de Internet, pudo desplegar todas sus cualidades funcionales sin necesidad de acomodarlas a los requisitos o condiciones de un hipotético controlador. Otro ejemplo, más reciente, lo constituye la telefonía por Internet o VolP. 

Internet, entre la regulación y el mercado En el centro del debate está la propuesta de que la FCC dé carácter normativo al principio de net neutrality, hasta ahora sólo una característica establecida de facto para Internet. El regulador estadounidense ha defendido la net neutrality, pero hasta la fecha ha sido reacio a formalizarla normativamente. Ha confiado en que el poder de mercado es suficiente para garantizaría. Si ha actuado, en cambio, cuando la neutralidad se ha visto amenazada por acciones concretas. En este sentido, Martín coincide con los operadores que defienden la libertad de mercado y la competencia entre tecnologías de acceso como la mejor protección de la Red. Por el contrario, los proveedores de contenidos y aplicaciones advierten contra los peligros de la ruptura del principio de neutralidad y abogan por una norma que lo preserve. Todas las partes coinciden, sin embargo, en que el problema del incentivo es real y debe ser abordado, aunque discrepan en las soluciones. Los que defienden que la neutralidad debe ser protegida legalmente proponen que los clientes finales paguen los servicios de acceso por consumo. De acuerdo con este modelo, utilizando el ejemplo de la red eléctrica, los usuarios que más consuman pagarían más, independientemente del tipo de tráfico que generen. De esta forma, se protegería la neutralidad de la Red y se incentivaría el despliegue.

ENTER La conclusión que de todo ello sacan los analistas de ENTER es que estamos en presencia de un debate de capital importancia que afecta a la regulación de la convergencia digital en los próximos años. Podría, acaso, ser comparable a lo que en su momento supuso para la sociedad industrial la puesta al día del modelo de relaciones laborales. O lo que puede comportar el ya vigente respecto a la protección de contenidos de los derechos de propiedad intelectual. Y no debería olvidarse, en ningún caso, que se trata de un tema enormemente complejo, con mayores implicaciones de las, a menudo, calculadas; ni que las consecuencias de las medidas que finalmente se adopten serán mucho más trascendentes de lo que un simple debate teórico deja traslucir.

 

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios