Todo va a cambiar (12 page)

Read Todo va a cambiar Online

Authors: Enrique Dans

Tags: #Informática, internet y medios digitales

A medida que el uso de Internet alcanza un porcentaje cada vez mayor de la población, los anunciantes van dándose progresivamente cuenta de que un canal ofrece más posibilidades que el otro en todos los sentidos, y operan en consecuencia: la publicidad en la red permite segmentaciones infinitamente mejores, impactos de mucha mejor calidad, mediciones extremadamente más fieles y respuestas en muchos casos inmediatas, además de permitir la entrada de anunciantes de todo tipo, incluso los más pequeños: superar a una televisión cuyos formatos no han evolucionado prácticamente nada desde sus inicios y en la que tanto la cualificación de la audiencia como la medición de resultados se realizan mediante someros muestreos era, simplemente, una cuestión de tiempo y de lógica.

5
Introducción a la red. La neutralidad de la red.

“Si los proveedores empiezan a privilegiar unas aplicaciones o páginas sobre otras, las voces más pequeñas serán eliminadas, y todos perderemos. Internet es la red más abierta que hemos tenido nunca. Debemos mantenerla como tal.”

Barack H. Obama (noviembre 2007)

Dejemos a un lado todas las historias que habitualmente se cuentan con respecto al origen de la red, a sus inicios como proyecto militar, y al hecho de que todos los participantes en el mismo supiesen desde un primer momento que estaban trabajando en algo mucho, muchísimo más grande que un simple proyecto militar. Desde sus orígenes en 1960 como proyecto de construcción de una red robusta, distribuida y tolerante a fallos, hasta el resultado actual de su difusión y participación en la vida cotidiana de más de una cuarta parte de la población mundial, Internet ha recorrido un muy largo camino. Un camino en el que, además, no estaba solo: la idea de una red de conexión entre diferentes actores incluyendo proveedores de información, consumidores, comerciantes, etc. estaba ya en la cabeza de muchos en torno a la misma época: CompuServe, por ejemplo, tiene sus orígenes en el año 1969, AOL en 1983, y BITNET en 1981, todas ellas antes del inicio de la popularización real de Internet entre el gran público, que suele adscribirse a mediados de los años 90. La francesa Minitel fue lanzada en 1982, y obtuvo un notable éxito en el país vecino. Sin embargo, ninguna alcanzó el crecimiento meteórico y la penetración de Internet. ¿Dónde están las claves que convirtieron este proyecto inicialmente poco orientado en un éxito capaz de cambiar el mundo tal y como lo conocemos?

El secreto, en realidad, hay que buscarlo en la esencia más primigenia de la red: los protocolos que la soportan. La palabra “protocolo” es de esas que tienden a intimidar al usuario no técnico; sugiere algo complejo, inextricable: en realidad, el significado de “protocolo” no va más allá de ser el de un conjunto de reglas que son utilizadas para la comunicación. En una fiesta en una embajada, por ejemplo, el protocolo incluye una serie de convenciones en el vestir, unos tratamientos y unos modales determinados. Si una persona aparece vistiendo vaqueros rotos y pretendiendo darle un abrazo al embajador, es posible que no pueda hacerlo, y que su ruptura del protocolo impida además sus posibilidades de comunicación en esa fiesta: muy probablemente no sea admitido en ella. En Internet, los protocolos gobiernan cómo se transmite la información: cómo se encapsula en forma de paquetes, cómo se transmiten éstos, cómo se comprueba su recepción, cómo se vuelven a enviar en caso de pérdida, etc. Y el atributo que proporciona a Internet su potencial es, ni más ni menos, que el hecho de que tanto estos protocolos como los de la World Wide Web (WWW), la capa de representación que lo recubre, fueron publicados en abierto y puestos a disposición de cualquiera que los quisiera utilizar. En muchos sentidos, Internet es uno de los proyectos exitosos más grandes del código abierto.

De hecho, Tim Berners-Lee obtuvo la inspiración para el desarrollo de la WWW de la observación de un lector de páginas denominado Dynatext que el CERN había licenciado, pero que tenía no solo una licencia muy cara, sino que también requería un pago por cada documento ¡y por cada vez que este era editado! En la mentalidad del creador de la WWW, un sistema así jamás podría liberar el potencial de Internet como forma de crear y diseminar información al alcance de cualquiera. La visión de Tim Berners-Lee era la de una red en la que todos pudieran ser autores, crear documentos, establecer vínculos entre ellos y acceder a ellos con total sencillez.

La idea de Internet y de la WWW, por tanto, fue la de ofrecer sus protocolos para su uso absolutamente indiscriminado: una conexión, un navegador o un editor eran algo que prácticamente cualquiera podía conseguir, y que con el tiempo se fueron haciendo cada vez más ubicuos. Al principio, las conexiones a Internet estaban situadas en empresas y universidades, pero se fueron haciendo progresivamente más baratas y ofreciéndose más a particulares. Originalmente, los navegadores y, sobre todo, los editores de páginas eran relativamente complejos: los pioneros de Internet componían sus páginas directamente en HTML, que sin ser un lenguaje especialmente complejo, tampoco está al alcance de cualquier mortal. Tras la edición en HTML llegaron editores de los denominados WYSIWYG
[10]
, que acercaban algo más al usuario las tareas de edición tomando la responsabilidad de interpretar la apariencia y traducirla en líneas de código. Y tras éstos, llegaron los blogs, que acercaron verdaderamente la edición y el almacenamiento de páginas hasta ponerla auténticamente a disposición de cualquier persona sin prácticamente ningún tipo de conocimiento técnico o de programación. Internet es una red en la que cualquiera con acceso a una conexión puede crear algo de manera sencilla, alojarlo gratis o por muy poco dinero, y ponerlo a disposición de cualquiera que pueda encontrarlo conociendo su existencia o a través de un motor de búsqueda. La red no discrimina absolutamente nada con respecto a los contenidos: trata exactamente igual lo escrito por un particular que la creación de una gran empresa. Ambos son paquetes de bits, y ambos circulan por la red con los mismos privilegios.

La neutralidad es una característica definitoria y fundacional de la red. Internet es por naturaleza abierto y libre, y lo es para todos, porque estableció sus características en torno a un protocolo que consagraba la más absoluta y radical neutralidad, y que tiene como norma de identidad transmitir ciegamente un mensaje entre un origen y un destino. Si dos personas tienen contratado un acceso a Internet de unas características determinadas, deberán poder enviar y recibir cualquier tipo de contenido sin discriminación alguna a esas velocidades. El tráfico de datos recibido o generado en Internet no debe ser manipulado, tergiversado, impedido, desviado, priorizado o retrasado en función del tipo de contenido, del protocolo o aplicación utilizado, del origen o destino de la comunicación ni de cualquiera otra consideración ajena a la de su propia voluntad. Ese tráfico se trata como una comunicación privada, y únicamente podrá ser espiado, trazado, archivado o analizado en su contenido bajo mandato judicial, como correspondencia privada que es en realidad.

Este principio, la neutralidad de la red, ha estado embebido en el diseño de la misma desde sus orígenes, y ha jugado un enorme y relevante papel en su popularización. La red es lo que es hoy gracias sobre todo al hecho de ser neutral. Sin embargo, existen una serie de fuerzas que tienden a intentar convertir la red en algo diferente: bajo el pretexto general del “control”, existen actores tales como las empresas de telecomunicaciones, los grupos de presión de la industria de la propiedad intelectual y determinados políticos que intentan de manera reiterada alterar la naturaleza de Internet, y transformarlo en algo más adecuado a sus propios intereses.

El triángulo de actores implicados en esta pretendida desnaturalización de la red empieza por las empresas de telecomunicaciones: propietarias de la gran mayoría de las infraestructuras por las que discurre Internet, las empresas de telecomunicaciones llevan años viendo como sus servicios se convierten en una gran commodity: mientras ellas se limitan a ofrecer el acceso a sus clientes, asisten al enriquecimiento de quienes hacen negocios en la red. Mientras una página cualquiera gana en función de sus ventas o de la publicidad que exista en ella, los operadores se limitan a cobrar una tarifa en función de un acceso determinado - más rápido o más lento - independiente de lo que circula por sus cables.

Los intentos de entrar en el negocio de contenidos por parte de la gran mayoría de operadores han fracasado repetidamente: hablamos de un negocio completamente distinto al suyo, y cada contenido, además, es un contenido más en una amplísima panoplia de contenidos a disposición de los usuarios. Pero el desarrollo de infraestructuras tiene un elevado coste material, y la red demanda anchos de banda cada vez más elevados, obligando a poner fibra óptica donde antes solo había cobre, y a alcanzar, en virtud del principio de universalidad exigido a los operadores en muchos países, zonas geográficas de escasa densidad en las que la rentabilidad resulta claramente negativa. El hecho de que, en muchos casos, partes muy significativas de las infraestructuras se hayan construido en su momento mediante dinero público no deja de eclipsar que ser operador implica participar en un negocio de inversión: invertir en el tendido de cables y antenas no está al alcance de cualquiera. Y para un país, resulta fundamental tener unos operadores dispuestos a mantener infraestructuras capaces de albergar el progreso de la red, lo cual se sostiene únicamente proporcionándoles un nivel de rentabilidad adecuado a sus inversiones. Ante esta tesitura, ¿cómo armonizar las necesidades de inversión en infraestructura con las de rentabilidad de los operadores, si éstos deben limitarse a proveer lo que los norteamericanos llaman una
“dumb pipe”
, una “tubería tonta” y completamente insensible a lo que circula por ella? El razonamiento de los operadores en este sentido es “déjame privilegiar el tráfico en función de quién lo envíe, y eso me permitirá rentabilizar mis infraestructuras exigiendo a quien quiera ir rápido, un pago en consecuencia, o privilegiando mis propios servicios frente a los de terceros”. Y eso es, precisamente, lo que introduciría un brutal elemento de distorsión en la red: ante un escenario como ese, todo aquel que no pudiese comprar su derecho a una autopista rápida quedaría relegado a que sus datos circulasen por un camino de cabras, e Internet se convertiría en un medio más en manos de las grandes empresas y conglomerados mediáticos que poseerían los canales privilegiados, con la voz de los usuarios escondida en un cajón de sastre de “contenidos que bajan a velocidades insufriblemente lentas”.

En el escenario actual, Internet circula por las redes de los operadores, pero se ha convertido en algo demasiado importante como para dejar su gestión en manos de los operadores. Permitir a éstos que tomen decisiones que afecten a la naturaleza de Internet supondría desnaturalizar Internet, convertirlo en algo completamente diferente: existen ya operadores que priorizan determinados tipos de tráfico frente a otros, o que penalizan el tráfico vinculado a determinados protocolos, prácticas completamente inaceptables y que de hecho, la Comisión Federal de las Comunicaciones sancionó como tal a principios del año 2009. La elección de Barack Obama como Presidente de los Estados Unidos ha dado un fuerte impulso a la neitralidad en la red: como candidato, Obama hizo de la neutralidad de la red uno de los principales puntos de su campaña, llegando incluso a escenificar su fuerte apoyo en un acto en el mismísimo Googleplex, sede de Google, uno de los más fuertes abogados de las tesis de dicha neutralidad. El día 29 de mayo de 2009, en un discurso dedicado a la ciberinfraestructura de la nación, el ya Presidente renovó su apoyo con una frase contundente:

“Permítanme también ser muy claro acerca de lo que no haremos. Nuestra búsqueda de la ciberseguridad no incluirá — repito, no incluirá — la monitorización de redes privadas sectoriales o del tráfico de Internet. Preservaremos y protegeremos la privacidad de las personas y las libertades civiles cuya existencia celebramos como americanos. Es más, mantengo completamente firme mi compromiso con la neutralidad de la red para que podamos mantener Internet como debe ser — abierto y libre.”

Las actuaciones del máximo mandatario norteamericano en este sentido tampoco han dejado lugar a dudas. Su elección de Julius Genachowski como Director de la Comisión Federal de las Comunicaciones supone un refrendo importante para las tesis de la neutralidad de la red, que se explicitó en su primer gran discurso en la Brookings Institution. En él, Genachowski describió la situación actual, en la que ya ha habido ejemplos de ruptura de la tradicional neutralidad y apertura de Internet por parte de algunos operadores, como una encrucijada en función de tres factores fundamentales: por un lado, una competencia entre operadores cada vez más limitada debido a un proceso progresivo de concentración que reduce las opciones de los consumidores. Por otro, los incentivos económicos que dichos operadores tienen para alterar la situación en su favor. Y en tercer lugar, la enorme explosión de tráfico en la red, que impone tensiones en la gestión de las infraestructuras.

La elección en esta encrucijada es la de preservar por encima de todo la naturaleza abierta y libre de la red. Para ello, se añaden expresamente a las cuatro libertades enunciadas en su momento por la FCC en 2004 (los operadores de red no podrán impedir a los usuarios acceder a todo contenido legal, aplicaciones o servicios de su elección, ni podrán prohibir a los usuarios que conecten a la red dispositivos que no resulten perjudiciales para ésta), otras dos más: el quinto principio establece la no discriminación, y establece expresamente que los operadores de red no podrán efectuar discriminación contra contenidos o aplicaciones específicas en Internet. Y el sexto, transparencia, que afirma que los proveedores de red deberán ser transparentes acerca de sus políticas de gestión de tráfico en sus redes. Una serie de provisiones que, a pesar de las protestas de los operadores, se impondrán en la gestión de redes tanto fijas como móviles, en las que las tensiones por la capacidad son todavía más fuertes, pero que como todo en tecnología, están sujetas a mismo ritmo de progreso y desarrollo que procurará, en el futuro, capacidades mucho mayores.

Pero las empresas de telecomunicaciones no son, como decíamos, las únicas que intentan subvertir la naturaleza de la red para convertirla en algo diferente y más propicio a sus intereses. Un segundo poder, el de las industrias de la propiedad intelectual, pretenden convertir Internet en un lugar fiscalizado, donde las comunicaciones de los ciudadanos son espiadas constantemente para poder averiguar si en alguna de ellas aparecen supuestamente obras de sus catálogos. Una pretensión que pone a los derechos de autor por encima de los derechos fundamentales del individuo, y que está siendo progresivamente rechazada por la gran mayoría de los países civilizados con la excepción de la Francia de Sarkozy. Para lograr tal fiscalización, los grupos de presión de la industria no dudan en calificar de delito lo que no lo es, o de relacionar algo tan inofensivo y generalizado como las descargas de materiales de la red con las diez plagas bíblicas que asolaron Egipto: en la interesada visión de la industria cultural, vigilar Internet es necesario para evitar terribles delitos como la pederastia, el terrorismo, la delincuencia o el fraude. Delitos que aunque puedan representar problemas puntuales, no son en absoluto privativos de Internet, ni tendrían solución alguna en el caso de implantarse una Internet en modo “Estado policial” como la industria cultural pretende. Está perfectamente demostrado que la vigilancia y la retención de datos no supone una solución a estos problemas, sino que únicamente provoca una búsqueda de nuevos mecanismos por parte de los delincuentes y se convierte en una manera de vigilar a quienes no lo son. Por muy execrable que pueda resultar un delito como la pornografía infantil, la solución al mismo no es vigilar las comunicaciones de los ciudadanos, porque aquellos que quieren incurrir en el delito buscarán métodos de cifrado más eficientes y la vigilancia servirá únicamente para controlar lo que hacen los inocentes, que carecen de un incentivo directo para intentar eludir dicha vigilancia. Para atacar un delito como la pornografía infantil habrá que hacer lo que se ha hecho siempre: perseguir a quienes la producen, monitorizar los flujos económicos que genera, y aplicar presión policial a los lugares donde se intercambia. Nada nuevo bajo el sol, salvo que las fuerzas del orden tendrán que cualificarse para trabajar en un escenario diferente. Cosa que, por otro lado y como cabía esperar, hacen cada vez mejor.

Other books

Mayday by Olivia Dade
The Second Saladin by Stephen Hunter
Lady Beware by Jo Beverley
The Hidden People of North Korea by Ralph Hassig, Kongdan Oh
Storm Warning by Mercedes Lackey
Echo Class by David E. Meadows
Lucky Logan Finds Love by Barbara Cartland
Dark of the Moon by Barrett, Tracy