Ciencia en Red

0 775

A menudo, los grandes acontecimientos, aquellos que afectan decisivamente a la vida de los individuos o de los grandes colectivos, tienen un comienzo discreto, como si alguien quisiera ocultar los designios verdaderos a los protagonistas encerrando las claves del futuro en los gestos más cotidianos e intrascendentes. Pocos imaginan, por ejemplo, las implicaciones de un ligue aparentemente banal, de un baile solicitado para pasar el rato o de una charla con un conocido pasajero al hilo del jolgorio de un bar o una discoteca. Sólo cuando, muchos años después, uno le echa un vistazo a aquel sencillo evento, empieza a valorar eso de que las semillas de los grandes sucesos se esconden en los pliegues más discretos de lo cotidiano: y si no que se lo digan la esposa/o, los tres hijos, el coche, las dos casas, los 5 televisores y los cuatro o cinco teléfonos móviles en que devino aquel encuentro casual. Como decía Chateaubriand, así se escriben los grandes libros, ya sea que cuenten victorias épicas o catástrofes irreparables.

Aunque a primera vista no lo parezca, ésto viene a cuento de lo que le sucedió a la investigación científica y tecnológica cuando se encontró con la Red, cosa que ocurrió cuando ésta era todavía muy, muy jovencita, tanto que ni siquiera nadie la llamaba todavía Internet. Como ha dicho en múltiples ocasiones Vinton Cerf, uno de los participantes en el exclusivo y reducido grupo de científicos y tecnólogos que inició los estudios y el desarrollo de una red de paquetes conmutados hace más de 30 años, ninguno de ellos imaginó jamás el impacto del primer experimento que realizaron en 1969. Cuatro ordenadores interconectados en las universidades de Utah, Los Angeles y California, el reducido grupo promotor de la idea y el apoyo circunspecto del Ministerio de Defensa, ese fue el discreto arranque de una de las revoluciones más espectaculares de la historia reciente, no importa dónde coloquemos el punto de salida.

No hubo cohetes, cintas por cortar o declaraciones ampulosas en la prensa. En realidad, como después han repetido hasta la saciedad los propios protagonistas, ninguno de ellos podía imaginar que el mundo ya no sería nunca igual después de aquella experiencia. Nada, en realidad, les permitía suponer que aquellos cables y las cajas llenas de circuitos se iban a convertir en la palanca de cambios sustanciales que llegarían a afectar incluso los propios fundamentos políticos, sociales y económicos de la sociedad industrial.

Ni ellos, ni los científicos que vivían felices y contentos en sus rutinas habituales: cada uno metido hasta el cogote en sus respectivos campos de investigación, trabajo arduo en el laboratorio y, cuando se producía algún descubrimiento, la preparación del artículo para ser publicado en algunas de las revistas científicas de referencia. Estas revistas, más las comunicaciones en conferencias y simposios, constituían el alimento imprescindible para mantenerse al tanto de lo que sucedía en los respectivos ámbitos de interés. Los equipos que colaboraban en algunas líneas de investigación dependían del correo postal, el teléfono y los encuentros esporádicos en eventos científicos o particulares. Poco imaginaban lo que se les venía encima.

El laberinto digital

De hecho, aunque todavía se ha escrito poco al respecto, durante dos décadas la comunidad científica de EE UU jugó el clásico papel de cobaya en uno de los experimentos más silenciosos y explosivos del último tercio del siglo XX1. Una cobaya muy particular, porque ni los que hacían el experimento tenían muy claro que estaban haciendo uno, ni los que estaban sometidos a él tenían una idea cabal de lo que estaba sucediendo. Sobre todo, porque el experimento se llevaba a cabo en un recinto desconocido, jamás visto antes, sobre el que se desconocía, lógicamente, todo: sus propiedades, sus características, sus leyes internas, su impacto en quienes lo habitaban. Ese recinto era el nuevo espacio configurado por los ordenadores interconectados. Un espacio donde sólo convivían cifras que, gracias a los ingenieros, podían convertirse en letras y texto. Este nuevo espacio, el espacio virtual, iba a convertirse en el intrincado laberinto donde se llevaría a cabo el experimento de marras.

¿Y en qué consistió? Muy simple: en poner aquella incipiente red de 1969 al servicio de los centros de investigación de EE UU. Una vez que el Ministerio de Defensa comprobó la bondad de dicha red, aceptó la sugerencia del grupo de tecnólogos (de hecho, varios de ellos trabajaban para la Agencia de Proyectos de Investigación Avanzada para la Defensa –DARPA– desde donde se promovía el proyecto) para que dicha red uniera los centros de investigación de la Defensa y de las universidades de EE UU. A todos les parecía una buena idea que los investigadores pudieran compartir información y tramitaran documentación a través de la red de ordenadores.

Mientras el MdD concentraba sus esfuerzos en desarrollar su propia red (MILNET), la National Science Foundation (NSF) asumía el proyecto civil para promover el cableado de las universidades y centros de investigación. Para ese entonces, Vinton Cerf y su equipo ya habían desarrollado el protocolo de comunicación de la Red, el TCP/IP, Ray Tomlinson había escrito el programa básico de correo electrónico en marzo de 1972 y, cuatro meses más tarde, Larry Roberts le añadía las funciones de reenviar, responder y guardar automáticamente los mensajes.

En otras palabras, cada una de las piezas estaba en su lugar: la red de arquitectura abierta, el correo electrónico, un protocolo de comunicación que interconectaba ordenadores independientemente de sus sistemas operativos o fabricantes (en aquella época había unos cuantos y no existía Microsoft), una entidad preocupada por la creación de una red troncal que interconectara directamente los centros de investigación… El laberinto había tomado forma y los conejillos, sin saberlo, como corresponde a todo buen experimento, se aprestaban a ocupar inocentemente sus lugares… ante el ordenador.

Red de Arquitectura Abierta (RAA)

Vaya en su descargo que el laberinto tenía una configuración tan particular que resultaba complicado percibirlo en todas sus dimensiones. La red de ordenadores que devino en ArpaNet fue diseñada como una red de arquitectura abierta (RAA). Esta fue, sin duda, la decisión más importante y de mayores repercusiones que adoptaron los promotores del proyecto. Los rasgos más destacados de una red de estas características, entre otros, son:


– Los contenidos los ponen los propios usuarios.
– El acceso es universal –todos los usuarios en principio “ven” toda la red– y simultáneo –todos los usuarios pueden acceder a
ella al mismo tiempo o, desde el punto de vista del “otro”, es como si siempre estuvieran conectados a través de sus registros, de su actividad en la red y del correoe (el primer prototipo, de hecho, de contestador automático)–.
– El acceso no depende de la distancia, ni del tiempo. Basta tener conexión a alguno de los ordenadores de la red desde cualquier parte del mundo para tener acceso a toda ella. Y permanece abierta las 24 horas del día, los 365 días del año.

Pero, por si ésto fuera poco, también decidieron dos características que se convertirían en el verdadero código genético de las redes de arquitectura abierta: la descentralización basta conectar más ordenadores para ir expandiendo su textura reticulary la desjerarquización de la red ningún ordenador ejerce labores de “comando y control” sobre los otros. Estas dos decisiones sorprenden aún más si tomamos en cuenta que, tras el proyecto, estaba el Ministerio de Defensa de EE UU, sin duda el paradigma de una organización centralizada y jerarquizada.

Durante los años setenta y ochenta, al amparo de esta arquitectura abierta, ArpaNet se fue extendiendo por los centros universitarios de todo EE UU. Cientos, miles de científicos, comenzaron una escalada imparable, pero imperceptible desde el exterior e, incluso, para ellos mismos: lenta y progresivamente, su actividad tradicional comenzó a imbricarse en un intercambio de información rápido y sencillo, la integración de equipos a distancia, la unificación de criterios a una velocidad cada vez mayor, los consensos asíncronos para decidir líneas de acción y, sobre todo, a compartir información relevante incluso antes de que saliera publicada en las revistas.

La Red fue cumpliendo su cometido a espaldas de una comprensión clara de qué estaba sucediendo. La población de conectados crecía cada día (se ha venido doblando cada año desde su creación, en los últimos años, cada 810 meses). Lo mismo sucedía con el número de ordenadores dentro de la red y la extensión y densidad de ésta, así como con el volumen de información que circulaba por ella o quedaba almacenada en sus servidores. Sin que nadie dijera “¡Ahora”, algunas investigaciones comenzaron a depender cada vez más de los ordenadores, no sólo por su creciente capacidad de procesamiento, sino porque estaban conectados a la red. Este proceso dio un salto espectacular con el proyecto de la “Guerra de las Galaxias” de Ronald Reagan.

Todo el poder a los ordenadores

EE UU quería construir un escudo espacial para defenderse de un posible ataque nuclear de la URSS con misiles balísticos intercontinentales. La idea era construir un sistema que fuera capaz de detectar el lanzamiento de dichos misiles, fijar su trayectoria, disponer las armas espaciales del escudo (satélites dotados con haces de neutrones, rayos láser, interferencias de señales de radar, pulsos electromagnéticos, etc.), distinguir los misiles verdaderos de los señuelos y lanzar el ataque para tratar de liquidarlos a todos antes de que reingresaran en la atmósfera y dieran en el blanco en EE UU. ¿Tiempo para esta operación?: entre seis y 10 minutos.

Una tarea imposible para cualquier ser humano o grupo de humanos. La complejidad de todas y cada una de estas decisiones, la velocidad de toda la operación y la evidente importancia pública de semejante despliegue descartaba que se pudiera correr el riesgo del fallo humano, aparte de la enorme dificultad de tomar decisiones en tan poco tiempo y con una tensión de estas proporciones. Los promotores del proyecto decidieron que sólo una potente y diversificada red de ordenadores, dotada de cierto grado de inteligencia y nutrida de sistemas expertos, podría llegar a tomar una decisión de este tipo, “supervisada”, eso sí, por humanos, aunque nadie sabía muy bien para qué. Volcar todo el peso del ejercicio en un montón de máquinas elevó aún más la temperatura alrededor de la ya de por sí controvertida idea de Reagan.

Como era de suponer, el proyecto generó un debate enorme en EE UU. ¿Se podía hacer o no? ¿Los ordenadores y las redes eran tan fiables como para confiarles semejante tarea? La respuesta a estas preguntas la conocemos hoy muy bien. La “Guerra de las Galaxias” no produjo ningún arma digna de este cinematográfico título. Pero cambió para siempre la forma de trabajar en ArpaNet y, de paso, la naturaleza del trabajo científico. El esfuerzo por construir un artificio capaz de tomar semejante decisión –a lo que se destinó generosas cantidades de dólares– significó un enorme avance en la investigación informática, de software, de telecomunicaciones y de todo lo que tenía que ver con la ciencia de la computación y disciplinas relacionadas. Todo este esfuerzo, además, disparó un efecto multiplicador en la propia red, al compartir información, avances por fases, módulos de programación, etc., a una velocidad cada vez mayor y entre una comunidad científica conectada en constante crecimiento.

“HOY, NADIE EN LA COMUNIDAD CIENTÍFICA SE IMAGINA CÓMO SE PODRÍA AVANZAR EN LA EXPLORACIÓN ESPACIAL, LA BIOTECNOLOGÍA, LOS NUEVOS MATERIALES, LA BIOLOGÍA MOLECULAR Y CELULAR… POR CITAR SÓLO A ALGUNAS DE LAS LÍNEAS ESTRATÉGICAS DE LA INVESTIGACIÓN CIENTÍFICA, SIN EL SOPORTE ESTRUCTURAL DE LAS REDES”.

El resultado de este proceso desbocado, pero todavía largamente ignorado incluso por la comunidad científica, está a la vista: algunas cosas comenzaron a hacerse de otra manera. O, dicho con otras palabras, la integración de la investigación en los procesos de distribución de información a través de la red, en la organización de una comunicación interactiva en manos de los propios científicos, en la creación de puntos de acceso nuevos para proseguir con dichas investigaciones y de incrustar a la propia red en el corazón del proceso de investigación, cambió la orientación del trabajo de la comunidad científica, por una parte, y de la forma como las tareas se llevaban a cabo por la otra.

Galaxias de genes y genomas

El impacto se dejó sentir por doquier. A finales de los años 80 del siglo pasado, las previsiones más optimistas sobre la elaboración del mapa físico y funcional del genoma humano apuntaba hacia la mitad del siglo XXI. De repente, este tipo de predicciones comenzaron a agitar el calendario. Y, según muchos, a disparatarse. No conocían, sin duda, la ebullición de la olla virtual, el incremento de la capacidad de procesamiento de los ordenadores, el efecto multiplicador de la red tanto de dicha capacidad, como de la comunicación organizada de resultados. En 1989, el premio Nobel Walter Gilbert, que había creado una empresa para secuenciar el genoma, me dijo que el mapa estaría listo en el 2010. Cinco años más tarde, James Watson, que descubrió la estructura de doble hélice del ADN en los años 50, me explicó que gente como Gilbert y Francis Crick, con quien realizó el descubrimiento que les valió a ambos el Premio Nobel, era demasiado optimista al pensar que el genoma humano estaría descifrado en la primera década del siglo XXI. Crick, de hecho, apuntaba al 2005 como fecha límite.

Como todos sabemos, el mapa del genoma, con lagunas sensibles todavía, se presentó públicamente en el 2001. Hoy, para hacer esta historia corta, nadie en la comunidad científica se imagina cómo se podría avanzar en la exploración espacial, la biotecnología, los nuevos materiales, la estructura de la materia, la biología molecular y celular, la bioinformática, la bioestadística, la bioingeniería, la robótica o la nanotecnología, por citar tan sólo a algunas de las líneas estratégicas de la investigación científica, sin el soporte estructural de las redes. Hablar de genes hoy significa hablar de bibliotecas génicas, de sistemas de acceso a la información, de programas informáticos para diseñar estructuras en entornos virtuales colaborativos cada vez más complejos, o para gobernar bases de datos con todas las propiedades posibles del universo, incluyendo la materia oscura que nadie sabe qué es y a la que se debe llegar de una u otra manera.

Ni la NASA, ni la comunidad de astrónomos y astrofísicos, por ejemplo, se pueden permitir hoy el problema con el que se encontraron a mediados de los años 80 del siglo pasado: toda la información de la exploración planetaria de los 15 años anteriores estaba en registros informáticos inaccesibles. Aquella lección planteó el problema de los archivos informáticos de la investigación científica, de los diferentes formatos y sistemas operativos y la forma de integrarlos en la propia progresión de la investigación. EE UU creó incluso un comité al más alto nivel para buscar soluciones plausibles. Pero la mejor de todas ya estaba funcionando desde hacía tiempo y la venía utilizando la propia comunidad científica, casi en exclusividad: la red ArpaNet. La dificultad estribaba en que, tal y como estaba estructurada la Red entonces, no estaba suficientemente preparada para empezar a absorber vastos archivos, integrarlos en la red y garantizar el acceso a los diferentes grupos interesados en su consulta.

Entre red y telaraña

El cambio de orientación empezó a germinar a principios de los años 90, cuando los departamentos de investigación de varias universidades de EE UU desarrollaron diversos programas informáticos que permitían adaptar la organización de la información a la estructura reticular de lo que ya se había convertido en Internet2.

El gran invento, sin embargo, se gestó en el Laboratorio Europeo de Física de Partículas (CERN), sito en Ginebra. Allí, Tim BernersLee, que trabajaba en el departamento técnico, diseñó el lenguaje de la World Wide Web (WWW), que se convertiría en el estándar que le inyectó a Internet una estructura de páginas sobre las que se podían utilizar toda clase de tipografía, además de colores, gráficos, sonido y animación.

La enorme y rápida popularidad que experimentó la Red a partir de 1995 significó también la definitiva integración en el ámbito de las redes de la investigación en numerosas disciplinas científicas y tecnológicas. En particular, habría que destacar tres que, como enormes cajones de sastre, definen sin duda gran parte de la orientación de la actividad científica estratégica en el siglo XXI:


– Bioingeniería
– Robótica
– Nanotecnología.

La bioingeniería comprende una amplísimo abanico de disciplinas que tienen que ver con la ingeniería genética, la biología molecular y celular, la electrónica, la bioestadística y la bioinformática, las matemáticas aplicadas, la lingüística (lenguaje natural, lenguaje informático, lenguaje de las máquinas), las ingenierías de telecomunicación, software e informática, la biología, la física de los nuevos materiales y gran parte de lo se consideran las ciencias de la vida.

La robótica, ya sea como parte de algunos de los campos mencionados arriba, o como proyectos de automatización de procesos de diverso tipo que llevan incorporados la adquisición de “inteligencia”, “experiencia” e “intuición, es la gran impulsora de redes en todo tipo de ámbitos.

Finalmente, la nanotecnología, la más joven de estas áreas de investigación, está abriendo un amplio abanico de campos de trabajo que se engarzan, de una u otra manera, con las anteriores. Todas ellas son “redependientes”. Ya no hay prácticamente forma de avanzar en esos campos de investigación sin contar con la Red como un elemento constitutivo más de la actividad investigadora. De hecho, el proceso al que estamos asistiendo es al de la conversión de esta actividad en “ciencia en red”, es decir, una nueva forma de plantearse los elementos estratégicos de la investigación, la constitución de equipos para realizarla, la forma de adquirir información y conocimientos para desarrollarla y, por supuesto, los mecanismos para diseminar los resultados.

¿Quién publica y dónde?

Y en este último aspecto, el de la diseminación de los resultados, estamos comenzando a ver hasta qué punto esta integración entre la actividad investigadora y las redes están planteando un cambio de paradigma que va más allá de los meros aspectos formales. En esta época globalizada, todo el mundo pide el pedazo de globalización que le corresponde. Y la comunidad científica no iba a ser menos. Hasta hace unos pocos años, las dimensiones de la comunidad científica estaba determinada, en gran medida, por el selecto abanico de revistas científicas que publicaban o sancionaban los resultados de las investigaciones. La vasta mayoría de estas revistas son de raíz socioeconómica anglosajona, lo cual, si cabe, reduce aún más la dimensión de dicha comunidad, justo cuando ésta experimenta un crecimiento sin parangón.

“LA RED DEBIERA CONTRIBUIR A QUE LA CONSTRUCCIÓN DEL CONOCIMIENTO FUERA UN PROCESO ANÓNIMO Y COOPERATIVO, INDEPENDIENTE DE INSTITUCIONES QUE SE ARROGAN EL SELLO CONSAGRADOR DE ESTA ACTIVIDAD”

La Red, sin embargo, ha puesto en manos de los científicos un potente medio de comunicación que les permite, entre otras cosas, acceder a sus “pares” allí donde se encuentren y hagan lo que hagan. En la red, la comunidad científica se redimensiona y, a la vez, plantea en un terreno muy diferente –el virtual– la problemática de la publicación de los resultados de la investigación. ¿Hay otra forma de hacerlo sin tener que depender de un ramillete de científicas y ni que esperar, además, el largo y nada trasparente, dictamen de los árbitros? Lo que hasta hace dos o tres años eran preguntas susurradas, ahora son respuestas enredadas. Más de 30.000 científicos de 171, entre ellos un puñado de premios Nobel, han iniciado un boicot activo contra la política de las empresas editoras de publicaciones científicas con un mandato conminatorio: o colocan todo su material en archivos abiertos en Internet, o dejarán de publicar en ellas y anularán sus subscripciones. El 1 de septiembre de 2001 comenzó esta resistencia activa contra el consorcio editorial que ha determinado en los últimos 200 años qué era ciencia: lo que se publicaba en sus revistas, fundamentalmente en inglés y abrumadoramente dominadas por el capital anglosajón.

La voz cantante en este movimiento en pro de la publicación en Internet la ha llevado la Public Library of Science (Biblioteca Pública de la Ciencia). Esta organización propone la creación de un archivo central, gratuito, en Internet, donde se vayan almacenando en bases de datos todos los artículos científicos para que puedan ser objeto de búsquedas combinadas. Las revistas científicas deberán colocar su producción en dicho archivo a más tardar seis meses después de publicarlos (y no sólo en su página web). De no hacerlo así, la PLS recomienda que los científicos no publiquen en estos medios ni presten ningún servicio para ellos. La propuesta de esta organización a principios de año levantó una previsible oleada de protestas de las empresas editoras. Pero la polémica sobre la información del genoma humano, con dos revistas como Science y Nature peleándose públicamente por la exclusiva, abonó el terreno en favor de la propuesta de un archivo digital público y abierto.

Aparte de embarcarse abiertamente en el buque de la edición digital, lo cual le abre a los investigadores, las universidades, las bibliotecas y los centros de investigación la posibilidad de recuperar el control de su producción y la diseminación de sus resultados a través de las redes, la rebelión de los científicos tiene un calado mucho más profundo. En realidad, lo que se pone en cuestión es el propio sistema por el que se ha guiado la ciencia hasta ahora. La comunidad científica sólo aceptaba como “hecho científico” la publicación de una investigación en algunas de las selectas revistas científicas, para lo cual era necesario que pasara el escrutinio del comité editorial y la aceptación de, al menos, un par de árbitros de reconocido prestigio en el correspondiente ámbito científico, pero desconocidos para quienes sometían el artículo. Este mecanismo, a falta de otro mejor, ha concedido un poder desmedido a un grupo de poderosas editoriales que, por esos curiosos mecanismos del mercado, se quedaban en propiedad en sus archivos con la producción de los centros públicos de investigación.

Compartir para ver

La propuesta de un archivo público central de la ciencia en Internet apunta también a un cambio de criterio en la producción científica. Como señala Tim BernersLee en sus artículos sobre la web semántica, la Red debiera contribuir a que la construcción del conocimiento fuera un proceso anónimo y cooperativo, independiente de instituciones que se arrogan el sello consagrador de esta actividad. Y ésto significa apoyarse en las dos patas esenciales del ciberespacio: el trabajo en colaboración distribuido en redes, por una parte, y la publicación abierta de los resultados obtenidos, por la otra.

Armados con estas ideas, en los últimos cuatro años varios grupos de científicos occidentales, sobre todo del área de la biomedicina, han venido reclamando la financiación pública de Internet en el campo de la investigación científica en el Tercer Mundo a fin de que la ciencia tenga un impacto real en estos países.

Este movimiento ha ido ganando terreno mediante la colaboración directa entre equipos de investigación de universidades europeas y estadounidenses con centros científicos africanos, asiáticos y de latinoamericanos. Pero la barrera del acceso a la información es todavía el mayor obstáculo para estas iniciativas. De ahí que sus propuestas para superarlo coincidan con las de la Public Library of Science. Para ellos, los científicos del Tercer Mundo deberían publicar directamente en Internet y gozar de un acceso ilimitado a los archivos de las publicaciones científicas occidentales.

He intentado trazar las consecuencias de este tropezón, todavía juvenil, entre la ciencia y la Red. Y no puedo cerrar esta reflexión sin mencionar lo que, para muchos, es lo más “vistoso” y atractivo de dicha relación y que, sin duda, añade la inmensa facultad de ver a la de colaborar en red: el enorme escaparate que la ciencia ha abierto en Internet. Cientos de miles de páginas de universidades, centros de investigación, líneas de trabajo, recursos pedagógicos, etc., están hoy a disposición de los internautas, ya sean colegiales, maestros, colectivos profesionales, empresas, administraciones, organizaciones cívicas, ONG, o simples curiosos.

Esta es la faceta más visible del impacto de la red en la percepción social de la ciencia. Y este es un camino en el que recién se están dando los primeros pasos y que muestra un extraordinario abanico de posibilidades, tanto para la educación como para la comunicación social de la ciencia o la intervención informada del ciudadano en la vida social. El otro, el que nos ha llevado a la ciencia en red, ya dispone de un largo trazado de tres décadas y está inscrito en un rico mapa de interacciones. Aunque, lógicamente, no sabemos todavía hacia dónde derivará la ciencia al desarrollarse en un contexto semejante, ni qué tipo de sociedad será la que la gobierne.


1 Por comunidad científica en esta parte del texto entendemos, sobre todo, los centros de investigación de ciencia y tecnología en EEUU durante los años 70 y 80. En el caso de la tecnología, las universidades y centros politécnicos que investigaban y desarrollaban las ingenierías de software, telecomunicación, informática, integración de sistemas, ciencias de la computación y, de manera más amplia, comunicación mediada por ordenadores (CMC).

2 A finales de los años 80, el Ministerio de Defensa y la NSF decidieron que la Red había llegado a la mayoría de edad y dejaron su explotación en manos privadas. Así se creó Internet (Inter Networks, entre redes), que comenzó a integrar todas las redes existentes hasta entonces que trabajaban con el protocolo TCP/IP. La creación de la Internet Society (ISOC, http://www.isoc.org) en 1990 supuso el salto protocolario hacia la Red abierta al público a través de compañías proveedoras de acceso a Internet.

Tu dirección de correo electrónico no será publicada.