tra bios e biotech


contributo del del CSOA 'el laboratorio', (Madrid)

"Si uno mira a la realidad lo suficientemente cerca,
podrá ver los píxels."
Dicho anónimo que circula por Internet.

Internet se presenta a sí misma como el primer foro permanente donde millones de personas de todo el mundo intercomunican de manera autónoma independientemente de su edad, sexo, nacionalidad, raza o creencias. Con ello se pone en marcha una nueva mitología y una nueva posibilidad de creer que por fin existe un lugar abierto y seguro donde reunirnos y compartir en ausencia de fronteras, líderes, amos, policía ni ejército: un gran espacio para el diálogo construido sin contaminar, sin expoliar, sin sacrificios, sin muerte. Curiosamente, una gran máquina comunicativa vendría a efectuarse precisamente ahora que ya no queda nada que comunicar y cuando la posibilidad de que ocurra algo diferente parece ahogada por el todo es lo mismo.

Las nuevas tecnologías comunicativas no suscitan oposición abierta, pero sin duda producen rechazo. Aunque desde los movimientos sociales a las comunidades cyberpunks, pasando por multitud de colectivos radicales, parece abrirse o al menos no se niega rotundamente la posibilidad de usos liberadores, comportamientos individuales manifiestan resistencia e incluso hostilidad ante la continua renovación tecnológica que, al requerir siempre nuevos adiestramientos, en definitiva impone una intensificación directa o indirecta de la jornada laboral.

Desde este punto de vista la escalada de nuevas tecnologías sería sufrida sencillamente como la obligación de trabajar más. Pero su funcionalidad en la recomposición del ciclo productivo va más allá, pues cuando el tiempo de vida en su totalidad tiende a convertirse en tiempo de trabajo, y cuando la comunicación deviene un elemento productivo primordial, la sociedad en su conjunto trabaja como una gran máquina productiva cuya integración no sería tan eficiente sin las tecnologías comunicativas, de entre las cuales Internet es la más paradigmática.

No es fácil caracterizar aquello que es Internet debido a que esta red de redes posee la doble calidad indivisible de aquello que es al mismo tiempo un producto y también su propio medio de producción, y que por tanto satisface necesidades al tiempo que las instituye. Internet es una nueva tecnología y al mismo tiempo es una infraestructura para la comunicación; infraestructura que es global y que tiene propósito universal. Como tecnología, Internet es a la vez artefactual, pues está integrada por ordenadores, cables o satélites materiales claramente identificables; es también tecnología organizativa, pues impone un determinado modelo de interacción comunicativa: la red; y finalmente es una tecnología simbólica, pues vehicula la construcción de nuevas realidades materiales y virtuales que no podrían producirse de otro modo.

Al mismo tiempo Internet es una infraestructura con aspiraciones globales, pues tiende a englobar toda la realidad productiva en sus múltiples aspectos de producción, distribución, consumo, espectáculo, participación... Y su propósito es universal, pues no ha sido desarrollada, y en ello estriba en gran medida su potencia, para proveer servicios particulares. Por el contrario, soporta todo tipo de información, ya sea ésta codificada como texto, datos, imagen estática o en movimiento, sonido, e incluso realidad virtual, y no se prevén límites a la cantidad o variedad de los servicios que puede ofrecer.

El carácter novedoso de Internet estriba en ser la primera infraestructura comunicativa global y universal organizada según el modelo de red. Es cierto que se han desarrollado otras muchas tecnologías comunicativas pero, o bien no soportan satisfactoriamente nuevas maneras de codificar la información (caso del teléfono) o bien se organizan según un modelo centralizado que no soporta la interacción (caso de la televisión).

Puesto que una red no es simplemente un conjunto de canales de comunicación interconectados, sino también una técnica organizativa, Internet no es solamente un modo más sofisticado de mantenernos informados, sino una infraestructura adecuada para la comunicación y la cooperación social en la justa medida que el actual proceso de producción social demanda, aunque precisamente por su carácter global y universal pueden producirse excesos de participación que, probablemente, serán controlados a través del precio de los accesos y de los servicios.

Las redes de ordenadores son una respuesta tecnológica a la necesidad de aumentar la productividad a través de la integración de la información y de la utilización intensiva de las máquinas, lo que eufemísticamente se conoce como compartición de recursos. Antes de su aparición, la compartición de información por parte de varios ordenadores sólo era posible mediante la utilización de dispositivos de almacenamiento extraíbles (por ejemplo, nuestros disquetes de hoy en día). El uso de unidades de almacenamiento extraíbles permitía a varios usuarios compartir información, pero no permitía compartir otro tipo de recursos tales como impresoras, discos duros, o programas. Las tecnologías LAN (Local Area Network) vinieron a resolver este problema. Utilizando las diversas tecnologías LAN disponibles fue posible interconectar varios ordenadores no muy alejados entre sí, por ejemplo situados en un mismo edificio, a fin de que pudieran compartir información, programas y demás recursos tales como impresoras o discos duros.

Paralelamente al desarrollo de las tecnologías LAN, aparecieron las tecnologías WAN (Wide Area Network). Las tecnologías WAN vinieron a satisfacer la necesidad, surgida especialmente en centros de investigación industriales y académicos, de acceder a un ordenador situado a muchos kilómetros de distancia (por ejemplo al otro lado del Atlántico) para utilizar su capacidad de cálculo.

De las tecnologías LAN y WAN surgieron las redes. Las redes se mostraron más potentes que la suma de sus componentes, y la compartición de recursos empezó a parecer algo natural, incluso a pesar de las demoras que toda compartición conlleva. Pero la proliferación de redes produjo nuevas necesidades tecnológicas.

Una red de ordenadores no es un grupo de ordenadores conectados entre sí, sino un dispositivo con sus propias características mecánicas, eléctricas y lógicas cuya existencia es independiente de los ordenadores que la utilizan. Los ordenadores no son la red. Simplemente se conectan a ella temporal o permanentemente y utilizan los servicios que ésta proporciona: por ejemplo, el acceso a una impresora, la transferencia de un fichero, la ejecución de un programa o el envío de un mensaje.

La consecuencia de este detalle técnico es muy relevante, pues significa que no pueden unirse dos redes pequeñas para formar una red mayor simplemente tirando un cable entre ambas. La mayoría de tecnologías LAN son incompatibles entre sí. Lo mismo ocurre con las tecnologías WAN y por supuesto entre unas y otras. Cada tecnología tiene sus propias especificaciones respecto a voltaje, frecuencia, modulación, codificación, direccionamiento, transporte etc. A finales de los años setenta había muchas LAN y alguna WAN. No había, sin embargo, la posibilidad de unirlas entre sí, de manera que cada red permanecía aislada.

A finales de los años sesenta, el Departamento de Defensa de los EE.UU. a través de la agencia federal ARPA (Advanced Research Projects Agency) se interesó por desarrollar la investigación sobre redes de ordenadores utilizando gran variedad de tecnologías. Según se cuenta, ARPA pretendía que las redes de ordenadores del Departamento de Defensa pudieran mantener la operatividad ante un eventual ataque soviético. Para ello, las redes se debían organizar propiamente como redes, es decir, sin un lugar central que las hiciera vulnerables. ARPA asumió la interconexión mútua de distintas redes como un problema de carácter estratégico para la defensa de EEUU, e interesó a investigadores tanto industriales como académicos en su solución, les instó a discutir sus hallazgos y poner en común sus proyectos, y puso a su disposición medios para aplicar sus propuestas. Dado que el objetivo era la interconexión entre las LAN y las WAN, el proyecto auspiciado por ARPA empezó a conocerse como internetwork (interredes) y con el tiempo el término abreviado, internet, se aplicó tanto a los proyectos de investigación como a las redes prototipo que se desarrollaron. ARPA concibió el proyecto de la interconexión entre redes como algo eminentemente operativo, e instó a los investigadores a aplicar sus descubrimientos en la WAN de ARPA llamada ARPANET. Sobre la estructura de ARPANET los ingenieros del proyecto internet desarrollaron una interred prototipo que, para distinguirla de otros prototipos fue bautizada como Internet (la inicial con mayúsculas). De esta manera, Internet fue la red utilizada por los investigadores del proyecto para intercambiar documentos, poner en común ideas y coordinar su trabajo, mientras que al mismo tiempo fue una red experimental sobre la que se aplicaron esas ideas y proyectos, adquiriendo desde el primer momento el doble carácter de ser a la vez productora y producida.

A mediados de los años setenta las empresas informáticas que habían desarrollado tecnologías LAN o WAN no sólo mantenían en secreto los resultados de sus investigaciones, sino que patentaban las tecnologías para garantizar la propiedad sobre ellas. Las empresas creían que crear sistemas cerrados preservados de influencias exteriores garantizaba de mejor manera sus beneficios. Por el contrario ARPA decidió que Internet fuera un sistema abierto y en consecuencia los resultados de proyecto se hicieron públicos. Contraviniendo lo que por aquel entonces era habitual, todas las especificaciones de Internet fueron publicadas y puestas a disposición de cualquier empresa que quisiera desarrollar una tecnología compatible.

A principios de 1983 una nueva manera de interconectar redes había sido lo suficientemente desarrollada, probada y depurada como para ser de utilidad al ejército de los Estados Unidos y ARPA conectó a Internet todas las unidades militares.

Mientras ARPA auspiciaba el proyecto Internet, ingenieros de la empresa Bell desarrollaban otra tecnología: el sistema operativo Unix. Hasta ese momento cada sistema operativo había sido desarrollado para una determinada arquitectura de ordenador, es decir, para una determinada estructura del hardware. En consecuencia, el desarrollo de una nueva arquitectura de ordenador exigía la implementación de un nuevo sistema operativo. Bell aspiraba a desarrollar un sistema operativo portable, es decir, adaptable a cualquier arquitectura de ordenador. A fin de probar la portabilidad de la tecnología Unix, Bell decidió hacer público no sólo el uso de este sistema operativo, lo que significaba su distribución libre y gratuíta, sino el sistema operativo en sí, de manera que hizo público el código fuente de Unix e instó a profesores y estudiantes a que lo probaran en nuevas máquinas, siendo en la Universidad de California en Berkeley donde el interés por Unix fue mayor.

La agencia federal ARPA, al caso de esta movida, supo ver la enorme capacidad productiva que se ponía en marcha gracias a la libre distribución del software y negoció un convenio de investigación con la universidad de Berkeley: ARPA suministraba a la universidad una copia del software desarrollado en el proyecto Internet, y los investigadores universitarios se comprometían a incorporar este software en las nuevas versiones de UNIX.

A partir de este momento un sistema operativo de libre distribución conocido como UNIX contenía todo el software necesario para poner en marcha una red bajo la tecnología Internet. Muchos universitarios construyeron redes experimentales con fines académicos utilizando este software y empezaron a proliferar internets que, aunque no estaban conectadas físicamente con Internet, utilizaban la misma tecnología y experimentaban con ella.

A finales de los años setenta, muchos investigadores industriales y académicos manifestaban la necesidad del trabajo en red. La agencia federal NSF (National Science Foundation), responsable de la investigación y enseñanza de ingenierías, asumió el proyecto de interconectar a todos los investigadores informáticos en una sola red que se llamaría CSNET. ARPA apoyó el proyecto y ofreció Internet como infraestructura para CSNET. CSNET proporcionó conexiones Internet a los departamentos de informática de los centros universitarios pero, como la conexión a era cara, desarrolló maneras de proporcionar los servicios de la red sin una conexión física completa, siendo así como Internet comenzó a ofrecer distintos modos de acceso. El hecho de proveer de acceso a Internet a los centros académicos tuvo resultados multiplicadores. Muchos estudiantes en busca de temas para sus proyectos de fin de carrera investigaron sobre Internet, pusieron a prueba la capacidad de la red, idearon aplicaciones para probar su funcionalidad y aportaron entusiasmo, creatividad y capacidad productiva. Cuando en 1983 el ejército de los Estados Unidos decidió utilizar Internet como red operativa, muchos investigadores, profesores y estudiantes de centros universitarios habían contribuido a la robustez de esta nueva tecnología.

Durante los años siguientes, Internet se consolidó como infraestructura para la comunicación. El crecimiento de Internet no debe sólo medirse, como suele hacerse, en términos de cantidad de máquinas conectadas, sino también en términos de su funcionalidad estructural. Distintas agencias federales de los Estados Unidos, tales como la NASA (National Aeronautics And Space Administration) o el DOD (Departament of Defense) adoptaron la tecnología Internet bien fuera con conexión física o sin ella, mientras que la NSF apostó por Internet como medio de conexión entre investigadores en pro de la mayor competitividad de Estados Unidos en el mercado mundial. Y la estructura física de Internet quedó pequeña.

En 1987, la NSF asumió la construcción de una nueva columna vertebral para Internet, adjudicando en concurso público las líneas de transmisión de larga distancia a MCI, los ordenadores a IBM y la operatividad de la red a MERIT. Internet triplicó su capacidad, pero a finales de 1991 de nuevo quedó pequeña. La NSF decidió dejar de sufragar los gastos de Internet e implicó a las empresas privadas en la construcción de una nueva columna vertebral, de manera que IBM, MCI y MERIT formaron una asociación llamada ANS (Advanced Networks and Services) que construyó una nueva columna vertebral para Internet conocida como ANSNET. En esta ocasión su capacidad se multiplicó por treinta, y por primera vez los cables y ordenadores sobre los que se sustenta Internet dejaron de pertenecer al gobierno de los Estados Unidos para pertenecer a una empresa privada, iniciándose así el proceso de privatización de Internet y su uso como red comercial tal y como hoy la conocemos, es decir, como un terreno abonado para la venta no sólo de ordenadores y programas, sino que también de accesos y servicios.

Mientras en los Estados Unidos se desarrollaba la tecnología Internet, en Europa se desarrollaba con el mismo propósito la tecnología X.25. Aunque en sus aspectos artefactuales las tecnologías Internet y X.25 vienen a ser la misma cosa, difieren enormemente como tecnologías simbólicas. A diferencia de Internet, en cuyo desarrollo fueron implicadas multitud de capacidades productivas, la tecnología X.25 fue desarrollada y aplicada bajo el control de las compañías telefónicas, que son monopolios de sus respectivos estados. El caso es que mientras la tecnología X.25 se desarrolló exclusivamente como tecnología artefactual para el transporte de la información (servicios bancarios, reservas en ferrocarriles o líneas aéreas...) Internet incorporó multitud de servicios que son reflejo de la pluralidad de subjetividades que intervinieron en su construcción. Desde juegos de rol hasta comunicados del subcomandante Marcos, potencialmente todo lo que hoy es decible se dice en Internet. Por eso, mientras que otras redes de redes han pasado desapercibidas, Internet es un fenómeno que, dicho sea de paso, entró en Europa financiado por IBM.

Internet no es el único servicio de comunicación disponible que enlaza ordenadores, pero difiere de los servicios pioneros como Compuserve, USENET o American Online. Mientras que estas redes comerciales fueron diseñadas atendiendo al servicio que debían prestar, es decir, adaptando su hardware y su software a la mejor prestación del servicio, Internet no ha sido diseñada para ofrecer ningún servicio específico. La especialización que en principio favoreció la competitividad de los servicios telemáticos ha redundado al mismo tiempo en su falta de competitividad, pues los costos de agregar nuevos servicios a redes diseñadas para otros usos son muy elevados. Por el contrario, Internet no ha sido diseñada para ofrecer ningún servicio en particular y puede, por tanto, ofrecerlos todos incluyendo aquéllos que ni siquiera habían sido concebidos cuando se desarrolló la tecnología básica. Flexibilidad, versatilidad y adaptabilidad (cualidades todas ellas muy valoradas por la patronal) confieren a Internet ese carácter de tecnología-infraestructura universal hegemónica en el mercado de las redes de redes.

El software que proporciona los servicios en Internet está organizado según dos capas funcionales: la capa inferior contiene el software necesario que permite la comunicación entre ordenadores, y se conoce como TCP/IP. La capa superior está formada por las aplicaciones que proporcionan los servicios. El conjunto de protocolos TCP/IP es el software que proporciona los recursos de comunicación básicos utilizados en Internet, y constituye la base sobre la que se sustentan todos los servicios.

A pesar de la diversidad de servicios que ofrece Internet y de las distintas apariencias que estos servicios adoptan, todas las aplicaciones que corren en Internet siguen el mismo modelo de organización y se ajustan al paradigma conocido como cliente-servidor.

La interacción de dos ordenadores bajo el modelo cliente-servidor significa que uno de ellos ofrece un servicio y el otro lo demanda o, dicho de otro modo, que el ordenador cliente solicita un servicio que el ordenador servidor le presta. Por ejemplo, si en un ordenador un programa servidor maneja archivos, entonces un programa cliente en otro ordenador le podrá solicitar la transferencia de uno de esos archivos. Si un servidor maneja un juego multiusuario, quien quiera participar en el juego deberá disponer de un programa cliente y solicitar un acceso al servidor del juego.

La adopción del modelo cliente-servidor como paradigma de interacción no es un asunto inocente, pues determina absolutamente (igual que nuestras democracias) no aquello que puede decirse, sino el procedimiento para decirlo.

Aunque en sentido informal hablamos de ordenadores que se conectan, en sentido estricto únicamente los programas se pueden comunicar. Cuando en Internet se establece una conexión ello significa que dos programas, necesariamente uno en calidad de cliente y otro en calidad de servidor, están interactuando.

Aunque Internet no "cierra" y siempre está dispuesta a transportar información de un punto a otro, no hay por qué suponer que la comunicación siempre es posible. En cierto modo, Internet funciona como una red telefónica: el programa cliente debe llamar y el programa servidor debe responder la llamada antes de que la comunicación sea efectiva. Dicho sea de otro modo, la comunicación sólo es posible si el servidor está en funcionamiento y acepta llamadas.

Debido a que son los programas y no los ordenadores los que se comunican, y debido a que los ordenadores pueden ejecutar varios programas simultáneamente, cada ordenador puede participar en muchas conversaciones al mismo tiempo, actuando en unas como cliente y en otras como servidor.

Internet es una red entre iguales o, con otras palabras, es una tecnología punto a punto (peer-to-peer networking). El término punto a punto enfatiza la relación simétrica entre todos los ordenadores conectados a la red, la ausencia total de niveles jerárquicos, la posibilidad de interactuación en modo indeterminado de todos con todos, y por tanto la facultad de cualquier ordenador de iniciar arbitrariamente la conversación con cualquier otro. Las redes entre iguales carecen de la vulnerabilidad de aquellas otras organizadas según el modelo maestro-esclavo, en las que existe un lugar central (un ordenador) desde el que se organiza la conversación. El ordenador maestro se dirige reiteradamente a cada uno de los ordenadores esclavos y pregunta ¿tienes algo que decir a alguien? Si la respuesta es afirmativa el esclavo envía los datos al maestro, que a su vez los envía al esclavo destinatario, y así sucesivamente.

Si el modelo maestro-esclavo puede describirse como "habla sólo cuando se te pregunte", el modelo punto a punto se describiría como "todas las iniciativas comunicativas son bienvenidas" o incluso "di lo que sea, pero no calles". Ahora bien, el hecho de que cualquiera pueda iniciar la conversación no significa que ésta carezca de reglas. Antes se ha mencionado que el software Internet está organizado en dos capas funcionales. Pues bien, en la capa inferior, aquella que garantiza la comunicación, Internet es una red punto a punto, mientras que en la capa superior, aquélla que ofrece servicios, Internet es una red cliente-servidor.

A modo de resumen, digamos que utilizar Internet, a parte de las cuestiones relacionadas con el acceso a la red, supone discernir el tipo de servicio que se quiere utilizar, disponer en nuestro ordenador de un programa cliente para ese servicio, y conocer la dirección Internet de un servidor al que se le solicitará el servicio.

La tecnología Internet es, entre otras muchas cosas, un paradigma de interacción. Es cierto que en la red hay muchos recursos disponibles, especialmente el recurso información, pero a pesar de la abundancia informativa no basta con "estirar la mano y tomar lo que se necesita"; eso "que se necesita" hay que pedirlo según las reglas del juego. Naturalmente, las reglas pueden saltarse y la transgresión electrónica en forma de expropiación de la información ha sido la actividad favorita de los hackers (practicantes del libre acceso a la información) y los crackers (terroristas informáticos con afán destructivo), pero en las redes, para transgredir, hay que saber.

La gama de servicios que ofrece Internet no es algo definitivamente cerrado. Nuevos servicios pueden añadirse si se programan aplicaciones servidoras y clientes adecuadas. Y es posible que otros servicios desaparezcan o queden muy restringidos, simplemente dejando de programar aplicaciones servidoras y clientes de libre distribución (gratuitas). Se listan a continuación los servicios más utilizados:

1.Servicios que manejan información previamente grabada:

2.Servicios de comunicación directa:

No se ha incluido en esta lista el servicio probablemente más utilizado: aquello que se conoce como navegar. La navegación en Internet se basa en el hecho de que tanto la información como los servicios tienden a estar integrados en una única estructura. A causa de esta integración establecida mediante múltiples enlaces y referencias, los servicios (modos de acceso), los menús (opciones de acceso) y la información en sus múltiples codificaciones de texto, imagen, sonido, imagen en movimiento o realidad virtual (acceso propiamente dicho) se organizan como una misma cosa, denominada WWW (World Wide Web).

A diferencia de una búsqueda, en la que se sabe lo que se quiere encontrar y se utiliza un procedimiento automático, la navegación sitúa al navegante en posición de protagonista de su propio deambular. La navegación, efectuada a base de elecciones continuas e indeterminadas, es una interactuación con la red mediante la cual el navegante no queda reducido a mero espectador-consumidor del espectáculo telemático, sino que asume el papel de protagonista de su propia aventura y virtualmente construye su propia historia. La posibilidad de navegar confiere a Internet una componente simbólica, puesto que funciona como una puerta abierta a la posibilidad de nuevas experiencias en un mundo inagotable de realidades virtuales que sin embargo conectan con las subjetividades y crean realidades materiales. El hecho de que en muchas ocasiones la navegación sea impracticable (lentitud, fallo en los enlaces, precio...) no es necesariamente un argumento contra las espectativas que ofrece, de la misma manera que el aburrimiento que produce la televisión no necesariamente conlleva dejar de verla.

Internet (como muchos otros) es un producto anónimo producido por una empresa social (sin patrón concreto) y en cuya producción han participado muchos trabajadores que no han recibido por su trabajo salario directo alguno. Este producto social, como se ha relatado más arriba, ha sido posteriormente privatizado y apropiado por empresas concretas merced a determinaciones políticas, o sea, de poder. Que sea un producto social del cual nadie se preocupa lo más mínimo por saber quién fue su inventor, descubridor o constructor no significa que sea un producto autónomo o neutro. Puesto que en el actual ciclo productivo el producto debe ser vendido mientras es fabricado, y fabricado mientras es vendido, no pueden secuenciarse con nitidez los tiempos y lugares de la producción, distribución, venta, consumo y reproducción. El trabajo se parece cada vez más a aquello que consigue su objetivo en el propio realizarse y cuyo resultado es lo único que debe ser controlado, o sea, la prestación de un servicio, aunque paradójicamente el salario se continúa midiendo por el tiempo de trabajo puesto a disposición de la empresa concreta, y la relación salarial continúa siendo la fuente del derecho a muchas de las prestaciones sociales: subsidio de desempleo, viudedad, subsidio agrario, subsidio por enfermedad, jubilación... Pero la capacidad de trabajar (ganas, necesidad, miedo, entusiasmo, aceptación, autoimplicación, adiestramiento...) no está dada de una vez por todas, y como cualquier otro producto debe ser producida y producida, además, continuamente. Su producción no puede ser una producción "en serie", sino que debe tener la apariencia de una autoimplicación libre que permita a cada cual "construirse a sí mismo" pero construirse, eso sí, para ser productivo. En este proceso de producción de la capacidad de trabajar entra todo, y por supuesto entran actividades consideradas por "el sentido común" como no productivas, tales como hacer el amor, conversar con un amigo o ver la televisión. Producir no puede ser identificado con cansarse o con percibir un salario y, contradiciendo las tesis oficiales, lo difícil dada la naturaleza del actual ciclo productivo es estar en paro, aunque evidentemente todas las formas que reviste el trabajo no son igualmente penosas, insalubres, peligrosas, humillantes o aburridas.

La actual manera de producir (llámese descentramiento de la actividad productiva, posfordismo, productividad social...) precisa y produce redes: redes para hacer negocios, pero también para producir capacidad de trabajo y, por supuesto, para enrolar fuerza de trabajo eludiendo la relación salarial, la negociación colectiva y los límites legales del despido. Si la complejidad de las redes sociales puede ser metida toda ella en una red telemática, si es posible (y deseado) dejar de producir o, como alguien ha dicho en Internet, si la realidad sólo tiene píxels, ésa es la cuestión.


bios/biotech homepage



- -