PIONEROS

agosto 23, 2008 at 5:46 pm (1. PIONEROS)

“Hipertexto” es una palabra fetiche para toda comunidad crítica que se haya aproximado al fenómeno de la digitalización de la escritura. Es un clásico. Tiene resonancias futuristas… pero del futuro pasado, aquel de finales de los años setenta, tan presente ahora con toda esta profusión de pastiche, entre perverso y nostálgico, que aborda nuestros sentidos desde el púlpito mediático (Lyon, David, 1996, 170) . Hasta en eso es un término postmoderno. Y como una copia de copias, como una reproducción falaz, la palabra “hipertexto” se trata de una mera carcasa con un contenido inalcanzable que solamente podemos atisbar otorgándole significados “diferentes” en esencia a él mismo. Como el “texto” y por extensión el “mundo” del que nos habló Derrida.
Si hay algo que evidencie con claridad la naturaleza convencional del lenguaje y su incapacidad para describir por sí mismo la realidad exterior, esto es un término nuevo que pretenda aprehender una realidad probable, potencial, o en constante cambio. Al término “hipertexto”, acuñado en los años sesenta, se le han tenido que añadir y quitar cualidades y atributos según ha ido evolucionando el panorama tecnológico. No obstante, nos parece interesante seguir la pista del término a lo largo de su breve historia sin un ímpetu totalizador ni exhaustivo en la cronología.
Conscientes de la incapacidad del término para abarcar y fijar el concepto, nos fijaremos en el significante mismo, en su visibilidad en el entorno académico y en su evolución, como quien indaga los diferentes impactos emocionales que a lo largo de las épocas ha causado un mismo término poético.
La historia del hipertexto es también un clásico. Desde que Gorge P. Landow pusiera de moda la crítica hipertextual a principios de los noventa con la publicación de Hypertext: The Convergence of Contemporary Critical Theory and Technology, todos los autores la han relatado con muy pocas alteraciones. Muchos y con muy buen criterio han aportado y, por supuesto publicado gratuitamente en Internet, sus inquisiciones como es el caso de la indispensable María Jesús Lamarca Lapuente y su historia del hipertexto . Simplemente me remito a ellos para la consulta de una cronología detallada. Sí quisiera, no obstante, subrayar que esta “historia oficial” del hipertexto obtiene su éxito de la apasionante fuente a la que remite. Una fuente de escasa relevancia científica para la creación de Internet pero que se ha incorporado definitivamente a la historia de este medio. Este hecho nos parece revelador de cómo la historia, por muy académica que sea, y con ella las demás disciplinas humanísticas basadas en la mediación del lenguaje, al igual que éste, no dejarán nunca de ser un juego entre humanos plagado de humor y guiños.
La fuente remota de la que hablamos es el artículo de 1945 As we May Think de Vannervar Bush y su Memex, publicado en la revista Athlantic Monthtly .
El documento de Vannevar Bush no ha sido indispensable para el desarrollo de la informática ni mucho menos está en la base de ningún estudio científico a cerca de Internet, pero los inextricables senderos de la historia han querido que este matemático estadounidense nacido a finales del siglo XIX, se encuentre ahora en boca de todos los que nos acercamos a las más modernas técnicas de la información. Su logro no es científico; aunque trabajaba en sistemas embrionarios de computadoras, los auténticos logros de la informática han sido los enderezados a la sustitución del paradigma analógico por el digital, y no a la mecanización exasperada de sistemas analógicos como hace Bush. Su logro es casi del orden de lo literario. Su relato es estupendo desde el punto de vista de la ficción. Pasados los cincuenta años más convulsos en materia tecnológica de la historia de la humanidad, no solo su propuesta idealista y fantasiosa ha terminado coincidiendo con la más pedestre realidad, sino que incluso el modelo de relato, ha terminado coincidiendo con un subgénero de la ciencia-ficción muy característico de la postmodernidad (Lyon, David 1996: 170).
La refundición y la mescolanza imperativas en las últimas décadas del siglo XX han dado lugar a una ingente variedad de estéticas basadas muchas veces en la fusión de géneros. El “steampunk”, se trata de un subgénero de la ciencia-ficción que plantea una realidad alternativa en la que no se hubiera dado la digitalización de la tecnología. Suele ambientarse en la Inglaterra victoriana y los artefactos tecnológicos son tan versátiles como los nuestros pero basados en la motorización a vapor, los engranajes, los triodos y las computadoras de tarjetas. La novela The Different Engine de William Gibson y Bruce Sterling de 1990, inspirada en la máquina del mismo nombre que proyectó Charles Babbage en 1822 para la Royal Astronomical society, ejemplifica muy bien este tipo de historias sobre realidades alternativas. El propio Vannevar Bush habla de esta “máquina aritmética” proyectada por Babbage en Cómo podríamos pensar (2001: 23).

Primer computador de Charles Babbage

Primer computador de Charles Babbage

También ha tenido gran visibilidad este subgénero (que a veces se limita a una estética) en el cine, la animación, el mundo del cómic y los videojuegos. Por citar un ejemplo reconocible de cada medio véase: Regreso al futuro III, la película de 1985 producida por Seteven Spielberg; The Wild Wild West, serie de televisión de finales de los sesenta de la que vimos una versión cinematográfica protagonizada por Will Smith en 1999 dónde se enfatizaba enormemente, gracias a la infografía, la estética “steampunk”; la conocida serie de dibujos Sherlock Holmes de Hayao Miyazaki, Tatsuo Hayakawa; el cómic que realizaran en 2003 para DC Alan Moore y Kevin O’Neal titulado La liga de los Hombres Extaordinarios y algunas de las entregas del exitoso videojuego Final Fantasy producido por la compañía japonesa Square Enix, que también utilizan el código estético del “steampunk”.

Pues bien, el relato de Vannevar Bush, en 1945, anticipa de manera absolutamente casual e inconsciente las características de este tipo de ficción. Parte de una preocupación por la labor de los científicos especializados en el campo de la física que, una vez terminada la guerra, no van a encontrar continuidad en sus investigaciones. Los avances tecnológicos y de técnicas de colaboración interdisciplinar habían sido muchos y el final de la guerra alimenta la perspectiva de un futuro pacífico en el que continuar por ese camino. Esto lleva a Bush a aventurar posibles invenciones y tecnologías del futuro, explotando esa faceta ingeniosa y creativa dónde ciencia y literatura convergen.
Vannervar Bush se encuentra entusiasmado por los avances en la miniaturización de las técnicas de microfilmado:

“Si, desde la invención de los tipos de imprenta móviles, la raza humana ha producido un archivo total, en forma de revistas, periódicos, libros, octavillas, folletos publicitarios y correspondencia equivalente a mil millones de libros, toda esa ingente cantidad de material, microfilmado, podría acarrearse en una furgoneta.”

Alentado por esta tecnología, idea dispositivos tan ingeniosos como unas gafas que sacan fotos, una cámara rápida para fotografía en seco y hasta una “máquina lógica” que “se alimentará de las instrucciones que le haga llegar una sala entera llena de señoritas armadas de teclados individuales”, y que, sin duda, “no tendrá el mismo aspecto que tienen las cajas registradoras en la actualidad, ni siquiera los modelos de líneas más modernas” . Pero su principal preocupación no es el almacenaje y reproducción de la información, sino llegar a ser capaces de consultarla. Su gran duda es ¿qué clase de aparato podría gestionar (almacenar y mostrar) esa cantidad ingente de información y qué sistema de indexación nos permitiría movernos por ella para dar con el material que nos interesa? La respuesta de Bush a esta cuestión es el Memex: un mueble del tamaño de un escritorio provisto con pantallas, palancas y un teclado en el que estuviera contenido el archivo de toda la información que su propietario fuera capaz de almacenar, microfilmada y dispuesta en compartimentos codificados a fin de poder ser accesible introduciendo el código específico de cada documento en el teclado. Mediante un sistema de proyección y ampliación de la imagen, los documentos aparecerían en las pantallas y con las palancas podríamos explorarlos página a página controlando incluso la velocidad. Con un botón especial puede visualizarse el índice del libro que se esté consultando en cualquier momento. Pero aún más interesante: podríamos añadir notas y comentarios a los documentos que consultáramos o vincular unos documentos a otros. Los “senderos de información” (como los llama Vannevar Bush) que vamos produciendo al consultar, anotar y enlazar documentos, quedan físicamente trazados, por lo que siempre podremos volver a seguir nuestros propios pasos, y con la ventaja de que un solo documento podría estar incluido en varios senderos distintos. Para rematar su ejercicio premonitorio, Bush añade que estos senderos podrían ser copiados a una película de microfilm virgen y compartidos con otros propietarios de un Memex, pudiendo ser incorporados como enlaces a sus propios senderos de información. Por supuesto la labor del enciclopedista evolucionará hacia una nueva profesión: “la de los trazadores de senderos, es decir, aquellas personas que encuentran placer en la tarea de establecer senderos de información útiles que transcurran a través de la inmensa masa del archivo común de la Humanidad”. El Memex se conduce por mecanismos asociativos, igual que la mente humana según su inventor, por lo que consiste en una verdadera extensión de nuestra memoria y de nuestro conocimiento. Llegados a este punto, y aún concediendo que la tecnología de su tiempo todavía no lo permite, el vuelo desatado de la imaginación de Bush no puede evitar dar un paso más en la fantasía y atisbar, en un futuro cercano a su tiempo, el mecanismo que permitirá conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente, igual que el resto de actividades intelectuales.
El documento de Vannevar Bush es tan original e imaginativo que, al igual que las novelas de Julio Verne, nunca agota su capacidad para servir de referencia a los sucesivos inventos que por diversos derroteros va ideando la humanidad. Así, en los años sesenta el Memex, con sus senderos de información a base de vínculos, constituyó la profecía del documento hipertextual concebido por Theodor Nelson, del que hablaremos inmediatamente; a finales de los años ochenta, las posibilidades del Memex para generar una red conjunta de senderos de información, parecían tomar forma en el desarrollo de la World Wide Web de Tim Berners-Lee; hoy en día existen páginas Web que se organizan a modo de comentarios en torno a determinados enlaces, donde los administradores exponen su experiencia navegadora en la Red, recordándonos vivamente al aficionado a trazar senderos que describía Vannevar Bush; muchos Web-Logs, funcionan en este sentido, con la añadidura de que el visitante puede publicar comentarios y la Wikipedia, con sus enlaces internos y externos, donde cada cual escribe y modifica a su antojo los artículos y las entradas ante el control altruista de una audiencia potencial de millones de usuarios, remite sin duda al nuevo bibliotecario imaginado por Bush. La magia de este texto reside precisamente en su gran libertad imaginativa, que ha sido capaz de proveer a la comunidad científica de inspiración conceptual durante cincuenta años, y de continuar haciéndolo.

Escritorio ideado por Vannervar Bush

Escritorio ideado por Vannervar Bush

La siguiente estación indispensable en este somero recorrido por el término “hipertexto”, es, naturalmente, su inventor: Theodore Holm Nelson. Se trata de un norteamericano nacido en 1937 del músico Ralph Nelson y la actriz Celeste Holm. Se licenció en Filosofía por la Universidad de Swarthmore en 1959 y en 1963 realizó un master en sociología en la Universidad de Harvard. En 2002 realizó su doctorado en la Universidad de Keio, Japón, donde es profesor de Environmental Information. En la actualidad también participa como profesor e investigador en la Universidad de Southampton, en el Wadham Collage de Oxford y en el Oxford Internet Institute.
Al contrario que Vannevar Bush, Ted Nelson no es un tecnólogo y nunca lo ha sido; coincidiendo con su predecesor, es un entusiasta visionario que anticipó la “idea” a la posibilidad de su realización técnica. Su “visión” queda reflejada por primera vez en su artículo A File Structure for the Complex, the Changing, and the Indeterminate, que leyó durante la vigésima conferencia anual de la Association of Computer Machinery (ACM) en 1965. Para entonces había habido grandes avances en la computerización electrónica basada en la aritmética binaria desde que en 1949 los británicos desarrollaran el EDSAC (Electronic Delay Storage Automatic Calculator), el primer embrión de ordenador tal y como lo conocemos hoy en día. Esto quiere decir que para entonces la tecnología había llegado, aunque de manera oblicua y persiguiendo otros fines, a la digitalización de la escritura. Un espacio indeterminado entre lo físico y lo virtual, entre lo real y lo ficticio, había sido creado gracias a la codificación electrónica y los programas de almacenado, y en él podía volcarse la letra. Ted Nelson lo había visto e imaginó su versión del “documento total” de “lectura no lineal” en ese espacio desde un principio.
Naturalmente, los informáticos sólo veían en la escritura digital la conexión necesaria entre el lenguaje humano y el lenguaje de la máquina que tiene lugar en la interfaz de un programa. Pero para Ted Nelson, interesado en la distribución, el almacenamiento y la consulta de documentos, la mera existencia de la escritura digital, abría un descomunal campo de posibilidades con las que el sistema analógico, sencillamente, no podía competir. Vannevar Bush, fascinado por la miniaturización del microfilm, nunca hubiera podido siquiera soñar con las dimensiones en las que trabaja el microchip y la capacidad de almacenaje de datos que ofrece. Ya estaba escrito que la informática iba a quedar vinculada por siempre a la revolución en la manera de concebir el texto.
La idea original de Ted Nelson es la de un nuevo universo textual “superior” al precedente, de ahí la etimología de su neologismo “hiper-texto”. En un primer momento define el concepto atendiendo poco a la realización práctica de él. Lo describe como un texto de lectura no secuencial, fragmentado y al que se accede a través de vínculos por asociaciones equivalentes a las que realiza el cerebro humano. Claramente, esta perspectiva continúa las tesis de Vannevar Bush a cerca de que la linealidad que se refleja en la escritura no da cuenta de los procesos mentales de que nos valemos los seres humanos para asimilar la información y que, por lo tanto, es necesario idear un sistema más adecuado de producción y recepción de documentos. Más adelante, influido por los avances en la presentación y usabilidad de las interfaces desarrollados sobre todo por el Xerox PARC , concreta más su definición de hipertexto y en su obra Literary Machines de 1981 , lo define de la siguiente manera:

“Con hipertexto, me refiero a una escritura no secuencial, a un texto que bifurca, que permite que el lector elija y que se lea mejor en una pantalla interactiva. De acuerdo con la noción popular, se trata de una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario”

Por supuesto estos fragmentos de texto podían ser también otro tipo de documentos como imágenes, sonidos o vídeo. Ted Nelson considera relevante la diferencia entre una red de textos exclusivamente compuestos de letra escrita y otra que incorpore también otro tipo de documentos en distintos formatos mediáticos, de manera que acuña también el término “hipermedia” para referirse a los hipertextos que incluyen imágenes y sonidos.
En principio parece un término útil para describir un concepto de documento más alejado todavía del texto impreso, pero como hemos dicho más arriba, la historia de una terminología no siempre responde a los imperativos axiomáticos de la lógica, sino, en muchas ocasiones, al albur de los impredecibles acontecimientos de una sociedad cuya racionalización está lingüísticamente mediada. Aquí queremos centrarnos en la historia de los términos, y lo cierto es que el término “hipermedia” no ha disfrutado de mucho éxito. Un dato ilustrador de esta situación aunque no excesivamente relevante, es el hecho de que la Real Academia de la lengua, recoja el término “hipertexto” y no “hipermedia”. La situación privilegiada que el término “texto” ha tenido para la crítica en los años sucesivos a las definiciones de Nelson, ha influido sin duda en el escaso éxito del neologismo. El “texto” a sido reverenciado como elemento básico de todo acto comunicativo y, bajo esta perspectiva, puede considerarse “texto” prácticamente cualquier cosa que signifique algo para alguien. La incorporación de imágenes y sonidos al hipertexto solo amplía la tipología de documentos que usamos para construir nuestro mensaje, pero en tanto que elemento comunicativo encaminado a la recepción significativa por parte de otros, el concepto hipermedia puede verse incluido dentro del término “hipertexto”, y así lo consideraremos en lo sucesivo.
Pero Ted Nelson no solamente fue un prolífico inventor de palabras. A él debemos, haciendo honor a la justicia, atribuirle la idea primigenia que más adelante dio lugar a la creación de la World Wide Web. El propio Tim Berners Lee, inventor técnico de la WWW, no tiene inconvenientes en reconocer la gran deuda adquirida con las investigaciones de su predecesor teórico.
La idea de Ted Nelson cobra forma en el proyecto Xanadú, un sistema de organización y almacenamiento de ficheros informáticos conectados por una red de vínculos que aspiraba a aglutinar todos los documentos escritos de la humanidad. El nombre, Xanadú, da cuenta de la vocación literaria y humanística de su autor. Hace referencia a la ciudad-palacio del emperador mongol Kubla Khan descrita en el poema del mismo nombre de Samuel Taylor Coleridge . Las reminiscencias idealistas y oníricas de este espacio maravilloso e inaprensible, se adecuan perfectamente al espíritu poético y visionario de Nelson, para quien Xanadú nunca dejó, ni ha dejado de ser, un sueño utópico largamente codiciado por la humanidad.
En El sueño de Coleridge, en Otras Inquisiciones , Borges pone de relieve la naturaleza onírica tanto del Xanadú lírico de Coleridge como del arquitectónico de Kubla Khan. En 1816 Coleridge publica a modo de glosa un comentario a su propio poema en el que relata cómo éste le fue sugerido en un sueño. Veinte años más tarde se publica un Compendio de historias de Rashid el-Din, que data del siglo XIV, dónde, según el omniscio Borges, podía leerse: “Al este de Shang-tu, Kublai Khan erigió un palacio, según un plano que había visto en un sueño y que guardaba en la memoria” . Kubla Khan sueña Xanadú y construye un castillo, Coleridge sueña casi mil años después Xanadú y escribe un poema… De esta concatenación de sueños, Borges deduce el plan trascendental de un ser inmortal para la construcción de Xanadú, y en vista de que el proyecto no esta acabado, no descarta que:

“…algún lector de Kubla Khan soñará, en una noche de la que nos separan los siglos, un mármol o una música. Ese hombre no sabrá que otro dos soñaron, quizá la serie de los sueños no tenga fin, quizá la clave esté en el último.”

Ted Nelson se convierte en el tercer soñante de Xanadú, y como en las empresas que le precedieron, su proyecto de utopía no será definitivo. Su Xanadú no se encuentra en el espacio tal y como lo entendemos los humanos, sino en una microscópica relación de impulsos eléctricos solamente comprensible a nuestros ojos a través de la interfaz. Tampoco está construido de mármoles; como en el del sueño de Coleridge, la materia prima del Xanadú de Nelson es mucho más duradera: el lenguaje, para muchos la materia prima de lo humano. Xanadú es el lugar donde convergen todos los discursos humanos hipervinculados entre sí. De nuevo la historia del término nos resulta más atrayente que la del concepto que pretendía abarcar: al origen y carácter onírico debía su suceso el término elegido por Nelson para su proyecto; más adelante, cuando la tecnología permitió llevar a cabo algo muy similar a su realización técnica, desapareció toda poesía y no se reparó ya más en Xanadú, sino en las posibilidades que ofrecía la Red para hacer dinero.
Hoy en día el proyecto Xanadú está totalmente eclipsado por el éxito de la WWW, y es difícil oír nada a cerca de él si no es en retrospectivas históricas a cerca del hipertexto como ésta. Aún así, tiene una página oficial en le Web, http://www.udanax.com, en la que se nos explica la trayectoria y filosofía del proyecto, así como se nos muestran ejemplos de cómo funcionaría el tipo de hipertexto preconizado por Nelson. Por supuesto, se trata éste de un sistema que tiende a maximizar las diferencias con respecto a la Web de Tim Berners-Lee, en un intento por salvaguardar su originalidad. Las diferencias que ofrece el sistema de Nelson son principalmente del orden del almacenamiento (En Xanadú se guarda una copia de cada documento con lo que son siempre accesibles todas las versiones del documento con todas sus modificaciones) y de la licencia de autoría (Nelson abogaba por un sistema de micro-pagos automáticos a la cuenta del autor de cada hipertexto que consultáramos), pero en la práctica, la enorme difusión de la WWW ha sido un valor que por sí solo ha desvirtuado todo intento de crítica o de modificación; la tónica general ha sido la de mejorar el sistema desde dentro con nuevas aplicaciones antes que hacerlo partir de cero con una organización distinta. No obstante, es interesante que la propuesta de Nelson tenga su continuidad aunque sea en un estado de aletargamiento indefinido, y es que quizás, en un posible futuro en el que la Web esté totalmente controlada por las corporaciones productoras y distribuidoras de sistemas informáticos y sus patrocinadores, se haga conveniente despertarla.
La aportación fundamental de Theodor Nelson a toda la teoría crítica es la de vincular la escritura digital y los enlaces al mundo de la investigación y la literatura.
El hipertexto ya tenía un nombre y empezaba a ser objeto de estudio desde muy diversos ámbitos para indagar en sus cualidades, sus potencialidades y su aplicabilidad. Internet no estaba prácticamente desarrollada por aquella época, así que el hipertexto se concebía como un documento independiente: un hipertexto se guardaba en disquetes que luego podían grabarse a un ordenador. Se accedía a su contenido a través de un ordenador y usando el consabido sistema de enlaces, pero no dejaba de ser un documento aislado. Xanadú pretendía superar esta situación creando una red más o menos grande de ordenadores, pero en los años sesenta la idea de una cultura de la letra informatizada, de un acceso diverso a la información y una nueva manera de producirla ya era suficiente para mantener ocupada a la comunidad académica. Sobre todo a la comunidad humanística, tradicionalmente tan reacia a la tecnología, para la que estos cambios ya suponían un elevado coste de asimilación. Muchos se mostraron escépticos ante el nuevo medio y algunos extremadamente entusiastas. Se insistía desde una parte en la incomodidad de la lectura en el ordenador, en el estatus superior del venerado libro… otros en cambio veían en el hipertexto la superación definitiva de la letra impresa por sus cualidades, y en la literatura el final de una era y de una manera de entender la ficción narrativa y la poesía.
La palabra nueva comenzaba a ser abusada por las guerras dialécticas y las distintas corrientes interpretativas para tratar de imponerle el concepto al que refería.
Las aportaciones fundamentales que tuvieron lugar en los años sucesivos a los primeros trabajos de Nelson en cuanto al Hipertexto en los años setenta y ochenta, pueden dividirse grosso modo en dos frentes: el de los tecnólogos y el de los humanistas.

Permalink Dejar un comentario

APORTACIONES TÉCNICAS

agosto 23, 2008 at 5:46 pm (2. APORTACIONES TÉCNICAS)

Por un lado están los estudiosos que encauzaron la realización y perfeccionamiento técnico del hipertexto. Se trata de un nutridísimo número de científicos individuales y grupos de investigación, del que sólo nombraré algunos nombres relevantes, lamentando la exclusión de tantos y tantos colaboradores de proyectos grupales que con su capacidad de resolución de problemas concretos han logrado facilitar el acceso al medio digital a muchos neófitos como yo, y continúan haciéndolo.
De mención obligatoria en este apartado es Douglas Englebart , investigador en el Stanford Research Institute (EE.UU.) y uno de los auténticos pioneros de la informática. En 1942 se graduó en Ingeniería Electrónica en la Universidad Estatal de Oregón, y trabajó desde 1948 como ingeniero en la NACA (precursora de la NASA). Durante la segunda guerra mundial trabajó dos años en la marina como ingeniero de radares en Filipinas. Se trata por tanto de uno de esos científicos a los que se refería Vannevar Bush en As we may think, a los que la guerra había obligado a desviarse de sus investigaciones cotidianas, y que al término de ésta se encontraban con una avanzadísima formación tecnológica que podía ser empleada, inéditamente, en la construcción pacífica. Fascinado por la gestión de los documentos en pantalla que había tenido ocasión de observar en su trabajo con radares, nunca dejó de plantearse la manera en que estos avances podrían ayudar a mejorar la vida de las personas corrientes. A finales de los sesenta elabora un sistema de hipermedia para trabajar conjuntamente en los mismos documentos desde distintos terminales de ordenador llamado NLS (oNLine System). Este software diseñado por Englebart, incorporaba ya muchas tecnologías que hoy día utilizamos cotidianamente: el ratón, el sistema de ventanas múltiples, el hipervínculo, el control de visionado de un documento… de hecho Englebart ha generado hasta veinte patentes de sistemas informáticos indispensables para la tecnología informática tal y como la entendemos en la actualidad.
El NLS tuvo gran difusión y un papel fundamental en la formación de ARPANET (el embrión de lo que más adelante sería Internet), y muchos lo consideran el primer sistema de hipertexto operativo, aunque no fue concebido como un hipertexto sino como una plataforma en la que compartir y vincular información. Como buen tecnólogo Englebart estaba más preocupado en los procesos técnicos que en los contenidos.
Pero como veremos en adelante, la incipiente Red de comunicación que se estaba generando en el ámbito de la investigación institucional (ejército, universidades) sería en el futuro absolutamente determinante en el desarrollo del Hipertexto. El sistema de Request For Comments (RFC) que utilizaba el primer grupo de trabajo en red de ARPANET, consistía en unas publicaciones no oficiales, públicas y modificables que funcionaban como proposiciones que debían debatirse . Puede verse claramente en esta iniciativa original, pensada para optimizar mediante el libre intercambio de información la investigación científica, es decir, basada puramente en la racionalidad técnica, el germen de toda la revolución de las comunicaciones que se viviría con la explosión de Internet, dónde el derecho a la libertad de intercambio trasciende el ámbito puramente técnico para alcanzar visos éticos, filosóficos y legales.
Simultáneamente al desarrollo de ARPANET, los laboratorios Bell, un departamento de investigación del operador de telefonía estadounidense AT&T, desarrollaron Unix, un sistema operativo de red, para su comunicación interna. El hecho de que no tuviera un interés comercial dado que no había un mercado de software, sumado a que un decreto de 1965 prohibía a AT&T obtener beneficios en otros sectores que no fuera la telefonía, permitió que el programa se distribuyera gratuitamente en el ámbito de las universidades. Esto produjo a su vez una comunidad cada vez más numerosa de individuos interesados en la informática que se comunicaban, aún de manera muy rudimentaria por esta red, por el momento global sólo en potencia, que se denominó Usenet .
Andries Van Dam, de la Brown University, creador del término libro electrónico, desarrolla en 1968 el FRESS (File Retrieval and Editing System) en colaboración con sus estudiantes entre los que se encontraba el propio Theodor Nelson . Se trata de un programa para escribir hipertextos y centraba sus esfuerzos técnicos en el elemento fundamental del nuevo medio: el hipervínculo. Así, el sistema de hipervínculos era muy rico, permitiendo marcar documentos para poder acceder a ellos con un clic desde cualquier otro sitio tanto desde fuera como desde dentro del mismo documento y con la posibilidad de asignar palabras clave relacionadas con los documentos para acceder a ellos directamente. Además tenía dos tipos de hipervínculos: tags y jumps. Los primeros remitían a un documento como una nota al pie o un comentario, los jumps eran hipervínculos de ida y retorno que enlazaban documentos más distantes. En lugar de ratón funcionaba con un bolígrafo de luz y se clicaba mediante un pedal. El principal escollo del FRESS era que se trataba más bien de un prototipo. Era un sistema complejo de manejar, en el que para editar un documento era necesario tener acceso a la computadora específica en que se había desarrollado.
Tuvieron que pasar muchos años de trepidantes avances tecnológicos en el campo de la informática a “nivel usuario”, de descubrimientos y estipulación de estándares, para llegar al primer sistema de hipertexto con una interfaz gráfica dinámica e intuitiva, similar a lo que conocemos hoy día.
Fueron los años en los que se fraguó la informática, sobre todo, gracias a la investigación en el ámbito norteamericano, en las universidades y en el ejército. Se comenzaron a aplicar y a rentabilizar muchos de los inventos de Douglas Englebart, pero también surgieron nuevas aplicaciones y propuestas de grupos de trabajo como el responsable del AMM (Aspen Movie Map) desarrollado en el MIT, que consistía en una secuencia de fotografías de la ciudad de Aspen por la que el usuario podía moverse a voluntad mediante unos controladores en la pantalla.
En 1986 Peter Brown desarrolla Guide en la Universidad de Kent en un sistema Unix, primero para Macintosh y luego para el PC de IBM. Un programa que permitía por primera vez la autoría de hiperdocumentos en ordenadores personales y que ofrecía además la posibilidad de utilizar tres tipos distintos de enlaces.
Pero el formato más exitoso de producción de hipertexto que siguiera con cierta fidelidad los preceptos de Ted Nelson, fue Hypercard, en 1987. Apple lo regaló durante años con su sistema operativo, lo que hizo que Hypercard fuera el programa para escribir hipertextos más difundido de la historia. Consistía en una base de datos en la que la información se presentaba en “tarjetas” (cards), en las que podían aparecer palabras resaltadas que conducían a otras tarjetas. Numerosos sistemas de Hipertexto fueron desarrollados en los años ochenta.
Pero el Hipertexto, tal y como fue concebido por Ted Nelson, durante muchos años fue una de esas aplicaciones de la informática relegada a un plano secundario por su escasa repercusión comercial. Hasta tal punto fue determinante una versión competitiva en términos comerciales y de mercado para la publicación de Hipertextos, como es el Web, que todos los sistemas desarrollados con ese mismo fin, previos a la aparición de la WWW, se denominan hoy día “sistemas pre-Web”. En la magnífica tesis doctoral de Mª Jesús Lamarca Lapuente podemos encontrar un pormenorizado análisis de todos estos sistemas de Hipertexto pre-web . Hoy día están obsoletos, pero sus aportaciones técnicas han sido indispensables para el desarrollo actual de WWW. Y lo más importante es que, en su día, también sirvieron para que un sector del mundo de las humanidades comenzara a acercarse al fenómeno de la digitalización de la escritura experimentando, analizando y cuestionando las posibilidades que ofrecía el nuevo medio.

Permalink Dejar un comentario

APORTACIONES HUMANÍSTICAS

agosto 23, 2008 at 5:45 pm (3. APORTACIONES HUMANÍSTICAS)

Si queremos rastrear la relación entre el Hipertexto y el mundo de las letras y las humanidades observaremos que ésta puede atestiguarse desde sus orígenes. El propio Ted Nelson, quien acuña el término en 1965, comienza su curriculum vitae online con la frase “I´m not a tekkie”, es decir que no se considera un tecnólogo en absoluto. Él se considera un “humanista de sistemas” (“a sistems humanist”), o bien un “poeta y un filósofo” tal y como lo definió la ministra francesa de cultura, Catherin Tasca, cuando lo envistió con los honores de Officier des Arts et Lettres .
Su relación con el objeto hipertextual es como la de un incomprendido guionista de Hollywood con el producto final que se estrena: en ocasiones, por muy bien razonado que esté un proyecto, por brillante que sea su concepción, ve supeditada su realización ulterior a la aceptación de múltiples condicionantes que en la mayoría de casos terminan por desvirtuar el valor artístico de la obra. Un actor de moda, una ligera o drástica suavización de los textos para abarcar al público masivo, la decisión de rodar en un estudio y no en otro por cuestiones de tráfico de favores… son todo ello decisiones tomadas al margen del interés por la calidad artística de la película, pero que resultan de una relevancia absoluta a la hora de optimizar los beneficios económicos. Solo en algunos casos concretos, y siempre de manera fortuita, estas modificaciones al original contribuyen a aumentar el valor del producto. En el ámbito del Hipertexto y de forma más patente en el de la informática en general, ha sucedido algo similar: las ideas de muchos teóricos enderezadas a mejorar el mundo y la comunicación entre las personas a través de la informática, se han topado con las exigencias de un tipo de competitividad determinada, en un tipo de mercado concreto, que en muchos casos ha coartado definitivamente su potencial de mejora social. No obstante mencionaremos, en este somero recorrido cronológico por los avatares del término, algunas de las iniciativas que se plantearon con anterioridad a la explosión Web.

Permalink Dejar un comentario

Iniciativas encaminadas a la publicación y almacenaje de textos tradicionales y su publicación en una red hiper-vinculada

agosto 23, 2008 at 5:43 pm (3. APORTACIONES HUMANÍSTICAS, 3.1 Iniciativas encaminadas a la publicación y almacenaje de textos tradicionales y su publicación en una red hiper-vinculada)

Recordemos que se trata éste de un objetivo capital e indisociable de toda propuesta Hipertextual desde aquella máquina Memex de Vannevar Bush hasta el proyecto Xanadú de Theodor Nelson.
La tentativa más exitosa hasta la fecha de conversión al formato digital de textos tradicionales es, sin duda, por su antigüedad y su adaptabilidad a los sucesivos avances informáticos, el Proyecto Gutenberg. Se trata a su vez de un producto indisociable de la tecnología que permitió la posibilidad de publicar documentos digitales accesibles desde cualquier ordenador, es decir, Internet. En el año 1971 la incipiente red conocida como ARPANET, conectaba diversas universidades norteamericanas mediante quince ordenadores que realizaban la función de nodos principales. A Michael Hart, estudiante en aquella época de la universidad de Illinois, le fue dado trabajar con uno de estos ordenadores, el Xerox Sigma V en una época en la que el potencial de Internet era todavía mayor que las ideas a cerca de qué hacer realmente con él. El joven Hart se encontró con un valiosísimo tiempo de conexión a una red que ofreciendo posibilidades casi infinitas, carecía prácticamente de contenidos. De hecho, el joven Michael, que no se veía capaz de aportar gran cosa en el ámbito de tecnología de computerización, decidió emplear el tiempo de conexión del que disponía en dotar a la red de contenidos. El primer texto que incorporó fue la Declaración de Independencia de los Estados Unidos (por supuesto debía ser un texto libre de derechos de autor) y lo envió a todos los terminales a los que tenía acceso, no más de un centenar de personas, como si de un actual virus informático se tratara. Así nació el primer e-Book del proyecto Gutenberg, siguiendo la terminología de Andrie Van Dam para referirse a las publicaciones digitales. Nosotros preferimos utilizar el adjetivo “digital” en lugar de “electrónico” tal y como recomienda la Presentación del número 142 de la revista Novatica, que recoge una selección de artículos de las Jornadas de Publicación Electrónica: un Nuevo Espacio de Comunicación, celebradas en la Universidad Carlos III de Madrid en Julio de 1999 .
Hoy en día el Proyecto Gutenberg cuenta con un ideario bien definido en el que se expone su filosofía, y con más de cincuenta mil libros digitales publicados en más de cuarenta lenguas distintas. Se trata de un proyecto de colaboración en el que cada usuario puede contribuir con su tiempo o dinero en las múltiples tareas que requiere el mantenimiento y ampliación de todo el servicio. La contrapartida de todo esto es que su propia magnitud está complicando en la actualidad su capacidad de crecimiento, tanto por problemas técnicos de almacenaje, como por agotamiento de los recursos humanos necesarios.
Pero el proyecto continúa y lo hace siendo fiel a sus premisas de gratuidad y accesibilidad, lo cual es muy meritorio en una sociedad racionalizada en torno a la productividad material. Ante todo, creemos que Michael Hart merece ser recordado por su capacidad visionaria. En un momento en el que la Red era un sistema de comunicación ínfimo, él supo ver el potencial que albergaba y vislumbró un futuro en el que miles de millones de personas podrían acceder a miles de millones de libros simultáneamente. Michael Hart supo ver y aprovechar una cualidad importantísima de la tecnología digital, la que él denomino Replicator Technology, que consiste en la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo (“o de fuera de este mundo gracias a los satélites”, se atreve a bromear en la página oficial del Proyecto) .
No han sido pocos los escollos que el proyecto de Michael Hart ha tenido que sortear para mantenerse activo durante treinta y seis años. Su propuesta de distribución pública y gratuita cuestionó desde el momento en que se subió a la red la primera letra, la utilidad de mantener un sistema editorial que basa la mayoría de sus ingresos en ofrecer unos servicios (de recopilación y distribución de obras clásicas) que se tornaban innecesarios, al menos en el nivel más primario de acceso al texto, es decir, el de el acceso al texto llano sin demasiada precisión filológica. Esto ha supuesto naturalmente fuertes tensiones con el mercado editorial y con las sociedades de autores que continuamente pugnan por ampliar el plazo de prescripción de los derechos autoriales. No es en absoluto casualidad que el Proyecto Gutenberg no haya tenido prácticamente resonancia mediática, ya que por su naturaleza marginal al sistema económico capitalista no se ha podido invertir en propaganda para su visibilización. Antes bien, los fortísimos intereses económicos que el Proyecto pone en peligro, se han esforzado en silenciarlo y boicotearlo en la medida de sus posibilidades, y buena prueba de ello es el hecho de que ningún gobierno ha consentido apoyar un servicio que, en el fondo, no dista del ofrecido por las bibliotecas públicas.
La “Tecnología de Replicación” supuso un paso adelante demasiado grande para ser asumido por el Marco Institucional de las sociedades desarrolladas. Lo atestiguan las continuas polémicas suscitadas por los programas que permiten compartir datos como Napster, e-Mule… (herederos, todos ellos, de la iniciativa original de Michael Hart) que han puesto de manifiesto una importante laguna legal: ¿debe ponerse cortapisas al avance tecnológico por mor del mantenimiento de un sistema que no favorece a la mayoría? ¿Debe punirse la voluntad de compartir sin ánimo lucrativo lo que uno tiene? Lo cierto es que los defensores del “antiguo régimen” como por ejemplo la SGAE —un organismo que funciona con el mismo espíritu conservador e interesado de los gremios medievales— han intentado “parchear” la situación con la imposición de tasas a la compra de cedés vírgenes y otro tipo de medidas de dudosa moralidad , que en cambio han contado con el beneplácito de las autoridades estatales y la justicia.
Puede decirse que Michael Hart es la persona que durante más tiempo ha sufrido la patente falta de simetría entre los cauces legales tradicionales de distribución y recepción de la propiedad intelectual y los nuevos modelos de comunicación instaurados por Internet. En una magnífica entrevista realizada por Sam Vaknin en 2005, Hart resumía con esta tesis concisa e incisiva, la base de todo el problema:

I would have to say the most important thing I learned in the past 35 years of thinking about eBooks is that the underlying philosophy since time immemorial is:
“It is better if I have it, and YOU do NOT have it.”

En cualquier caso la situación actual del Proyecto Gutenberg es muy interesante ya que en la nuevísima generación de contenido Web estamos siendo testigos de un renacimiento de este tipo de iniciativas basadas en compartir desinteresadamente y de manera cada vez más sencilla. Por supuesto el Proyecto Gutenberg no ha permanecido al margen de los nuevos sistemas de gestión de contenidos Wiki ni de los formatos de publicación cada vez más versátiles.
Además del Proyecto Gutemberg en los últimos diez años y gracias a la tecnología Web, han proliferado las bibliotecas digitales por todo el mundo. La Universidad de Alicante publica una lista de las bibliotecas digitales y virtuales más importantes de España y Estados Unidos, entre las que cabe destacar la del Instituto Cervantes , que es una compilación de 280 proyectos de bibliotecas virtuales, o la Virtual Library of the W3 Consortium fundada por el propio Tim Berners Lee, que constituye un importante índice de contenidos académicos en la Web realizado por especialistas de cada campo. Lo más interesante de estas iniciativas es que pretenden proveer de versiones de los textos tan fidedignas y precisas como cualquier libro editado en forma tradicional.
Pero no nos interesa aquí desviarnos del análisis de los sistemas hipertextuales pre-Web. Los e-Books de Michael Hart cubren una parcela importante de la noción que pretende abarcar el hipertexto: la de crear un índice accesible que contenga toda la literatura mundial. Pero para llegar a ser hipertextos les falta la característica imprescindible de estar conectados entre sí por una red no jerárquica de hipervínculos por la que el lector pueda moverse a voluntad. Tal y como está planteado el proyecto de Hart, se trata más bien de una base de datos de textos digitales que de un auténtico sistema de hipertexto.
Esto nos lleva al siguiente tipo de iniciativa de orientación Humanista, enderezada a dotar de contenido real al concepto, hasta el momento tenue y etéreo, del hipertexto.

Permalink Dejar un comentario

Los primeros pasos de la ficción hipertextual

agosto 23, 2008 at 5:42 pm (3. APORTACIONES HUMANÍSTICAS, 3.2. Los primeros pasos de la ficción hipertextual)

La ficción hipertextual, es uno de los fenómenos más interesantes de la literatura actual. Ahora nos gustaría dar cuenta de sus inicios, de los primeros autores que experimentaron con el nuevo formato y teorizaron acerca de lo que el hipertexto aportaba al panorama literario. Para ello nos es indispensable remitir al final del apartado de este capítulo dedicado a las aportaciones técnicas, donde se habla de los sistemas pre-Web de producción hipertextual.
Como se ha dicho más arriba, durante los años ochenta se produjo una gran proliferación de programas de “edición digital”. Programas que ofrecían herramientas a los escritores para organizar sus textos introduciendo hipervínculos de varios tipos, diagramas del contenido, etc. La profesora Mª José Lamarca Lapuente, ha confeccionado una exhaustiva lista de todos estos programas detallando cada una de sus características técnicas. Sin ninguna duda es un recorrido interesantísimo por la historia de la “era digital”, y de una relevancia indispensable para todo aquel que se acerque al fenómeno de la literatura hipertextual, pero no podemos permitirnos aquí gastar un espacio precioso en describir sistemas que han quedado obsoletos cuyos productos nunca han terminado de adecuarse a lo que la sociedad actual requiere. De modo que nos centraremos en señalar algunos de los artefactos artísticos concretos y de los autores que de mayor visibilidad han disfrutado entre la crítica en general.
La empresa más a la vanguardia en lo que a comercialización de programas de producción hipertextual se refiere, era por los años ochenta Eastgate Systems . En 1986 Jay David Bolter, John B. Smith y Michael Joyce diseñaron para Eastgate un programa dirigido a escritores que quisieran adentrarse en la nueva ficción hipertextual: Storyspace. Explotando al máximo sus posibilidades, uno de sus creadores, el propio Michael Joyce, escribe Afternoon, a story, que se ha convertido en el hipertexto de ficción más citado y reseñado de la historia del medio.
Se trata de un relato fragmentado en el que la mayoría de palabras constituyen un vínculo a otros fragmentos del relato. El lector se ve impelido a explorar el documento en busca del rastro de un sentido que no se le ofrece expedito, contribuyendo como co-autor a la configuración de la trama y su conclusión (o la falta de ella). Cada lector realiza su propio recorrido particular, diferente al de los demás en cuanto al orden de lectura, y esta exclusividad del texto al que cada lector accede, se intensifica gracias a un ingenioso recurso por el cual las palabras vinculadas del mismo fragmento varían según se haya llegado a él desde una u otra lexía (o fragmento del hipertexto) .
La publicación de Afternoon representa un momento clave para la historia del término hipertexto. Michael Joyce consigue llevar más allá la noción de “publicación digital” de lo que proponía el libro electrónico de Michael Hart, donde los vínculos, de existir, son meras herramientas para facilitar la exploración del texto. En Afternoon, el vínculo se presenta como elemento tectónico en la elaboración del relato, como instrumento indispensable para llevar adelante la ficción literaria. Por primera vez se pone en marcha un artefacto literario basado totalmente en la escritura digital, que desafía preceptos ancestralmente asumidos en la creación literaria como la linealidad, la univocidad, la conclusión y la singularidad, desvelándolos, más a las claras que nunca, productos de la tiranía de una determinada tecnología de la escritura: la del soporte físico de la tinta.
Naturalmente no fue Michael Joyce el primero en cuestionar los fundamentos más sacros de la literatura. El arte del siglo XX se ha caracterizado precisamente por un continuo movimiento de disensión con los valores establecidos. Ya las vanguardias históricas en los años veinte, y muy especialmente en el ámbito de las artes plásticas, pusieron en evidencia la especificidad de su medio físico, rompiendo con una tradición secular de operar en el arte, que consistía en solapar las propias técnicas artísticas que se empleaban. La técnica del collage, que incorpora elementos de la realidad al plano de lo que antes sólo era mimesis de ésta, es quizás la muestra más patente y emblemática de este desafío a la Historia del Arte universal . Y no olvidemos el importante papel que desempeñaron acontecimientos tan prosaicos como los avances tecnológicos en materia de óptica, con la aparición de la cámara fotográfica, para el desarrollo de estas nuevas sensibilidades artísticas. Así mismo en teatro, el expresionismo alemán o el constructivismo, eran movimientos que exhibían pródigamente los artificios propios del medio teatral, y lo hacían simultáneamente al desarrollo y perfeccionamiento de las técnicas cinematográficas.
Pero sin movernos del campo literario, son múltiples los ejemplos de obras vanguardistas que se proponen derribar los mismos principios que el hipertexto, por sus propias características formales, suspende. El Cesar Vallejo de Escalas melografiadas , salta de un género discursivo a otro, de una voz narrativa a otra, de un tiempo a otro de la narración, de una manera que difícilmente podemos catalogarlo de lineal; la obra El público de Federico García Lorca, probablemente su incursión más radical en el surrealismo, carece absolutamente de conclusión; en cuanto a la univocidad, se trata de un antiguo caballo de batalla del siglo XX desde que Batjin reivindicara la polifonía en las obras literarias; finalmente, la singularidad de la obra artística también fue puesta en entredicho con la práctica de las performances ofensivas cuyo desarrollo dependía de la reacción del público, o mediante muchas de las propuestas dadaístas que incorporan objetos fruto de la producción en cadena a la palestra artística.
Hoy en día los autores con características hipertextuales más mencionados por la crítica son Borges y Cortazar.
En efecto, si tomamos una obra como El jardín de senderos que se bifurcan, casi nos parece inquietantemente premonitoria la descripción que Stephen Albert hace de la novela de Ts’ui Pên, al confrontarla con la actual estructura de los hipertextos:

Creía en infinitas series de tiempos, en una red creciente y vertiginosa de tiempos divergentes, convergentes y paralelos. Esa trama de tiempos que se aproximan, se bifurcan, se cortan o que secularmente se ignoran, abarca todas la posibilidades .

Recientemente en el curso Literatura i cultura llatinoamericana: discursos en la frontera, inscrito en el congreso Per la mar, sense fronteres que se celebró en Gandía en julio de 2007, el profesor Eduardo Ramos señalaba muy acertadamente un precedente en el mismo Borges de una propuesta de escritura hipertextual. Se trata de la falsa reseña titulada Examen de la obra de Herbert Quain recogida en Ficciones en 1941. Aquí Borges nos habla de una novela, April March, que define como “novela regresiva, ramificada” en la que a partir de un nodo central se van abriendo posibilidades que determinan otras posibilidades, exactamente como hace Michael Joyce en Afternoon.
Rayuela , por su parte, tiene una estructura eminentemente hipertextual, ya que rompe con la linealidad absolutamente, haciéndonos saltar de unos fragmentos de texto a otros mediante unas indicaciones a final de cada capítulo que recuerdan tremendamente a los hipervínculos. El final dudoso de la novela que desde el capítulo 131 nos remite al capítulo 58 para volver a remitirnos al 131 y así en un bucle más o menos infinito, refleja a la perfección la sensación que se experimenta al acercarse al final de Afternoon, cuando el lector comprueba cómo todos los hipervínculos que clica, le remiten a fragmentos ya leídos del texto.
Por supuesto Michael Joyce es ávido lector de sus predecesores y no le cuesta confesar su deuda contraída con Borges y Cortazar . De hecho, esta influencia patente nos lleva a reflexionar en qué medida los hipertextos producidos en programas pre-Web, tan influidos todos por la obra de Michael Joyce, no sean sino la puesta en práctica de unas ideas bien antiguas aprovechando nuevas tecnologías, antes que la evolución paradigmática del texto que conocemos, como pretenden sus vendedores. Porque Eastgate, y las demás empresas productoras de programas de creación de hipertextos, no dejan de ser marcas comerciales cuyo máximo interés reside en vender su producto. No podemos olvidar que Afternoon: a story, además de un indiscutible referente para toda la posterior ficción hipertextextual, era un modelo demostrativo de las posibilidades creativas que ofrecía el nuevo lanzamiento comercial de Eastgate, el programa Storyspace, en manos de uno de sus diseñadores. Hoy en día, gracias a la excelente promoción que les brindó el éxito de Afternoon: a story, Eastgate sigue vendiendo su programa Storyspace al más que razonable precio de 295 dólares.
Es cierto que estas plataformas que facilitaban la autoedición de hipertextos suscitaron gran entusiasmo en los años ochenta y Eastgate albergó a muchos de los autores pioneros de la crítica y la literatura hipertextual, como es el caso de Stuart Moulthrop, Shelley Jackson, Deena Larsen… todos ellos grandes teóricos de la literatura hipertextual, y sin duda reconocidísimos autores de ficciones hipertextuales. De hecho, gracias a la repercusión de muchos de estos autores que participaron del proyecto, hoy en día, Eastage consigue mantenerse a base de su papel como “distribuidora” de obras hipertextuales diseñadas con sus programas.
Pero el interés de toda iniciativa privada nunca es “mejorar el mundo”, como rezan sus campañas publicitarias, sino “aumentar sus ingresos”, y una buena manera de conseguirlo siempre ha sido la de introducir en el mercado un artefacto remediador de un problema que previamente no existía. Tanto más en la era de revolución tecnológica continua en la que vivimos.
Lo cierto es que, transcurridas dos décadas y un año desde la publicación de Afternoon, la popularidad de estos artefactos literarios producidos en sistemas del tipo Storyspace, lejos de crecer, ha disminuido bastante. Como veremos inmediatamente, la World Wide Web tiene mucho que ver con esto, pero además, consideramos que esta especie de objeto comercial que es Storyspce, que se autoimpone indispensable para la producción del hipertexto, restringe en tal medida la amplitud del término, que las obras producidas en este sistema, en nuestra opinión, no hubieran podido en ningún caso protagonizar la revolución literaria “definitiva” que en sus inicios preconizaban.
La primera restricción que supone un programa como Storyspace es la de producir documentos aislados. Estos programas hacen realidad punto por punto la definición nelsoniana de hipertexto en sus aspectos técnicos: permiten la producción de documentos formados por “una serie de bloques de texto conectados entre sí por nexos, que forman diferentes itinerarios para el usuario”. Su foco de atención recae sobre aquel anhelo al que aspiraba Vannevar Bush de crear un sistema de organización textual más acorde con los procesos perceptivos y asociativos del cerebro humano, que se emancipara de las limitaciones de un tipo determinado de tecnología basada en la linealidad. Y en este sentido cubren con bastante éxito la carencia de la que adolecía el e-book, de Michael Hart, que se limitaba a reproducir una tecnología analógica en formato digital.
Pero al mismo tiempo, por tratarse de artefactos aislados, cuyos vínculos no pueden exceder por razones comerciales los límites de la compilación de fragmentos que dispone el autor, estos documentos traicionan una de las aspiraciones más interesantes de la noción de hipertexto: la de generar una red de textos que fuera capaz, en potencia, de albergar la totalidad de documentos que se produjeran en el mundo; precisamente el propósito establecido por Michael Hart en su Proyecto Gutenberg y, por supuesto, por Ted Nelson en Xanadu. La manera en que se comercializan, distribuyen y adquieren los hipertextos de Eastgate, explota óptimamente los recursos más avanzados de la “era de la reproductividad técnica”, pero no aprovecha el avance comunicativo más sustancial que le brinda la tecnología de Internet: la tecnología de replicación, la capacidad de todo documento que se sube a la Red para producir un número potencialmente infinito de copias, a las cuales se puede acceder desde cualquier parte del mundo. Este tipo de hipertextos son copias que facilita la empresa distribuidora a sus compradores vía Internet y que solo pueden ser explorado por el comprador.
Adquirir uno de estos artefactos es como comprar una película o una fotocopia, pero lo que Internet nos propone funciona mucho más acorde con la filosofía globalizadora del hipertexto: nos ofrece un lugar en el que publicar una copia y que ésta se replique en la pantalla de todo aquel que acceda a ella simultáneamente. Se producen exactamente el mismo número de copias que terminales de ordenador la solicitan, y estas copias existen durante el mismo tiempo que dura su consulta. Con la añadidura de que los consultantes pueden guardar una copia perpetua del documento en su disco duro. Pero semejante facilidad para la transmisión de la información puede ser cualquier cosa menos rentable en términos económicos, y es por ello que se eludieron las posibilidades que ofrecía la tecnología replicante en las versiones comerciales que las empresas privadas desarrollaron del hipertexto en los años ochenta, tan apropiada para los objetivos organizativos y comunicativos que se perseguían,.
El otro problema que encuentro en esta noción concreta de hipertexto, no tiene tanto que ver con sus características técnicas o de distribución como con una cierta actitud de sus alentadores provenientes sobre todo del ámbito de la crítica literaria. El hipertexto literario fue presentado invariablemente por todo aquel que se interesó en el tema, como una forma de superación de la literatura en tanto que la tecnología rizomática de escritura de que se servía (tan apropiada al parecer a los mecanismos de asociación del cerebro humano) superaba la tecnología lineal de escritura precedente. Con ello se estaba diciendo que la forma tradicional de escritura había llegado a su fin y que sería sustituida por una nueva manera de comunicarse entre las personas, y de comunicar los propios sentimientos. La “muerte del libro” de la que tanto se venía hablando desde finales de los sesenta se concretaba literalmente, y en el lugar de los viejos tomos polvorientos surgía el hipertexto con sus ramificaciones asociativas entre nodos, a imagen y semejanza de los enlaces neuronales y los impulsos eléctricos que rigen el cerebro humano. De nuevo el ímpetu imaginativo llegaba al paroxismo alucinado como cuando Vannevar Bush pretendió conectar el Memex a los impulsos eléctricos cerebrales, para poder así controlarlo con la mente igual que el resto de actividades intelectuales.
Como hemos visto, detrás de este entusiasmo desaforado en torno al modelo de hipertexto literario que se estaba produciendo en los años ochenta, había en muchas ocasiones un interés puramente comercial. Pero además, consideramos que la situación por la que atravesaba la teoría literaria en aquellos años, en muchos sentidos servía de acicate a los teóricos que postulaban revoluciones copernicanas. La corriente post-estructuralista originada principalmente en Francia en torno a los acontecimientos del sesenta y ocho, cuajó en el ámbito académico norteamericano y se extendió por todo el orbe humanístico. Se comenzó a hablar de post-modernidad para describir los cambios sustanciales que experimentaba la sociedad; los principios en los que se asentaba la racionalización occidental eran cuestionados y, en la mayoría de producciones críticas de este periodo, se percibe una sensación de crisis de un modelo en el que algo ha cambiado o tiene que cambiar. De hecho, es muy interesante cotejar, como muchos otros han hecho, las nuevas nociones teóricas acerca del conocimiento, el texto, el arte, las instituciones… que se producen en esta época —casi siempre al margen de la investigación informática— con las innovaciones tecnológicas simultáneas que iban a alterar para siempre muchos de estos mismos conceptos. Pero este tema será tratado en profundidad en un apartado específico de esta tesis que se ocupará de las convergencias teóricas entre hipertexto y teoría crítica postmoderna.
Que los estudios literarios y sociológicos de grandes pensadores como Derrida, Roland Barthes, Foucault o Deleuze, estuvieran en estrecha relación con las nuevas formas de la tecnología de la comunicación, no es algo de lo que quepa sorprenderse. Ahora bien, que el formato de hipertexto en el que se desarrolla Afternoon: a story, fuera a sustituir la literatura impresa, me parece de una osadía tal que no soporta la crítica más exigua.
En primer lugar tenemos que sumarnos a la voz de Susana Pajares Tosca , en el tema referente a la supuesta identificación del sistema de almacenamiento y disposición del hipertexto con el modo en que se comporta el cerebro humano ante los datos e impulsos externos. Lo que esta autora afirma en su libro, Literatura digital: el paradigma hipertextual, es que no puede plantearse una reproducción de ningún tipo del pensamiento cuando “ni siquiera los neurólogos están seguros de cómo funciona exactamente la mente humana” (Pajares Tosca 2004: 38).
Un hipervínculo que relaciona dos fragmentos de texto puede “sugerir” la asociación mental que experimentamos cuando conocemos a alguien que nos recuerda a otra persona, cuando leemos algo en una novela que evoca a otro texto literario… pero todo eso no equivale a la reproducción de un sistema como el de la psique humana con sus anhelos, sus complejos, su capacidad creativa, su sensibilidad, sus dudas, sus miedos y, en definitiva, su libertad, porque a fin de cuentas, la principal limitación de los hipertextos en sistemas del tipo Storyspace, es el hecho de que el lector no pueda exceder las posibilidades de elección que le traza el autor.
Lo que nos propone un hipertexto como Afternoon: a story es una tecnología que facilita enormemente la realización de ciertas actividades que ya estaban incluidas en la textualidad tradicional como posibilidades marginales, tal y como demuestran numerosos ejemplos de la literatura clásica a parte de los ya mencionados. Y las ha facilitado hasta el punto de convertirse en absolutamente centrales. Del mismo modo en que el medio impreso o físico impone al texto escrito una posición central y a los textos relacionados una posición de marginalidad, así, con la nueva tecnología, se disuelve toda relación jerárquica entre el texto base y sus relaciones. La “relación” es lo que pasa a ocupar el centro de interés.
Este tipo de hipertextos (que no dejan de ser una interesante forma de expresión) proporcionan un nuevo medio, no la superación del ancestral método de producción y recepción de textos que es la escritura. Afirmar una cosa así sería como afirmar que el cine es la superación del teatro por el hecho de que resuelva con facilidad muchos aspectos de la dramatización de una obra literaria que resultaban problemáticos en el medio teatral.
La aparición de un nuevo medio puede imponer la reorganización de los otros medios, puede afectar a su popularidad, puede, incluso, inducir a los autores de otros medios a modificar sustancialmente la forma y el contenido de sus obras, en muchas ocasiones reforzando la especificidad del medio en que trabajan, pero en ningún caso puede sustituirlos situándose en su lugar.

Permalink 1 comentario

ASOCIATION FOR COMPUTING MACHINERY

agosto 23, 2008 at 5:36 pm (4. ASOCIATION FOR COMPUTING MACHINERY)

No podemos dejar de mencionar durante este recorrido histórico por el término hipertexto, la organización científica que más ha impulsado el estudio y desarrollo de la letra digita: la Association of Computing Machinery (ACM). Se trata de la primera sociedad profesional dedicada a la computación, creada por Edmund Berkeley en el año 1947. Creemos importante recordar aquí el inicio, el impulso original y las expectativas que despertó en sus fundadores, para entender hasta qué punto su actual trabajo puede estar vinculado con el mundo de la literatura.
Para ello, una vez más, debemos volver la mirada al “año cero” de nuestro mundo tal y como lo conocemos: la segunda guerra mundial. Después de aquel desaforado episodio de la historia, cualquier posible orden planetario vigente quedó devastado o fue reestructurado.
El exitoso desarrollo del positivismo condujo a las grandes potencias humanas a una desenfrenada exhibición del poder al que podían aspirar llevando a término los principios que Habermas denomina principios de racionalización en las sociedades secularizadas. Y esta exhibición se vio materializada en una competición (que por supuesto tenía que ver con la tecnología) por alcanzar el mayor poder de destrucción posible. Cuando el poder de destrucción superó con creces las dimensiones del planeta en el que toda forma de vida conocida mora, ni la guerra ni la paz volvieron a ser lo que eran en ninguna parte del globo.
Lo cierto es que la perspectiva de la autoaniquilación ahogaba cualquier exaltación excesivamente entusiasta de los distintos modelos de sociedades que habían participado de la porfía, lo que provocó sustanciales reconsideraciones ideológicas y filosóficas que afectaron, como es bien sabido, a todos los demás campos del conocimiento, desde el estudio tecnológico y científico hasta el de la estética.
En cuanto al ámbito técnico-científico, si observamos su posterior desarrollo, nos percatamos de que la mayoría de avances y logros parten de las esforzadas mentes de muchos de los ingenieros utilizados para el perfeccionamiento de la matanza, y que luego, aterrorizados por los resultados, buscaron la posibilidad de volcar sus investigaciones científicas en la mejora de las condiciones de vida en paz. En esta dirección trabajó, como hemos visto, Vannevar Bush cuando ideó su Memex en 1945, y en este mismo rumbo se embarcó el propósito de Edmund Berkeley, como veremos a continuación.
Cuando fue llamado a filas en 1942 por la marina norteamericana, Berkeley era un joven graduado en matemáticas de la Universidad de Harvard empleado como experto en métodos de aseguración industrial en una compañía de seguros llamada Prudential Insurance Company . Debido a su formación matemática fue destinado al término de la guerra en agosto de 1945, a trabajar en el Harvard Mark I, el primer ordenador electromecánico de la historia, construido por Howard H. Aiken, con la subvención de IBM . Berkeley que venía de un mundo, el de los seguros, en el que había trabajadores especializados en el cálculo mental que resolvían los complejísimos algoritmos que los matemáticos diseñaban para establecer según los riesgos, las tarifas de aseguración, supo ver enseguida en esas enormes máquinas calculadoras bélicas, su perfecta aplicación a la vida civil. Cuando regresó a la compañía de seguros Prudential, estudió las posibilidades que estaban ofreciendo las máquinas calculadoras por aquel entonces en diversos laboratorios, y aventuró algunas aplicaciones prácticas. Pero no fue hasta 1947, durante un simposio sobre computación en la Universidad de Harvard, que se convenció del verdadero potencial multidisciplinar que esta tecnología brindaba, gracias al contacto con gran parte de la comunidad científica formada en torno a este campo. Berkeley, impresionado tras el simposio, decidió formar una asociación al margen de cualquier institución académica o gubernamental que se ocupara específicamente en materia de computación: la Eastern Association of Computing Machinery (EACM). La sociedad estaba compuesta en un principio por unos cuantos asistentes al simposio interesados en mantenerse al día en las nuevas tecnologías. Pero el verdadero éxito de la organización devino realmente cuando Berkeley emitió un comunicado entre todos sus miembros, citando unas palabras del por entonces director del MIT Center of Analysis, Samuel Cadwell, pronunciadas durante el simposio de Harvard. Cadwell se mostraba preocupado por la labor de encubrimiento que el propio ejército de los Estados Unidos estaba llevando a cabo con las investigaciones realizadas durante la segunda Guerra Mundial, y en su conferencia hizo un llamamiento a la libre difusión del conocimiento y al libre intercambio de información entre los investigadores de todas las áreas relacionadas con la computación. Berkeley se sumó a esta iniciativa, y la propuso como elemento motriz de su asociación con el fin de que todos sus miembros pudieran obtener beneficios profesionales. Muchos especialistas y directores de otras asociaciones relacionadas con la tecnología, vieron el proyecto con muy buenos ojos y se ofrecieron para colaborar en él. En agosto de 1948 ya eran 350 miembros, provenientes de una extensión geográfica tal, que Berkeley consideró que el Eastern, podía ser eliminado del nombre . Desde entonces hasta nuestros días, la ACM ha constituido un foro de debate en el que han participado especialistas de todo el mundo y de todas las áreas del conocimiento, legándonos un ingente material bibliográfico que puede ser consultado en su Librería Digital .
Principalmente nos hemos interesado por la Association of Computing Machinery debido a dos conceptos fundamentales en los que se basó su fundación: la voluntad de libre intercambio y el carácter multidisciplinar de sus investigaciones.
Se trata de conceptos que el tiempo ha terminado por situar en el eje central de nuestras sociedades contemporáneas, pero que en el año cuarenta y siete no eran más que la arriesgada apuesta de un espíritu visionario. Cuando Berkeley pensaba en intercambio libre de información, imaginaba salones de actos en los que se reunirían cientos de estudiosos en conferencias periódicas para exponer las evoluciones progresivas de sus investigaciones. Nunca hubiera podido imaginar que la misma materia sobre la que versaban las inquietudes de los participantes en las conferencias de la ACM, iba a desencadenar en el futuro un cambio radical y definitivo en la manera de concebir el intercambio libre. Hemos llegado a un estadio tecnológico en materia de computación que nos permite trasladar ese “salón de actos” para el debate, a todas las pantallas de ordenador del mundo y poder así compartir con libertad y gratuidad cualquier cosa que nos interese. Asistimos al declive y remodelación de los antiguos métodos de difusión, lo que está provocando no pocos conflictos de intereses que afectan ya al ámbito legislativo, en extremos que durante muchos años no habían sido cuestionados, como a la propiedad intelectual. Pero además, la comunicación libre, o mejor, el libre intercambio de información entre las personas, ha sido el caballo de batalla de muchos de los movimientos intelectuales, tecnológicos y humanísticos, del fin de milenio tales como el Software Libre o la noción de “multitud inteligente” de Hardt y Negri .
La otra noción que nos atrae de los fundamentos de la ACM es la multidisciplinariedad. Berkeley observó que en el seno de la tecnología de computación se daban cita muchas áreas de la ciencia: las matemáticas proveían de los modelos teóricos necesarios para diseñar las computadoras, pero era la física, la disciplina que se encargaba de que todos esos cálculos pudieran materializarse en un aparato real; además estaba la tecnología de válvulas que se utilizaba para la construcción de estas máquinas ingentes, lo que vinculaba su producción al ámbito de la ingeniería electrónica e industrial; por último, la versatilidad de estas máquinas para ser aplicadas en múltiples tareas de cálculo disparaba el número de disciplinas que podían verse involucradas en la confección de computadoras como, por ejemplo, la estadística, con la que Berkeley quiso implementar las primeras aplicaciones informáticas de la historia. Pero todo esto no es nada comparado con la cantidad de disciplinas científicas y artísticas que envuelven hoy día el mundo de las computadoras. Tan solo pensemos por un momento en la aplicación de la infografía en el cine o los videojuegos, o en la simbiosis que hoy día se verifica entre la informática y la medicina. La misma palabra “multidisciplinar”, se ha convertido en una especie de ensalmo propiciatorio para todo proyecto académico o profesional, como reflejo sugestivo del mundo globalizado en el que vivimos.
Precisamente, esta multidisciplinariedad de campos en los que se mueve la tecnología de computación, es la que llevará con el tiempo a la ACM a toparse de lleno con la creación literaria, y por lo tanto con nuestra parcela concreta de conocimiento.
En realidad podrían verterse ríos de tinta sobre la relación que se establece entre la computación y la lingüística desde la creación de los primeros estándares en “lenguajes de programación”, pero como ya mencionamos en otro lugar, el uso del lenguaje en programación, aunque también esté basado en la tecnología de escritura digital, es de un uso restringido al entendimiento entre el hombre y la máquina, y, por lo tanto, compete su estudio y optimización, sobre todo, a la ingeniería informática. Ahora nos parece más interesante el momento en que la computadora se convierte en una plataforma para la comunicación, mediante la letra digital, de persona a persona. Y este es un proceso lento pero continuo que no culminará hasta la entrada en escena del hipertexto con todas sus potencialidades.

Durante los años setenta causaron gran impacto en el mundo de la computación los conceptos hipertexto e hipermedia acuñados por Theodor Nelson, y con la exitosa explosión de los sistemas pre-Web en los años ochenta, el hipertexto acabó por situarse en una posición cardinal de los estudios sobre computación.
La ACM debía hacerse eco de esta novedosa aplicación informática que estaba haciendo realidad algunas de las aspiraciones más optimistas y también más genuinas, de la historia de las computadoras. En 1982 el foco de interés de la ingeniería informática comenzaba a desviarse de los impulsos eléctricos y los transistores hacia el ser humano, y la ACM inaugura su primer congreso sobre “El Factor Humano en Sistemas de Computación”.
Para 1987, ya se hacía indispensable la existencia de un congreso que tratara con exclusividad el tema del hipertexto. Nace así, la primera Conferencia sobre Hipertexto e Hipermedia de la ACM , que ha continuado celebrándose anualmente, con excepción de los años 1988 y 1995. En ella se dieron cita los principales protagonistas de la cultura hipertextual. Allí estaba Michael Joyce y David Bolter, estaba el mismo Theodor Nelson, Catherine Marshall y un todavía desconocido George P. Landow, quien años más tarde desempeñaría un papel decisivo en la constitución de la nueva “teoría crítica hipertextual”. Por supuesto también acudieron miembros importantísimos de la comunidad científico-tecnológica como el experto en diseño gráfico de interfaz Jef Raskin, pero lo más importante de este acontecimiento es que por primera vez participan de un proyecto común y en un mismo sentido el mundo del arte y las humanidades con el de la tecnología informática. Por primera vez escritores, artistas y críticos literarios reflexionan conjuntamente con los tecnólogos, para dar una visión conjunta del incesantemente complejo mundo en el que vivimos.
Precisamente, durante el congreso sobre hipertexto de la ACM de 1991 tuvo lugar una demostración de última hora de un nuevo programa informático que iba a cambiar el rumbo de la historia del hipertexto y de los contenidos mismos de las sucesivas conferencias de la ACM. Se trataba de una demostración que ni siquiera aparecía en el programa del congreso y que pudo llevarse a cabo con muchas dificultades, presentada por un joven suizo, Tim Berners Lee, y su compañero Robert Cailliau. Estaban trabajando en un sistema de hipertexto que aprovechara la tecnología de Internet para poder expandirse por todo el ancho mundo como una gran tela de araña: la World Wide Web, que supone el siguiente paso de gigante hacia la era de la comunicación en la que nos encontramos.

Permalink Dejar un comentario

WWW

agosto 23, 2008 at 5:35 pm (5. WWW)

Cuando comenzamos este recorrido cronológico por el término hipertexto, ya advertimos que nos moveríamos en un terreno movedizo, el terreno propio de una noción vinculada a un determinado desarrollo tecnológico en constante evolución, que pretende ser atrapada en los límites de un término acuñado en los años sesenta. A lo largo de estas páginas nos ha interesado analizar el porqué del éxito del término hasta nuestros días y, después de nuestras investigaciones, podemos concluir que este éxito tiene que ver con su capacidad para hacer cristalizar en él un viejo anhelo del pensamiento científico secularizado, un anhelo que atraviesa transversalmente toda disciplina académica basada en la optimización de una racionalización finalista: el de alcanzar un sistema de gestión de la información que facilitara al máximo la exploración del universo textual y el intercambio de documentos entre los seres humanos. Así mismo, no podemos dejar de advertir cómo buena parte del material bibliográfico que ha asumido su estudio (sobre todo aquel que, como nosotros, se ha interesado por las implicaciones literarias que despertaba), ha limitado la percepción del hipertexto al plano de su novedosa gestión de la información y su sistema de exploración del documento, dejando de lado esa otra parcela que tiene que ver con el libre intercambio de información. Esta tendencia se ve claramente ilustrada en el trabajo de recopilación de definiciones de hipertexto que ofrece la profesora Adelaide Bianchini de la Universidad Simón Bolívar de Venezuela, dónde observamos que casi todas las definiciones posteriores a los pioneros Vannevar Bush y Ted Nelson, hacen hincapié en los modelos de disposición y exploración de los documentos pero no en su capacidad comunicadora. Solo la definición de Janet Fiderio , directora de publicaciones del Antioch New England Institute, interesada en los sistemas de investigación y trabajo colaborativo, incorpora en su definición de hipertexto esa faceta comunicativa con la que soñaron sus predecesores.
Es cierto que las innovaciones en la estructura del texto, con la ruptura de la linealidad, con la posibilidad de realizar un recorrido ergódico por la obra literaria… son nociones tan atractivas que por sí mismas justifican el interés de buena parte de la crítica, pero también creemos que en el olvido del componente comunicativo del hipertexto ha influido indebidamente una determinada versión del hipertexto que atendía quizás más a sus posibilidades comerciales que a la idea originaria de sus fundadores.
Nos referimos por supuesto a los sistemas pre-Web, de los que hablamos en capítulos anteriores. Sistemas que producían objetos electrónicos aislados, incomunicados con el resto del mundo, concebidos como obras finitas en las que el lector tiene un papel muy activo en su recepción, pero que se agota en cuanto ha terminado de explorar la totalidad de las lexías. Obras, en definitiva, que hacen alarde de un soporte tecnológico avanzadísimo, en el que pueden desarrollarse con facilidad organizaciones complejas del material literario, pero que como tales, no incorporan ninguna novedad que no apareciera ya antes en Borges o en los libros juveniles de “elige tu propia aventura”.
El rápido e incontrolable desarrollo de la Web, quizás lo polémico de sus contenidos, el desastre financiero de las famosas “punto com”, su temprana y pingüe aplicación comercial… son quizás elementos que han mantenido a los sectores más conservadores de la crítica escépticos ante el valor de la profunda intrusión de la Red en nuestras sociedades. Al fin y al cabo se trata de una tecnología muy reciente (desarrollada mayormente durante los años noventa) y los recelos y precauciones ante cualquier invento novedoso son totalmente razonables en el mundo plagado de falsas necesidades en el que vivimos. Pero los años pasan y el argumento de la “tecnología en pañales” se agota. Llegados a este punto de la historia y de mi trabajo, me veo en la obligación de posicionarme con respecto a esta cuestión, sobre todo teniendo en cuenta los últimos avances en la Web con sus sugerentes aplicaciones literarias. Y debo decir que la Web, por su explotación inteligente del recurso Internet, me parece no solo el sistema más interesante de publicación de hipertexto, sino además, la razón misma por la que hoy estamos hablando de ese mismo concepto.
Para ilustrar esta postura nos centraremos en dos momentos que consideramos clave para cifrar el verdadero valor de la Web: sus orígenes y desarrollo, que nos revelarán el propósito primero de la Web, su filosofía inicial y la manera en que estos principios han reaccionado a la evolución social y tecnológica del medio; y su redescubrimiento en el nuevo milenio, que nos conduce a la reflexión de la crucial importancia que el hipertexto está teniendo y sin duda tendrá en los estudios literarios.

Permalink Dejar un comentario

Inicios y desarrollo

agosto 23, 2008 at 5:33 pm (5. WWW, 5.1. Inicios y desarrollo)

Hablar de los orígenes de la Web es hablar inevitablemente del CERN (Conseil Européenne pour la Recherche Nucléaire), un laboratorio creado en 1954 al noroeste de Ginebra, cerca de la frontera entre Suiza y Francia, por doce países europeos para la investigación nuclear. Se trata de uno de los laboratorios más importantes del mundo, y su cometido, tal y como se expresa en la página oficial del CERN , es muy sencillo: estudiar la construcción de los bloques de materia y las fuerzas que los mantienen unidos. Ciertamente una de las más ancestrales preocupaciones de la ciencia, desde que el mismísimo Demócrito de Abderea desarrollara sus teorías acerca del átomo al comprobar que cualquier piedra al ser golpeada insistentemente con un martillo, se dividía en partículas cada vez más pequeñas sin perder un ápice de su masa.
El CERN ha sustituido el martillo por una herramienta algo más grande e infinitamente más complicada: el acelerador de partículas. Hasta el año 2000 el CERN contaba con “la máquina más grande construida por el ser humano”, el LEP, un acelerador de partículas de veintisiete kilómetros de longitud circular, instalado a cien metros bajo tierra. Para principios de 2008 está prevista la inauguración de un acelerador de partículas aún mayor y más potente dónde podrán realizarse experimentos a velocidades relativistas y poner en práctica muchas de las teorías sobre la materia que hasta ahora solo se han comprobado en el papel. Me interesa transmitir la idea de enormidad de este centro de investigaciones porque serán precisamente sus dimensiones las que harán posible el desarrollo en su seno del invento que nos ocupa.
Y es que el CERN, además de un próspero centro de investigación, es un monstruo ingente. Actualmente cuenta con veinte países miembros para su mantenimiento y financiación, y otros veintiocho países no miembros participan en él con científicos de más de doscientos institutos y universidades. Tres mil empleados trabajan en el CERN a jornada completa, y alrededor de seis mil quinientos científicos e ingenieros, representantes de quinientas universidades y ochenta nacionalidades, lo que supone la mitad de los físicos prácticos de todo el mundo, utilizan sus instalaciones para sus investigaciones. Semejantes dimensiones junto con el uso indispensable del ordenador como herramienta de trabajo, han hecho que el CERN sea históricamente (y continúe siéndolo en la actualidad) la mayor Red de Área Amplia de ordenadores del mundo.
En 1980 el CERN ofrece contratos a jóvenes investigadores para colaborar en el proceso de sustitución del sistema de control de dos de sus aceleradores de partículas, y así es como el joven ingeniero informático Tim Berners Lee entra en contacto por primera vez con este gigantesco laboratorio. Desde el primer momento Berners Lee quedó fascinado por la cantidad de información que se producía y se compartía en el CERN. Miles de investigadores de todo el mundo realizaban experimentos allí, para luego utilizar los datos obtenidos en proyectos de muy diversas instituciones, sin la necesidad de que el propio centro ejerciera una auténtica autoridad común. A Berners Lee le preocupaba que mucha de la información valiosa que se producía o con la que se especulaba en el centro, se perdiera en las libretas o la imaginación de muchos científicos que trabajaban temporalmente en el CERN, a los que era muy difícil seguir la pista. De hecho tenía serios problemas para localizar entre los más de diez mil colaboradores del centro, quién había programado tal o cuál fragmento de software cuando su trabajo lo requería. Así que diseñó un pequeño programa en lenguaje Pascal, el Enquire, en el que podían incorporarse páginas con la información referente a personas, programas o proyectos como en un archivador o una base de datos. Lo original del programa era que solo se podía generar una nueva página o “nodo” mediante la creación de un hipervínculo desde otra ya existente. El “link” quedaba registrado al final de cada página, como si de una referencia bibliográfica se tratara. Al contrario de lo que mucha gente plantea con respecto a la naturaleza “curiosamente” hipertextual de la referencia a pie de página, cabría más bien señalar el origen del hipervínculo a partir de la tecnología de la referencia.
En el Enquire, la exploración del archivo no se realizaba con arreglo a un esquema determinado de orden alfabético, numérico o temático, sino saltando de un nodo a otro a través de sus vínculos de manera transversal, sin pasar por un centro o núcleo de información determinado. Naturalmente el Enquire funcionaba solo en el ordenador de desarrollo de software del grupo, y cuando terminó su periodo de trabajo, el disquete de doce pulgadas que lo contenía quedó prácticamente olvidado en algún cajón del departamento. Pero el germen de aquella idea persistiría en la mente de Berners Lee hasta convertirse en algo mucho más grande de lo que nunca hubiera podido imaginar.
En 1984, Tim Berners Lee regresa al CERN en calidad de becario para el departamento de “adquisición y control de datos” . El centro había crecido enormemente durante los cuatro años de su ausencia, se estaba construyendo el famoso LEP, y contaba con los últimos avances tecnológicos fruto de la explosión informática, aunque cada investigador usaba sus propios aparatos con los sistemas particulares del centro de investigación del que provinieran. El departamento para el que trabajaba Tim Berners Lee se encargaba de gestionar y facilitar la información entre todos los ordenadores y redes del centro, con lo que la utilidad de un programa del tipo Enquire se hacía cada vez más patente.
Durante algunos años Tim Berners Lee se centró en un tipo de software especializado en permitir que los documentos se pudieran almacenar y más tarde se recuperaran. De este modo entró en contacto con la novedosa Internet, que se estaba desarrollando en Estados Unidos y expandiendo a Gran Bretaña y el resto del mundo gracias a los satélites, facilitando la comunicación entre universidades y otras instituciones. La ventaja que ofrecía Internet para los sistemas de documentación era que establecía un protocolo universal el TCP/IP que garantiza que distintas redes físicas funcionen como una red lógica única. Mediante estos estándares convencionales los ordenadores pueden enviarse datos a través de distintos medios como líneas telefónicas, cable de televisión o satélites. El ordenador usa un software especial para descomponer los datos en paquetes conforme a los dos protocolos de Internet que controlan el modo en que los paquetes serán enviados: IP (Internet Protocol) y TCP (transmisión Control Protocol). El software etiqueta cada paquete con un número único y envía los paquetes a otro ordenador que usa el propio software de Internet para descifrarlos según las etiquetas. El problema de los estándares y protocolos comenzaba a ser de una importancia medular para el propósito de Tim Berners Lee, tanto más cuando el CERN no usaba los protocolos TCP/IP de Internet porque tenía su propia red inmensa, con su propio sistema de correo electrónico, que era la aplicación más interesante que podía ofrecer Internet por aquellos tiempos.
Al mismo tiempo, Berners Lee estaba muy interesado en el hipertexto ya que éste encarnaba a la perfección el tipo de gestión del documento que él había previsto para su Enquire. Conoció los trabajos de Ted Nelson y el proyecto Xanadu y congenió inmediatamente con la idea de generar un espacio virtual en el que pudiera explorarse la totalidad de la documentación generada por la especie humana. De hecho su versión del hipervínculo estaba inspirada en una idea de Ted Nelson, que más tarde sería utilizada en el “Hipercard” de Apple Computer y otros sistemas pre-Web. Decidió que en su sistema, los hipervínculos serían palabras resaltadas de algún modo en el propio texto, y cada vez que el usuario clicara en una de estas palabras resaltadas, aparecería la información vinculada en su pantalla.
Como el propio Berners Lee reconoce en numerosas ocasiones en su libro Tejiendo la Red, su mayor logro fue encontrarse en el lugar adecuado en el momento adecuado: Internet ya estaba consolidándose y el hipertexto disfrutaba de un cierto recorrido y aceptación; él solo tuvo que encontrar la manera de “hacer que casaran”.
Se había propuesto llegar al “hipertexto global”, pero para ello necesitaba que le aceptaran un proyecto de investigación en el CERN, y al ser éste un centro dedicado a la física, se hacía complicado conseguir financiación para un proyecto informático por más que estuviera encaminado a la gestión de la información del propio centro. Dos cosas fueron necesarias para llevar adelante el proyecto. La primera fue conseguir que el CERN comprara un NeXT, un nuevo ordenador personal creado por Steve Jobs, el fundador de Apple Computer, en el que Tim comenzó a programar su idea con la excusa de experimentar con el nuevo sistema operativo y el entorno altamente intuitivo del nuevo NeXT. Pero el paso decisivo resultó el apoyo de Robert Cailliau, un veterano programador del CERN que se mostró desde el principio muy entusiasta con las ideas de Berners Lee. Gracias a los contactos de Calliau, el CERN permitió definitivamente a Tim Berners Lee trabajar en su programa.
Buscando la forma definitiva de su programa, Berners Lee se acercó, naturalmente, al campo de investigación del hipertexto. En 1990, acude a la Conferencia Europea sobre Tecnología de Hipertextos (ECHT) en Versalles. Allí conoció Guide, el editor de hipertextos diseñado pro Peter Brown , y quedó impresionado por la manera en que habían resuelto la creación de hipervínculos y la navegación por el documento, tan similar a la que él mismo había imaginado para su propósito.
Habló con los responsables del Guide y de otros interesantes proyectos sobre las posibilidades que ofrecería utilizar esas tecnologías a través de Internet, pero todos se mostraron escépticos ante su entusiasmo, en parte porque no era fácil hacerse una idea de sus propósitos sin una demostración práctica, en parte por los decepcionantes resultados comerciales de demasiadas iniciativas revolucionarias en los últimos años.
Por supuesto, también se interesó por los avances en materia de libros digitales, aunque al parecer, Tim Berners Lee desconocía por aquella época el Proyecto Gutenberg de Michael Hart, que proponía una interesante fusión de Internet con la letra digital. Se dirigió a la compañía Electronic Book Technology, pero estos tampoco fueron capaces de imaginar sus propósitos. La mayoría de técnicos, concebían los libros digitales como si de programas informáticos se tratara, es decir: como documentos compilados en un lenguaje de programación apto para ser decodificado y mostrado de forma eficaz por un software determinado. Pero Tim Berners Lee estaba pensando en un documento cuyo lenguaje cifrado original se enviara directamente por Internet y fuera el ordenador receptor el encargado de decodificarlo y mostrarlo en su formato definitivo. Esta perspectiva suponía la ausencia de cualquier tipo de “centro” en el sistema, la ausencia de una base de datos central en la que almacenar la información y gestionar los vínculos. Pero al parecer los del EBT no compartían esta filosofía, no comulgaban con el novedoso modo de pensar en rizoma.
Finalmente Tim Berners Lee se decidió a llevar a cabo con sus propios medios la programación de su proyecto, al que decidió llamar World Wide Web (pese a la complicada pronunciación de sus siglas), nombre que en español se traduce con cierta dificultad . Sus medios consistían en el modernísimo NeXT a través del cual pudo programar un procesador de texto apto para sus propósitos. Luego ideó un sistema que permitía al programa diferenciar el texto que fuese vínculo del que no lo fuese y en este entorno redactó el código para el Protocolo de Transferencia de Hipertexto (Hypertext Transfer Protocol, HTTP), el lenguaje que los ordenadores usarían para comunicarse por Internet, y el Identificador de Recursos Universal (URI), el esquema para direcciones de documentos.
Desde ese momento quedó establecido el modelo de dirección Web, el denominado URI o URL de una página Web que empieza por “http://”. Ese mismo año terminó de programar el Lenguaje Markup de Hipertexto (HTML), que describía cómo formatear páginas que contengan vínculos de hipertexto. Se trata del lenguaje de programación en el que están escritas todas las páginas Web de Internet, el preciado código que tantos beneficios ha reportado y sigue reportando a sus depositarios (posibilidad de alargar este argumento).
Definitivamente escribió el primer servidor del Web: el software que contiene páginas web en una parte de un ordenador y permite a otros acceder a ellas. Registró un nombre para él en la red de ordenadores del CERN, “info.cern.ch”, de manera que el servidor no estuviera atado por su dirección al NeXT, y podía trasladar toda la información que quisiera con sus hipervínculos a cualquier otro aparato sin causar ninguna modificación.
Toda la arquitectura básica de la World Wide Web estaba diseñada, pero solo funcionaba en la plataforma del NeXT y en la red, grande pero restringida, del CERN. El siguiente paso era mejorar el navegador y conseguir que siguiera vínculos no solo de servidores http, sino también de los incipientes artículos de noticias y grupos de noticias de Internet, que utilizaban un protocolo llamado FTP (File Transfer Protocol). Una vez hecho esto, gran cantidad de información ya existente en Internet pasó a estar disponible en el Web. Así mismo trabajaron profundamente en la estandarización del código de programación para que pudiese ser compatible con el mayor número de documentos sin importar el tipo de ordenadores donde estuvieran almacenados. El punto realmente interesante del Web sería que dos grupos pudieran utilizar el Web de manera totalmente independiente en instituciones distintas, y que una persona de un grupo pudiera crear un vínculo a un documento del otro sin tener que fusionar las dos bases de datos del documento o ni siquiera tener acceso al otro sistema.
Berners Lee era consciente de que su proyecto de Web global, excedía los términos del CERN sin ser de una utilidad inmediata para el mismo. Pero las perspectivas que Berners Lee vislumbraba para el futuro de la Web eran demasiado atractivas como para dedicarse a un objetivo más pragmático y limitado. El hecho de que el propio CERN fuera prácticamente un organismo acéfalo, posibilitaba un alto grado de independencia para los investigadores y sus proyectos. El CERN era una comunidad inmensa de científicos con un ambiente altamente creativo. Las razones tácticas, políticas, o propagandísticas que llevaran a los distintos países e instituciones a enviar allí a sus científicos, quedaban relativizadas ante la aventura del progreso científico efectivo y el intercambio de información entre tantos expertos. Un sistema de trabajo como éste, deslindado de presiones políticas, de la presión de tener que publicar, de tener que justificar el trabajo en términos de rentabilidad comercial, de cumplir una determinada cota de patentes… fue estrictamente necesario para el desarrollo del proyecto de Tim Berners Lee. Fue indispensable ese grado de “incondicionalidad”, que permitió a Berners Lee disponer de equipo humano y tecnológico suficiente para llevar a cabo un proyecto marginal a los estudios físicos que solían desarrollarse en el CERN, solo por su creatividad y el interés general que podía suponer para la humanidad. Como en la Universidad ideal imaginada por Derrida, el conocimiento real y útil a la humanidad, es algo que tiene que darse “sin condición”, al margen de los poderes estatales, mediáticos, ideológicos, religiosos y culturales que traten de apropiarse de él. Berners Lee llevó adelante un proyecto por su potencial utilidad para la comunicación humana, pero del que nadie en principio, ni siquiera el propio CERN, iba a extraer un beneficio particular, siguiendo la misma lógica altruista de la que hablamos en el caso de Michael Hart y su Proyecto Gutenberg. De hecho, en el prefacio de Tejiendo la Red (libro en el que Berners Lee explica todos los pormenores del desarrollo de su proyecto), Michael L Dertouzos, director del Laboratorio de Ciencia Computacional del Instituto Tecnológico de Massachussets, alaba precisamente ese interés incondicional de Berners Lee por sacar el máximo partido a las posibilidades del Web, por hacer del Web algo útil antes que algo productivo:

Cuando conocí a Tim, me sorprendió otro rasgo suyo único. Mientras los técnicos y los empresarios lanzaban o fusionaban compañías para explotar el Web, parecían fijarse sólo en una cuestión: “¿Cómo puedo hacer mío el Web?”. Mientras tanto, Tim preguntaba: “¿Cómo puedo hacer vuestro el Web?” (…) Su objetivo permanente era asegurarse de que el Web avanzase, floreciese y permaneciera íntegro, a pesar de los tiras y aflojas de todas las empresas que parecían querer controlarlo .

Es en este sentido que consideramos el Web como el modelo que más se ajusta a los anhelos y aspiraciones que dieron luz al término hipertexto. Un término que nace de una vocación humanista de comunicación libre y acceso a la información, más allá de ningún proyecto preciso de realización, y que encuentra en la tecnología informática una herramienta felizmente apropiada para hacerlo realidad.
Esa misma indeterminación en la forma definitiva del objeto hipertextual, es compartida por el World Wide Web en su propia naturaleza original. Puede que las primeras páginas Web no tuvieran la estructura más idónea o no optimizaran los últimos avances desarrollados por otros sistemas de hipertexto, pero las direcciones URI y el Protocolo de Transferencia de Hipertextos, así como el lenguaje de programación Web diseñado para poder viajar por Internet, no eran sino los pilares de un nuevo canal de comunicación entre las personas. Y fue gracias a esta capacidad comunicativa del Web, junto con su indefinición originaria, que se hizo posible la colaboración entre miles de personas en la mejora de los navegadores, el desarrollo de motores de búsqueda, la creación de nuevas aplicaciones… y finalmente en dotar de un contenido de interés a sus páginas, para llegar al modelo, o modelos, de hipertexto que podemos encontrar actualmente en la Red.
En 1991 el Web está funcionando aunque carece casi prácticamente de contenidos. Robert Coalliu y Tim Berners Lee se encuentran en plena campaña de difusión de su posible gran proyecto. Naturalmente acuden a la máxima autoridad por el momento en materia de hipertexto, la conferencia Hypertext que organiza anualmente la ACM, de la que hablamos en el anterior capítulo . Redactan una propuesta de ponencia para explicar al mundo la World Wide Web, pero es rechazada por los organizadores por falta de referencias en la materia, defectos de forma y en parte también porque su arquitectura, efectivamente, no se amoldaba a los complejos sistemas de hipertexto que se usaban por entonces. Aun así, les permitieron llevar acabo una pequeña demostración de lo que podían hacer con su terminal de NeXT y un módem. La exhibición tuvo que hacerse con un acceso restringido a Internet porque el hotel donde se celebraba carecía de conexión. Nadie quedó muy impresionado. El mundo del hipertexto tenía formulado ya un discurso particular y un aparato crítico en el que no cabía la presencia de Internet. Se habían amoldado a un concepto de hipertexto en el que solamente existiera el vínculo en el interior del documento, de un fragmento a otro, pero no el vínculo externo, a la realidad virtual de Internet formada por imágenes, mapas, correos electrónicos, programas y otros documentos. No es de extrañar esta reacción, pues por aquel entonces pocos conocían Internet en profundidad, y aun menos eran capaces concebir siquiera el concepto de “vínculo externo”.
Si acudimos a la recopilación de todas las conferencias Hypertext and Hypermedia de la ACM que ofrece por ejemplo Interaction-design.org , observamos cómo paulatinamente el World Wide Web va incrementando su presencia en las conferencias que se pronuncian año tras año. En 1993 comienzan a aparecer títulos relacionados con la cooperación hipertextual, con los navegadores Web y las redes; en 1994, Peter J. Brown, que conocía de primera mano las primeras tentativas de Berners Lee de relacionar Internet con el mundo del hipertexto, pronuncia una conferencia titulada Adding Networking to Hypertext: Can it be Done Transparently? , y aparece por primera vez de manera expresa el tema de la World Wide Web en la conferencia de Robert Glushko, Dale Dougherty, Eliot Kimber, Antoine Rizk, Daniel M. Russell y Kent Summers, titulada HTML — Poison or Panacea? ; en el siguiente congreso, en 1996, el propio Michael Joyce, junto con Robert Kolker, Stuart Moulthrop, Ben Shneiderman y John Merritt Unsworth, presentan su conferencia Visual Metaphor and the Problem of Complexity in the Design of Web Sites: Techniques for Generating, Recognizing and Visualizing Structure .
Notamos cierto recelo a aceptar la World Wide Web como un sistema completamente válido de edición y recepción hipertextual en todas estas ponencias, y naturalmente esta visión conservadora será la tónica dominante en el estado de la cuestión durante algunos años. Pero para bien o para mal, lo cierto es que la WWW irá acaparando progresivamente el interés del congreso sobre Hipertexto de la ACM de manera ininterrumpida hasta nuestros días. Una rápida hojeada al programa de la conferencia de éste año, Hypertext 2007 , nos revela cómo lejos de estabilizarse el interés de los investigadores por el Web, éste no deja de crecer, hasta el punto de constituir, abiertamente ya, el tema de toda la conferencia. Incluso podemos observa un renovado impulso en el interés general por el hipertexto literario, que habla de una nueva generación Web con características semánticas, de los nuevos usos de la investigación literaria en la Web, de las características literarias del Weblog, de la literatura Wiki…
Y es que el WWW no es una tecnología definitiva. Desde que se puso en funcionamiento, el valor y la utilidad se la han dado personas anónimas (en muchos casos expertos en informática) que han construido y mejorado el hiperespacio, compartiendo sus aportaciones sólo por la satisfacción intelectual de ver como una herramienta crece y se perfecciona. Pero para favorecer esta colaboración, era necesario que la mayor cantidad de personas posible pudiera participar. Berners Lee tenía serios problemas para conseguir una absoluta compatibilidad entre el prototipo de Web para su ordenador NeXT, y el resto de ordenadores personales PC, Macs o Unix, lo que limitaba mucho la expansión del proyecto, y en el CERN, había muchos físicos, pero no demasiados programadores informáticos. Fue por ello que en agosto de 1991, Berners Lee saca fuera del CERN el World Wide Web que usaba en su NeXT, el navegador y el servidor básico para cualquiera aparato. Lo publicita por Internet, especialmente en un grupo de noticias, alt.hypertext , vinculado al mundo del hipertexto, y poco a poco la gente fue conociendo el Web, montando sus propios servidores y lo más importante de todo: manteniendo un inestimable contacto vía e-mail con Berners Lee y su equipo gracias al cual podían resolver problemas, comentar mejoras, producir ideas… Pronto comenzó la batalla de los navegadores. La gente programaba sus propios navegadores que rastreaban con más eficacia los documentos de Internet, e incluso algunos de estos navegadores se comercializaban.
Llegados a este punto se planteó la posibilidad de registrar la Web y cobrar alguna tasa de licencia por su uso, pero Tim Berners Lee sabía que si lo hacía dejaría de tener la audiencia masiva que necesitaba el proyecto para alcanzar su objetivo primero: el hipertexto global. Si comenzaban a cobrar tasas, por pequeñas que fueran, la gente, las empresas y las instituciones comenzarían a tener reparos en utilizar el Web por miedo a excederse en sus derechos y sufrir alguna demanda. Además esto terminaría con la participación popular y altruista en la mejora del servicio, factor que objetivamente daba una garantía cualitativa al proyecto. Berners Lee desconfiaba de las licencias y las tasas. Había visto como otras iniciativas de gestión de contenidos de Internet, claudicaban en el momento que registraban bajo una licencia comercial el uso de su software.
Él miraba en otra dirección, miraba en la misma dirección que miraba Richard Stallman, el presidente y uno de los fundadores de Free software foundation , una organización no lucrativa que desde 1985 difundía la filosofía del software libre, y que había desarrollado la Licencia Pública General (GPL), que permitía que las cosas se distribuyesen y usasen libremente, mientras controlaba que cualquier modificación entrara bajo la misma GPL. Berners Lee pidió al CERN que colocase los derechos de propiedad intelectual del World Wide Web bajo licencia GPL, pero el CERN no lo veía claro, y algunas compañías, como IBM, habían declarado que no permitirían que el Web entrase en sus instalaciones bajo ningún tipo de licencia. Finalmente, Berners Lee solicitó permiso al CERN para poner la tecnología Web a disposición del público sin ataduras. A finales de 1993 recibieron la declaración por parte de la dirección del CERN, que accedía a permitir a todo el mundo el uso del protocolo y el código web gratuitamente, crear un servidor o un navegador, repartirlo o venderlo, sin ningún royalty ni otras cargas .

El tema de la libertad, que atraviesa toda la historia del hipertexto, es también un término en constante debate en el ámbito más general de la tecnología informática. “Libertad” es una palabra excesivamente presuntuosa. Pretende definir un estado del ser que, en rigor, es prácticamente inalcanzable. Siempre hay algo o alguien orbitando sobre nuestras conciencias que nos veta la posibilidad de realizar acciones que de otro modo emprenderíamos sin dudarlo. Desde esta perspectiva homocéntrica los únicos que pueden ser realmente libres, como reza el tropo ancestral, son los animales salvajes, es decir, aquellos que carecen de normas sociales, morales o legales. La noción de libertad entonces, se encuentra en diálogo permanente con la norma colectiva, más concretamente con su plasmación efectiva: el Marco Institucional. Y en cada momento de la historia, su reivindicación señala un conflicto entre la sociedad, o una parte relevante de ésta, y algún aspecto constitutivo de este Marco Institucional. Cuando en la Revolución francesa se gritaba la palabra libertad, en realidad se estaba reivindicando una cosa muy precisa, un cambio institucional muy concreto: terminar con el “Derecho divino” del estamento nobiliario; La libertad que proclamaban los artistas de las vanguardias históricas, era una manera de protesta contra una determinada institución arte que no consideraban que les representara; el exitoso concepto de libertad que tanto ha explotado el Imperio norteamericano se basa, precisamente, en el tropo del animal salvaje: la individualidad absoluta y la lucha competitiva mediante los propios recursos, que también puede ser definida como la oposición al Marco Institucional absoluto que planifica cada parcela de la vida social, es decir, el comunismo.
Sus resonancias épicas y capacidad para funcionar como antónimo de “esclavitud”, hacen del término libertad un magnífico eslogan para cualquier causa. Pero no conviene olvidar su naturaleza excesiva, si queremos concretar con objetividad cuál es el conflicto con el Marco Institucional que señala, en cada caso, su reivindicación.
En el caso del hipertexto, englobado ya como elemento preeminente del ámbito de la informática, la reivindicación de la libertad destapa una disconformidad de cierta parte de la sociedad con un apartado muy específico de la legalidad occidental: aquel que se refiere al intercambio libre entre los ciudadanos, lo que afecta muy seriamente a las condiciones de la propiedad intelectual. El propio concepto general de hipertexto establece, desde su misma enunciación, un debate moral a cerca de los límites de la propiedad intelectual y de quiénes deben ser sus depositarios; la realización práctica de un universo hipertextual de dimensiones globales gracias a Internet, traslada este mismo debate a los tribunales: el lugar donde se gestiona públicamente nuestra asignación de libertad.
Quisiera advertir en este punto la inexcusable toma de posiciones que debería asumir la comunidad académica en torno a esta cuestión, tanto más desde el ámbito de las humanidades que, siguiendo a Derrida, deberían tratar la historia de lo “propio del hombre” opuesto a los rasgos propios de lo animal, y por consiguiente tendrían qué decir en cuanto al Derecho humano .
Pero en cambio, éste es un tema hasta el momento muy restringido a la comunidad tecnológica y a las universidades politécnicas, en las que como todos sabemos, ciertos departamentos de ciencia aplicada funcionan como sucursales de consorcios a través de firmas internacionales y enormes masas financieras. En cambio, los departamentos de humanidades rara vez se pronuncian sobre el tema, quizás alguna idea, alguna voz aislada… cuando lo que verdaderamente necesitamos es una posición firme, pública y unívoca si queremos asegurar un futuro en el que Internet llegue a representar la vocación, común a la de la universidad, de convertirse en un espacio público de comunicación, información, archivación y producción de saber .
El ejemplo de la Junta de Extremadura, que ha sido galardonada con varios premios nacionales e internacionales por su diligencia en la instalación de software libre en la administración autonómica, debería servirnos para despejar cualquier recelo que pudiera albergarse con respecto a la licitud de promover el software libre, y es que, de momento, no se conoce de nadie que haya sido premiado por lo contrario. Por mi parte, considero que la tesis resultante de este trabajo de investigación, constituiría un espacio privilegiado para tratar este tema concreto (que afecta tanto a la obra artística como a la labor investigadora) desde una perspectiva humanística no condicionada por los intereses lucrativos de un departamento subsidiario de ninguna compañía.

Mientras el debate sobre la propiedad intelectual se perpetraba, la WWW continuaba su avance imparable. La generalización del uso de Internet, en parte gracias al sistema organizativo y la facilidad de publicación que aportó la introducción del hipertexto, suponía un cambio paradigmático, un paso decisivo que modificaría definitivamente la sociedad.
Pero suponía también la salida de Internet del ámbito académico o institucional, y su ingreso repentino como medio de difusión en la más llana realidad: la realidad mercantilista propia del capitalismo occidental. En este nuevo contexto, el valor de cualquier cosa se mide en términos del dinero que esa cosa pueda producir, así que la primera reacción que produjo a escala social fue la de tratar de encontrar la manera de hacer dinero con el nuevo medio. Las empresas vieron en la WWW una estupenda plataforma para publicitar sus productos. Además podían venderlos mediante transferencias bancarias y rematar la transacción utilizando la tradicional infraestructura postal. Algunas empresas ni siquiera necesitaban ese último paso porque ofrecían productos de Software, que podía ser enviado mediante la propia Internet. Se desarrollaba todo tipo de servicio en línea como noticias, enciclopedias, información de viajes, e-mail… y toda esta actividad comercial venía acompañada de una intensa investigación en la tecnología Web. Programadores e informáticos creativos de todo el mundo, desarrollaban todo tipo de aplicaciones para hacer más atractivas las páginas. Por sintetizar, simplificando mucho, podríamos decir que dos hitos tecnológicos determinan en este periodo el éxito de la Red. Mark Andersen junto con su socio Jim Clark, desarrollan el navegador Mosaic, con un entorno de ventanas basado totalmente en X-Windows de Unix (un programa que nada tiene que ver con Microsoft). Este avance en el sistema de navegación, con ventanas simultáneas y controlado mediante el puntero del ratón, determinó la manera de navegar por el Web que hoy en día todos conocemos. Por otra parte, ya en 1995 Sun Microsystems introdujo Java, una modificación del lenguaje de programación Oak de James Gosling, originalmente diseñado para aparatos como teléfonos, tostadoras y relojes de muñeca. Pequeños programas programados en Java, llamados applets, podían ser enviados entre ordenadores por Internet y funcionar directamente en una página web, lo que multiplicó las posibilidades en el diseño web y en su usabilidad.
Pero la mayor batalla comercial que tuvo lugar en Internet durante los años noventa, por sus dimensiones económicas y su impacto en el posterior desarrollo de la World Wide Web, fue sin duda la de los navegadores. El navegador se encarga de hacer una petición a la red, de una determinada dirección URI en la que se especifica el documento y el servidor en que está alojado. Si el documento está disponible, interpreta el código HTML/CSS/Javascript y lo devuelve al terminal solicitante con una presentación acorde con el medio visual utilizado. Un paso importante fue el que dio la empresa Navisoft Inc. cuando lanzó su navegador Navipress, que permitía navegar por documentos y editarlos al mismo tiempo. Pero el navegador más exitoso fue Netscape, un navegador en un entorno de “ventanas” desarrollado por Mark Andersen, el inventor de Mosaic. En 1994 Mosaic, traslada su sede a California y cambia de nombre por Netscape. La primera versión del navegador de Netscape fue Mozilla. Se trataba de una versión beta pensada para que la gente la utilizara y comentara sus carencias y mandase sugerencias para mejorarla. Cuando en diciembre de 1994 lanzaron la versión comercial Navigator 1.0. Fue un navegador muy significativo para la historia de la Web, no tanto por sus características técnicas (aunque habían conseguido mejorar sustancialmente la seguridad en el comercio electrónico con tarjetas de crédito) como por la nueva dinámica de marketing que estableció. Una dinámica que marcó la tendencia general de los negocios web: ofrecer el producto gratis por la Red, hasta que fuera mundialmente famoso y omnipotente. A los pocos meses de aparecer, casi todos los usuarios de Internet funcionaban con el Navigator 1.0.
La idea fundamental era crear una plataforma desde la que lanzar otros productos que pudiera cobrar. Así mismo atraería millones de personas a la página de entrada de Netscape (la pantalla que se abría por defecto en el Navigator) dónde se mostraban anuncios de compañías que pagaban por llegar a una gran cantidad de gente. El sitio también informaría instantáneamente a los navegadores de los demás servicios de Netscape, por los que la compañía podría cobrar.
Hoy en día reconocemos esta dinámica comercial en todos los servicios web que conocemos. El caso más espectacular y rentable es el de Google, que no es un navegador, sino solamente un motor de búsqueda, que ha conseguido extenderse por todo el mundo gracias a incrementar incesantemente y de manera gratuita la calidad de su servicio.
Microsoft, por aquella época intentaba quedarse con Netscape siguiendo su política tradicional de comprar la competencia, para incorporarlo en su nuevo sistema operativo Windows 95. Pero nunca llegaron a un acuerdo y finalmente Microsoft comenzó a trabajar en un navegador propio. Para poder competir con Microsoft Netscape tenía que crecer rápido y su director Jim Barksdale, decidió hacer pública la compañía. La Oferta Pública Inicial (IPO) se realizó el nueve de agosto de 1995. Wall Street estaba pagando muy bien las acciones de alta tecnología, así que se lanzó con un precio relativamente alto de veintiocho dólares por acción. Pero la demanda hizo subir rápidamente las acciones a setenta y un dólares. Muchas grandes instituciones se interesaron por hacerse con una buena parte de la compañía, y finalmente al cierre de la bolsa hubo treinta y ocho millones de acciones en el mercado. Después de un solo día en bolsa Netscape valía 4500 millones de dólares. Era la mayor IPO de la historia, y eso que la compañía aún no había demostrado tener beneficios.
Esta operación bursátil sin precedentes inauguró un fenómeno que duró aproximadamente cinco años, en el que el precio de las acciones relacionadas con empresas “punto com” se disparó fuera de control, en muchas ocasiones impulsado por las firmas de capital riesgo y las corredurías de bolsa, que vendieron la moto de hacerse ricos jugando en bolsa al público en general. El magnífico blog de cultura y actualidad informática Microsiervos , recordaba, hace ahora un par de años, el décimo aniversario de la IPO de Netscape en una entrada concisa pero repleta de interesantísimos comentarios. Este episodio financiero terminó como todos sabemos con la quiebra de muchas empresas “punto com”, que nunca llegaron a producir ni de lejos, el dinero por el que cotizaban en bolsa. En realidad la valoración en bolsa de los títulos de una empresa siempre se efectúa con arreglo a las expectativas de beneficios a futuro, y poco importa lo que haya ingresado una empresa en el pasado o esté ingresando en el presente. El problema de la burbuja financiera de las punto com, fue que las expectativas de beneficios futuros no se podían prever puesto que su modelo de negocio era nuevo, nadie sabía con exactitud de dónde se iba a sacar el dinero ni cuánto dinero iba a ser éste.
A escasos meses de la IPO de Netscape Microsoft lanzó su navegador incluido en el sistema operativo Windows 95, el Internet Explorer. Era una versión de baja calidad, se notaba que había sido terminada con prisas. Las versiones de IE y de Netscape iban sucediéndose (no siempre mejorándose) en una lucha continua por controlar el mercado. Realmente el uso de navegadores web, quedó bastante polarizado en estas dos opciones, en lo que se conoce como la primera “guerra de navegadores”. En cierta medida, la explosión de la burbuja financiera de las “punto com” perjudicó definitivamente a Netscape. Pero la baza fundamental para Microsoft en esta guerra, fue el monopolio de facto que ostenta en el mercado de los sistemas operativos, algo contra lo que Netscape no tuvo nunca nada que hacer. (posibilidad de ampliar con lo de las dos ramas en que se separó).
El Web comenzaba a tener vida propia. Para muchos de sus primeros usuarios, frecuentemente personas del ámbito académico, la explotación comercial del Web iba en contra de su filosofía inicial de libre intercambio. Lo más preocupante era que alguna de las grandes compañías de informática o telecomunicaciones copara por completo alguno de los estratos en que se divide la red de Internet, y pudiera ejercer algún tipo de control sobre ella.
Berners Lee llevaba tiempo planeando la creación de un consorcio, y el primer paso fue convocar una conferencia WWW que aglutinara a toda la comunidad de personas que estaban haciendo el Web. Se realizó en el CERN, con la organización de Robert Calliau, y en ella se vieron las caras por primera vez muchas personas que hasta la fecha sólo se conocían vía e-mail. Durante las sesiones de esa primera conferencia WWW se establecían las líneas de investigación para los próximos años en la mejora y ampliación del código HTML. Tras el éxito de la conferencia y tras una serie de negociaciones a varias bandas, el Massachussets Institute of Technology, aprobó la formación del consorcio. A finales de 1994 el CERN y el MIT, cerraron un acuerdo para poner en marcha el Consorcio World Wide Web Tim Berners Lee se trasladó a Cambridge con su familia donde viviría hasta la actualidad dirigiendo el consorcio con un salario fijo, por primera vez en su vida, derivado directamente de la creación de su criatura.
El W3C, como bautizaron el consorcio, se fundó con la intención de servir de referente para la comunidad Web en cuanto a la puesta al día permanente de las últimas tecnologías que van aplicándose en la Red. En su libro Tejiendo la Red, Berners Lee explica con gran claridad el funcionamiento interno del consorcio:

La pertenencia al consorcio estaba abierta a cualquier organización; comercial, educativa o gubernamental, ya fuese lucrativa o no. La cuota anual para ser miembro de pleno derecho era de cincuenta mil dólares; para miembros afiliados, de cinco mil dólares. No había diferencias en los beneficios, pero para ser un miembro afiliado una organización tenía que ser gubernamental o no lucrativa, o ser una compañía independiente con beneficios de menos de cincuenta millones de dólares.
El propósito del consorcio era “conducir al Web a su más alto potencial”, en primer lugar desarrollando protocolos comunes para destacar la interoperabilidad y evolución del Web. Para hacerlo, estaríamos a la cabeza de una significativa oleada de aplicaciones, servicios y cambios sociales, cumpliendo una combinación única de papeles tradicionalmente adscritos a organizaciones muy diferentes.

Verdaderamente se trata de una iniciativa, cuanto menos, novedosa. El W3C tiene el estatuto de Organización No Gubernamental sin ánimo de lucro y carece de mecanismos de control directo sobre lo que se hace en la Web. Su máximo poder es la “recomendación” y su autoridad reside en el prestigio académico de sus publicaciones. Los miembros del comité superior del consorcio son una especie de “gramáticos” del lenguaje HTML y el resto de lenguajes que están usándose en la Web. Como todo lenguaje, el código en que se redacta la Web está vivo y varía constantemente. La labor de un gramático no debe ser la de esclerotizar de ninguna manera esa evolución, sino la de garantizar y favorecer la operabilidad de una lengua. Cuando esta lengua es (y debe ser) de dominio universal, con más razón que nunca la labor de estandarización que minimice las ambigüedades y las fallas de comunicación es crucial, pero también lo es la valoración y la aceptación de términos nuevos que favorezcan en cualquier medida el diálogo.
Dada la facilidad de que disponen las pocas y omnipotentes empresas que dominan el sector de la informática para ejercer presiones y forzar la adopción de los estándares que más beneficien a sus intereses particulares, la necesidad de un orden regulador centralizado, inéditamente, surge precisamente de la voluntad de mantener a salvo las reglas del juego que hacen de Internet un universo descentralizado y en continuo proceso de formación.
No es como cuando un estado determinado interviene con normas arancelarias o de otra índole para mantener la competencia de su mercado ante la amenaza de los de afuera; aquí, en principio no hay ningún afuera, no hay nacionalismo regional. Tampoco es como el Fondo Monetario Internacional u otras organizaciones internacionales que salvaguardan el estatus quo del sistema capitalista, con el que las potencias mundiales han conquistado su hegemonía. La máxima de la “apertura” y la “colaboración”, que hasta ahora prevalece en el W3C no se deriva de ninguna ley económica capitalista, sino, primeramente, de una necesidad técnica para el óptimo desarrollo de una tecnología, y más tarde, de la asunción por parte de los usuarios de esa tecnología de esos mismos principios rectores en términos ya políticos. De hecho apertura y colaboración son conceptos irreconciliables con el capitalismo, en el que lo habitual es la retención de la información, cuyo valor es directamente proporcional a su escasez; o como diría Michael Hart: cualquier cosa es “mejor” si yo la tengo y tú no.
El Web (y con mucha más importancia, los colaboradores que de manera altruista o no, han contribuido a su perfeccionamiento) ha hecho finalmente posible el sueño de llevar Internet (sin duda el mayor logro técnico del paradigma científico digital) de manera funcional, a una porción que va camino de ser relevante de la humanidad. Al mismo tiempo, esta apertura ha sacado la “conversación” de los círculos académicos y técnicos en los que nació y la ha expuesto a las pasiones, los vicios y la ignorancia del vulgo. Pero, aunque tantas veces ha sido criticada, no ha sido la exposición al vulgo llano lo que más ha hecho y está haciendo vacilar la estabilidad desordenada de Internet, sino esa misma audiencia masificada puesta en los ávidos ojos de quienes hacen negocios con la audiencia y la opinión pública: los mass media. En los últimos años hemos visto incrementarse significativamente las fusiones entre grandes empresas de la comunicación.
A lo largo de todo el siglo XX se comprobó lo rentable que podía llegar a ser el negocio del entretenimiento gracias a los nuevos medios de comunicación que estaban surgiendo: el cine, la radio y la televisión. Durante más de ochenta años se ha conformado un complejo sistema de poderes en el que algunas empresas, cada vez más grandes y menos numerosas, han ido haciéndose con el control de las emisiones en cualquiera que fuera su formato. Internet se revela, en apenas cinco años de años desde la aparición del Web, como un soporte tremendamente divertido, pero además, surgido de la nada, del mero intercambio de información entre sus usuarios, dónde la decisión de la “parrilla” la toman los navegantes con sus visitas a los sitios de otros navegantes o con su propia producción. Y todo esto ocurre en la era de la revolución del paradigma digital.
La conversión de las imágenes y los sonidos en un flujo de datos uniforme, binario, decodificable por todo tipo de aparatos, lo cambia todo. De pronto el cine, la radio y la televisión, que son los medios en liza durante años entre los gigantes del cuarto poder, se ven sencillamente incluidos en este nuevo medio que nadie controla.
A finales de los años noventa los gigantes mediáticos se encaminaron en una seria batalla por el control de la audiencia en la Red. Si Internet veiculaba todos los medios de comunicación y los hacía visibles en todo tipo de receptor, la única manera de mantener la hegemonía era, o así lo creyeron las grandes compañías, adherirse el mayor número de empresas que tuvieran algo que ver en el proceso. Fue así que nacieron las grandes macro-corporaciones mediáticas, de las cuales AOL Time Warner en América y Vivendi Universal en Europa, son las más conocidas.
El caso europeo es realmente espectacular: el grupo francés Vivendi Universal, uno de los tres mayores del mundo, tiene su origen en la Compagnie Générale des Eaux (CGE), la compañía que desde 1853 se encarga de gestionar y distribuir el agua en Francia. Solo a partir de los años setenta del siglo pasado, comienza su incursión en otros sectores como los servicios, la tecnología, los transportes y la energía. En 1983 contribuye a la formación de Canal +, pero no será hasta los años noventa que el grupo comenzará su vertiginosa carrera por el control de las telecomunicaciones y los Mass Media. Su director Jean-Marie Messier, comienza una contundente campaña de adquisiciones bajo el lema “todos los contenidos en todas las pantallas” . Por esta razón se alió con el operador británico de telecomunicación Vodafon, apropiándose de un plumazo de gran cantidad de servicios multimedia para la Web. Vizzavi (un portal multi-acceso), Flipside (un portal de juegos en línea), Cadresonline (portal de anuncios clasificados), VUP Interactive (productos multimedia derivados de la actividad editorial), Pressplay (portal de telecarga de música de pago), Canal Numedia (sitios de Canal Plus y Canal Satélite), Educación.com (portal de venta de productos educativos)… eran algunos de los productos que conformarían el feudo de Vivendi en el Web.
Pero su estrategia no se limitaba al Web, sino que pretendía desplegarse a otros soportes: sus empresas incluyen alguna de las mayores compañías de música del mundo, uno de los archivos de películas de mayor importancia, algunos de los principales estudios de cine, la segunda compañía de parques temáticos, enormes intereses editoriales e inversiones estratégicas en grupos como BskyB del Reino Unido o en Networks de EE.UU. Sus actividades en medios de comunicación se desarrollan a través del Grupo Canal+ (producción y distribución de cine, vídeo y televisión), Universal Music (UMG) y Vivendi Universal Games. En el ámbito internacional lidera la venta y distribución de vídeos y DVD, programas de televisión y largometrajes en más de 200 países, y cadenas de televisión en Europa, Asia e Iberoamérica. En España participa en Sogecable (Canal+ y Canal Satélite Digital) y explota, a través de Universal Studios, el parque temático Port Aventura (Barcelona). La división editorial del grupo (VUP) es propietaria de Alianza Editorial, Spes (fruto de la fusión con Larousse España) y Vox, marca especializada en diccionarios y la primera en lengua española en edición de obras de referencia. También es dueña de las editoriales españolas Anaya, Cátedra y Pirámide .
Pero la realidad ha demostrado que la Web no puede ser dominada y servida por nadie más que por sus propios usuarios. Las grades empresas pueden comprar todos los portales que quieran y pueden producir todos los contenidos que quieran, pero siempre estarán condenadas a ser una parte más del contenido total del ciberespacio. De esta manera la megalómana estrategia de Vivendi resulta un desastre financiero y en 2002, su presidente del consejo de administración y administrador delegado, Jean-Marie Messiere presenta la dimisión. Bajo la nueva dirección de Jean-Rene Fourtou, la compañía está llevando a cabo desde 2003 una política de cesiones para sortear la bancarrota .

Pero más allá del negocio del entretenimiento, los medios de comunicación siempre han tenido el papel de difusores de información y cultura. Y es precisamente en esta parcela donde la Web no tiene rival.
Los grupos de noticias independientes han ido consolidándose poco a poco hasta adquirir una relevancia que ya podemos calificar de significativa. Así mismo, el ámbito de la cultura y la educación, no ha sido transportado con dificultad a la Red, sino que le pertenece por derecho propio, ya que éste fue el entorno en el que se desarrolló. También lentamente pero sin pausa, toda la comunidad académica y científica está haciendo uso de las posibilidades que ofrece el Web, y hasta ahora la calidad de los resultados nunca ha dejado de ir en aumento. Y además, con la particularidad de que la comunidad académica seria e independiente, está tomando partido con total naturalidad por el movimiento de software libre que encabeza Richard Stallman con el Free Software Foundation y el proyecto GNU, y otras organizaciones ciudadanas como la Electronic Frontier Foundation .
Y todo gracias a la inédita estrategia de la “masa colaboradora”, la “multitud” que, más que nunca, se ve perfectamente reflejada en la definición que Antonio Negri hace de ella: “un insieme di singolarità il cui utensile di vita è il cervello e la cui forza produttiva consiste nella cooperazione. E cioè: se la singolarità che costituiscono la moltitudine sono plurime, il modo nel quale esse si connettono è cooperativo”
Pero como veremos a continuación, las cotas más espectaculares de colaboración ciudadana en los contenidos Web no han sido alcanzadas sino muy recientemente, gracias de nuevo a la velocidad imparable de un avance científico que el sistema no alcanza a asimilar.

Permalink Dejar un comentario

Los últimos movimientos en la Red

agosto 23, 2008 at 5:31 pm (5. WWW, 5.2. Los últimos movimientos de la Red)

Cuando se dio a conocer el Web en 1993 todo el mundo se propuso su explotación comercial, a ser posible su dominio, como se había hecho con otros medios del pasado. Pero lo cierto es que al final de la década, las apuestas contundentes por su control han conducido en la mayoría de casos a la bancarrota de grandes corporaciones y a la pérdida de mucho dinero por parte de miles de inversores particulares. Las propuestas de redes privadas del tipo America On Line, no han alcanzado suficiente competitividad frente a la Red libre. Incluso Microsoft, el gigante informático que ha mantenido una dura batalla contra la World Wide Web desde el año noventa y cinco en la que ha intentado por todos los medios imponer su navegador y autoproclamarse el gerente de los estándares por encima del W3C, si bien en algún momento ha estado cerca de acariciar su objetivo, el avance del nuevo milenio lo está alejando más que nunca de conseguirlos.
Y todo esto se debe en parte a una serie de avances técnicos fruto del trabajo colaborativo, pero sobre todo, a un cambio de actitud frente al Web. Un cambio de actitud por parte de sus usuarios y también de sus explotadores potenciales que han aprendido de los fracasos precedentes.
En cuanto a los avances puramente técnicos se trata más bien del perfeccionamiento de los recursos Web que ya existían, antes que la invención revolucionaria de nuevos códigos o nuevos sistemas de transmisiones. Para ilustrar esta nueva tendencia o actitud, observemos algunas de las propuestas exitosas para el Web del nuevo milenio. Como veremos, el éxito de las nuevas propuestas ya no se cifra en términos económicos, pero eso no quiere decir que de una buena lectura de lo que está pasando con el Web y sus usuarios no puedan derivarse iniciativas perfectamente rentables.

La empresa Google Inc . es un perfecto ejemplo de cómo se puede hacer dinero con la Web entrando en su propia lógica, entendiendo los intereses de sus usuarios y no, como se pretendió durante los años noventa, mediante una política de apropiación, como si se tratara de un medio del pasado.
El concepto de buscador nace tempranamente, cuando el contenido Web empieza a ser tan ingente que no bastaba el navegador para explorarlo con eficiencia. El propio MIT, sede del W3C, desarrolla en 1993 un buscador de URIs, el Wandex, producto del proyecto World Wide Web Wandered que consistía en un robot que pretendía medir el tamaño de la Web. A este le siguieron otros buscadores más rápidos y eficaces, creados a base de recopilaciones de páginas web interesantes, indexadas siguiendo distintos métodos. En 1994, el Webcrawler de Brian Pinkerton , supuso un paso cualitativo en la tecnología de buscadores al ser capaz de indexar las páginas de forma completa, de manera que podía buscar en todo el texto y no solo en la dirección URI como se había hecho hasta la fecha. Así que cuando Sergey Brin y Larry Page, los fundadores de Google Inc., comenzaron a investigar en 1996 en la Universidad de Stanford en su prototipo de buscador, ya existía una fuerte competencia en la materia tanto en el plano comercial: grandes corporaciones compraban los servicios de los buscadores más potentes y se ganaban interesantes cantidades a través de la publicidad que podía colgarse en la página de inicio; como en el técnico: la propia Universidad de Stanford estaba desarrollando un nuevo sistema de búsqueda basado en complicados algoritmos que intentaban crear un sistema parecido a los sinónimos mediante estadísticas entre las relaciones de palabras, de forma que se podía realizar una búsqueda obteniendo resultados aunque la palabra clave no existiera en la página.
Sergey y Larry, con solo veintitrés años, supieron aprovechar todos estos avances y dieron un paso más allá, demostrando su comprensión profunda de la naturaleza del Web. Hasta entonces todos los sistemas de búsqueda estaban fundamentados en parámetros apropiados para la escritura lineal: asignación de categorías, orden cronológico, orden alfabético, familias de palabras, frecuencia de contacto entre dos términos… se intentaba dar un orden a la estructura rizomática del Web, de naturaleza desorganizada y desjerarquizada. Se creaban programas que rastreaban el Web como si se tratara de un conjunto de textos, cuando el Web, había sido diseñado como un único hipertexto. Cada página web es un hipertexto en el que tan relevante es la información que presenta como la que vincula. Lo que hace necesariamente inestable su organización, es que ésta se sustenta en el vínculo, en los enlaces que continuamente incorporan o modifican sus usuarios a placer. Pensando en hipertexto, Sergey Brin y Larry Page, desarrollaron una tecnología que evaluaba la importancia de un sitio web acorde con los enlaces que recibía. El resultado fue un espectacular aumento de la precisión en las búsquedas. En 2001 se patentó el sistema PageRank de búsqueda que consiste en una serie de algoritmos secretos, que clasifica las páginas en orden de importancia del uno al diez, con arreglo a la cantidad y a la importancia de las páginas que vinculen un sitio. Por supuesto, los datos que se introduzcan en el algoritmo pueden ser mejorados o variados, pero lo importante es que se ha abierto una nueva línea de investigación que no solo se adapta al modelo organizativo del hipertexto, sino que además confía su precisión al flujo de vínculos que generan los propios usuarios, adecuándose de esta manera a la naturaleza democrática del Web.
Por otro lado adoptaron una política de propaganda “no agresiva” evitando los anuncios emergentes y disponiendo los enlaces publicitarios de manera muy discreta. Además, con el uso de sus algoritmos pudieron desarrollar un sistema que permite mostrar solo propaganda relacionada con el término de búsqueda, con lo que se mejora la efectividad del anuncio tanto para el publicista como para el usuario.
Por último cabe señalar otra característica de Google que se adecua a la perfección a ese cambio de actitud que apuntábamos más arriba frente al Web. Google se establece como una empresa de desarrollo de servicios web, que luego distribuye gratuitamente. Al estilo de Netscape, cuando en 1995 comprobó que en el Web la presencia era más rentable que ningún precio de venta al público, Google se esfuerza en proponer servicios gratuitos para sus usuarios. En la medida que estos sitios sean atractivos y de interés, tendrán un volumen mayor de visitas, y en la medida que haya un gran número de audiencia, los publicistas pagarán más por alojarse en ellos. No existe una versión definitiva, nos encontramos siempre ante la “versión beta”, una versión en prueba constante, susceptible de ser mejorada y modificada. Las versiones definitivas pertenecen al pasado.
Y todo esto sin olvidar que Google, tiene una política hasta ahora bastante respetuosa con la comunidad de Software Libre, ya que ha ayudado en la difusión del navegador de código abierto Mozilla Firefox, versión libre del navegador Netscape tras su derrota ante el Internet Explorer de Microsoft.

Otras iniciativas propias de la nueva percepción del Web son de una rentabilidad más moderada o incluso de una rentabilidad que sólo se puede entender en términos filantrópicos.
De la primera clase debe mencionarse PHP-Nuke , del Venezolano Francisco Burzí, un sistema automatizado de noticias basado en la web y sistema de gestión de contenido, que facilita tremendamente la tarea de gestionar y publicar un portal web o un grupo de noticias, con lo que ha colaborado a incrementar sustancialmente el porcentaje de personas que, sin excesivos conocimientos de lenguaje HTML, puede incorporar su voz a la conversación del Web. El sistema fue liberado bajo una licencia de Software Libre GNU GPL, y era distribuido gratuitamente hasta su versión 7.5 que requería un pago de diez dólares por su descarga. La versión 8.0 cuesta doce dólares .
De hecho el tema de los Gestores de Contenidos (CMS), es un punto determinante para la evolución del Web que viene. Se trata de programas que facilitan enormemente la edición para personas no iniciadas, y que permiten una variada posibilidad de niveles de participación: desde páginas en las que solo puede incorporar información el dueño del sitio, hasta páginas en las que cualquier visitante puede eliminar, producir o modificar cualquier parte del contenido. Los foros, los blogs, los Wikis, y muchos sitios Web en general, están considerados Gestores de Contenidos.
En la nómina de iniciativas absolutamente colaborativas y sin ánimo de lucro, destaca, por la belleza de sus ideales y por la calidad de sus resultados, el proyecto Wikipedia.
Wiki , es una palabra que viene del hawaiano y significa “rápido”. Básicamente un Wiki es un sitio web colaborativo en el que pueden modificar todo el contenido sus usuarios. En otras palabras: se trata de un hipertexto colaborativo. Ward Cunningham, quien inventa el sistema Wiki en el año 1995, lo define como “la base de datos en línea más simple que pueda funcionar”. En 2001, Jimbo Wales y Larry Sanger decidieron utilizar un Wiki para su proyecto de enciclopedia Wikipedia. Es absolutamente imposible que nadie fuera capaz de imaginar lo que iba a ser de este proyecto. Larry Snager un doctor en filosofía por la Universidad de Ohio, trabajaba para Jimbo Wales en una enciclopedia en línea llamada Nupedia. Cansado del lento progreso del trabajo propuso a Jimbo la creación de un Wiki, cómo se suele hacer en muchos proyectos de programación informática. El resultado fue una enciclopedia en línea y participativa, en la que Larry Sanger era el único editor remunerado, hasta que renunció en marzo de 2002.
Para comprender el proyecto Wikipedia puede ser muy ilustrativo leer el artículo que desde hace poco vincula en cada una de sus entradas la Wikipedy en inglés: Ten things you did not know about Wikipedy . El contenido de este artículo de proyecto, blindado y redactado a instancias del consejo de administración, podía encontrarse sólo en italiano, portugués y francés, a parte del inglés. Simplemente me he registrado, he aventurado una traducción al castellano y la he publicado, de manera que ya puede ser visitada en 10 cosas que no sabías de Wikipedia . Así es cómo funciona esto. Incluyo físicamente aquí el artículo, en previsión de que este documento no esté siendo leído en formato digital:

La nueva actitud en el Web, más popular, más colaborativa, más hipertextual que nunca, en la que prima el servicio al usuario y no la concepción del usuario como cliente… fue percibida por el pionero del Web Dale Dougherty y el escritor e informático Tim O’Reilly en una sesión de brainstorming durante una conferencia, en la que surgió el concepto de Web 2.0 . El término se hace necesario, según Dougherty, cuando, después del desastre financiero de las punto com, después de la derrota de Netscape frente a Microsoft, y en general, tras comprobarse el escaso poder de facto de los organismos de estandarización, el Web continuaba creciendo en importancia y en calidad. De hecho se encontraba en el mejor momento de su historia. Para muchos el término Web 2.0 no significa nada, se trata de una noción más bien vacía de contenido, que funciona bastante bien como eslogan publicitario para las nuevas empresas que continúan buscando la forma de explotar comercialmente el Web. Probablemente todo esto también sea verdad. Pero lo cierto es que el término Web 2.0 ha señalado una percepción que estaba flotando por encima de muchas conciencias antes de que Tim O’Reilly se esforzara en promocionarla.
Lo cierto es que es un término que ha sido exitoso y a día de hoy ofrece setecientos ochenta y siete millones de citaciones cuando se introduce en Google. Pero más allá del término, de su concepción interesada o de su pertinencia, es evidente que el futuro está deparando un Web nuevo, es decir, un nuevo universo hipertextual. Pero, paradójicamente, el hipertexto que viene no está revestido de nuevas nociones revolucionarias, sino que por el contrario, cada vez se adecua más a las primeras nociones de hipertexto, a las que insistían en la colaboración y en la disponibilidad de la información.
Con la Wikipedia, y es solo un ejemplo, se reeditan nociones como la del bibliotecario cibernético de Vannevar Bush que rastreaba el conjunto del saber humano para luego crear “senderos de información” vinculados. Este mundo es el que nos interesa, es en esta dirección que deben moverse las humanidades, sin dejar de hacer lo que siempre han sabido hacer mejor: conservar, iluminar y criticar el conocimiento. Las nuevas humanidades deben asegurarse de que su influencia decisiva y beneficiosa no queda aislada en las pesadas hojas de papel del mundo físico. Las nuevas humanidades deben asumir cuál es el mundo en que viven y no dejar que la situación privilegiada del técnico en esta sociedad tecnócrata le permita imponer un solo punto de vista. Debe alzar su voz alta y contundente hasta que ocupe el lugar en la conversación global que le corresponde. Porque detrás de toda esta apabullante libertad y expansión potencial del conocimiento, lo que hay es una red deficiente de computadores en la mayor parte del planeta, y unos sistemas de protección de los derechos y los privilegios de los ciudadanos de la Red absolutamente inestables y sostenidos en personalidades individuales. No se sabe cuanto tiempo durará este equilibrio de fuerzas entre lo que “se debe” hacer y lo que “sale más rentable”, que hasta ahora mantienen en tensión a las organizaciones de la Red como el W3C por un lado y a los gigantes mediáticos y financieros como Microsoft por el otro. Y lo que es peor, nadie sabe qué pasará cuando la extensión de la Red alcance por fin a porcentajes verdaderamente representativos de la población del planeta. ¿Cuáles serán entonces los interesados en su dominio? ¿Cómo ejercerán entonces su control los leviatanes que para sobrevivir deben devorarlo todo? ¿Qué será de las tecnologías que en poco más de diez años han cambiado el mundo, dentro de cincuenta, sesenta o cien años?
Si queremos llevar todas estas cuestiones a buen puerto, no podemos permitir que las humanidades queden al margen del debate.

Permalink Dejar un comentario

REFLEXIÓN FINAL

agosto 23, 2008 at 5:23 pm (6. REFLEXIÓN FINAL)

La digitalización de la escritura es un fenómeno reciente, deficientemente aprovechado, pero que ha llegado para quedarse. Y es que sus cualidades no hacen más que continuar un proceso por el que todo discurso, artístico o académico, está atravesando desde el comienzo de la era de la reproductividad técnica y de los medios de comunicación masivos: el cine, la radio, la televisión.
El siglo XX ha terminado definitivamente con el epígono como única forma de alcanzar la respetabilidad artística; las normas del decoro, la verosimilitud y la imitación no sirven ya sino para ser violadas o representativamente ignoradas. Las obras monumentales no existen ya sino como eso, monumentos. Monumentos que han alcanzado su estatus gracias al azar y al paso del tiempo pero que ya no se producen más. La Obra ha dejado paso al Texto. Obra en el sentido de lo monolítico, lo inmutable, aquel artefacto literario que tiene una importancia clásica, histórica y que solo puede aspirarse a imitar. Mientras tanto, el Texto lo constituye “un espacio de múltiples dimensiones en el que se concuerdan y se contrastan diversas escrituras, ninguna de las cuales es la original: el texto es un tejido de citas provenientes de los mil focos de la cultura.”
El Texto que comprende a la obra y su crítica, a la obra y su huella. Que es tanto enunciado como enunciación, lo comentado como el comentario. Un texto que se extiende (haciendo de nuevo justicia a su etimología) como un manto sobre todos los discursos, en todos los formatos; como una red no finita de citas y referencias en cambio constante. El Texto se encuentra en los gestos, en el lenguaje cotidiano, en los estampados de nuestra ropa… no solo en los libros, el cine o la televisión. Sus mecanismos para extenderse y llegar a todos los rincones del planeta como una mitología moderna, le permiten impregnar las subjetividades humanas, hasta en los casos en que se desconoce el código en que fueron concebidas las obras de las que deriva.
La conversión de todo discurso escrito o audiovisual en un flujo homogéneo de datos, no representa sino la evolución lógica de este tejido de textos interrelacionados que viene cubriendo el planeta a lo largo de toda esta era de las comunicaciones. Cuando hablamos de la problemática que representa para el estatus literario del hipertexto sus cualidades de indeterminación autorial, espacial, su imposibilidad de ser acotado entre unos límites para poder reconocerlo como Obra única y diferenciada… no estamos hablando de otra cosa distinta a la problemática del estatus literario en cualquier artefacto que se intente analizar bajo el prisma de la Obra monumental, de la obra muerta. ¿Dónde reside el valor literario de una obra cinematográfica basada en un cómic, desarrollada con las últimas técnicas gráficas y que se prodiga en referencias explicitas a determinados antecedentes genéricos? ¿Y en un libro cuya mejor cualidad es la de saber hacer pasar una ficción por documento histórico? La promoción descontextualizada se hace arte, la ciencia y la tecnología se hacen arte, el arte aspira a hacerse ciencia, los medios y formatos se contagian unos a otros… vivimos en un universo textual en el que las líneas divisorias se desdibujan y nos cuesta mucho trabajo clasificar las obras, otorgarles un valor artístico homogéneo. La baja calidad en el formato, en lo artístico: el pulp, puede ser el material de una creación artística de primer orden, y la obra más prestigiosa y respetada puede verse reducida a publicidad. Ya no pueden desvincularse los logros artísticos de una obra de las reacciones suscitadas en su recepción. Es decir: su influencia en la realidad. Realidad y Ficción, otro límite que desaparece. Es la recepción la que determina la influencia cultural de una obra artística. No su ejecución, no su planificación, no su elaboración autoconsciente. La recepción otorga el valor o lo quita. La recepción otorga el sentido y la trascendencia ¿De qué debemos sorprendernos si en el hipertexto la recepción modifica, amplifica o destruye la obra misma?
El hipertexto no es más que la concreción técnicamente funcional del universo intertextual que nos testó la era de la comunicación y de la reproductividad técnica. Es la publicación inmediata, el valor testimonial de una ventana a la realidad, de una información carente de filtros. El hipertexto no es una opción de escritura, es el tejido del mundo.
Aun así, su visibilidad continúa siendo más bien escasa. Para la gran mayoría se trata de un medio marginal, feudo de unos pocos tecnólogos iniciados. Pero la realidad es que es el medio que abarca a todos los demás. Es el medio que llega a todo el planeta. El problema es que los aparatos en que se materializa siguen, y seguirán por muchos años, siendo artículos de lujo para la inmensa mayoría de la población mundial. Tal vez ésta sea la causa de que se hayan mantenido bastante bien los ideales de la comunidad que le dio vida, tan contrarios en muchos aspectos al Marco Institucional vigente y al sistema de racionalización capitalista. Pero por la misma razón, esos ideales deben salvaguardarse, deben comprenderse y reivindicarse, debe señalarse con claridad y contundencia su violación o manipulación allá donde se dé… para que cuando se extienda significativamente el acceso a él, quede un hueco, al menos un resquicio, en el que sus loables valores permanezcan incólumes.
La filología, como todo discurso académico y racionalizado, debe hacerse adalid de estos valores que no son otros que los de la comunicación libre, el consenso y el libre intercambio. Pero todavía falta establecer los límites y las partes de un debate serio, conjunto y oficial, acerca de la situación actual de la materia real de la que se nutre la filología, que no es otra que el texto escrito, y cuál será su futuro en vista de los cambios radicales que tan recientemente la tecnología le ha impuesto.
Se trata de un imperativo vital para la ciencia filológica en todos sus campos, el tomar conciencia de las posibilidades que ofrece la digitalización de la escritura. Nótese, por citar un ejemplo bien significativo, la repercusión que ha supuesto dicha digitalización a la ciencia lexicográfica. Pero lo mismo podría decirse de la didáctica del español, de los estudios fonológicos, del análisis de la lengua en los autores o los más diversos corpus textuales, de la paleografía… y en definitiva de cualquier campo de estudio que utilice el texto escrito como materia prima de trabajo.
Nosotros hemos querido centrar nuestra atención en una parcela de esta disciplina que, pese a estar en estrecha relación con las ya mencionadas y, por supuesto con la letra escrita, es de distinta índole: la literatura.
Cuando pienso en la manera en que la digitalización de la escritura afecta al estudio de la literatura encuentro dos parcelas, o dos campos de acción bien diferenciados. Por un lado la Obra y por otro el comentario: la literatura y la crítica literaria.
Se trata de una división realmente problemática, porque parece suponer un retroceso a nociones estructuralistas, que parecían definitivamente superadas en la postmodernidad: la nueva noción de Texto frente a la de Obra, el caduco concepto de “literariedad” etc. Pero la letra digital, extrema hasta tal punto la maleabilidad del texto, sus posibilidades de difusión, su constante actualización y la capacidad de intervenir en él del lector, que llega a tornar éstas cualidades problemáticas. Supone un cambio tan profundo en la naturaleza del formato que obliga a replantearse los conceptos de obra y crítica. Cuando se ha tratado con el “libro” durante más de dos mil años, cuando durante tanto tiempo se ha tratado la literatura a partir del concepto de “obra conclusa”, todas estas cualidades extrañas a este concepto deben ser minuciosamente expuestas y detalladas.
Para categorizar de manera rentable los diferentes hipertextos que podemos encontrar en el Web, nos será muy útil la noción que desarrolla Richard Stallman para su proyecto GNU a través de la Free Software Foundation: el “open source”, el código abierto o software libre .
Richard Stallman era estudiante del MIT en los años setenta, cuando toda la comunidad informática trabajaba de manera colaborativa pudiendo acceder al código fuente en que estaban escritos los programas para consultar o modificar su arquitectura. En los años ochenta comenzó el negocio del software privativo cuyo uso, redistribución o modificación están prohibidos. Stallaman considera que los vendedores de software pretenden dividir a los usuarios y conquistarlos, haciendo que cada usuario acuerde no compartir su software con otros. Para él no debería haber diferencia entre el código fuente en que está redactado un programa para ser entendido por la máquina, y el código objeto, al que normalmente accede el usuario. De manera que restringir la lectura del código o su modificación para uso personal o compartido, constituye un escollo al desarrollo de una tecnología que precisamente ha llegado a donde está gracias al trabajo solidario y de inspiración científica, imponiéndole una lógica mercantil que solo beneficia a una inmensa minoría.
Cuando hablamos de material crítico o literario en el World Wide Web, hablamos de hipertextos digitales que también tienen un código objeto, el que se presenta en nuestras pantallas, y un código fuente, en este caso el lenguaje HTML y sus aliados: el CSS, el Java… Al igual que hace Stallman para catalogar los tipos de software, podemos considerar que las obras hipertextuales en la nueva generación del Web, se dividen en aquellas que restringen la lectura, modificación o ampliación de su código fuente, “obras cerradas”, y aquellas que no lo hacen, “obras abiertas”. En realidad, sólo las obras abiertas respetan el espíritu primero del hipertexto si recordamos que el fantástico Memex de Vannervar Bush ya comprendía la posibilidad de incluir comentarios y nuevos vínculos a las páginas que se leían. Pero no sería sensato sancionar toda obra cerrada como lineal o no hipertextual, cuando la inmensa mayoría de páginas web pertenecen a este tipo. Vamos a aceptar, por consiguiente, las obras cerradas como hipertextuales, en la medida en que su organización está basada en la relación entre las partes y no en un orden jerárquico preestablecido.
En el caso de la crítica literaria, el formato hipertextual es, como hemos visto, un magnífico soporte de trabajo. Si debemos entender la crítica literaria como una disciplina rigurosa, progresiva y cuyo objetivo es optimizar el conocimiento que se tiene a cerca de las obras literarias sin otro interés e incorporando la mayor cantidad de puntos de vista, deberemos convenir que el modelo de publicación hipertextual idóneo para esta tarea es el de la obra abierta. La obra abierta que posibilita ese foro mundial para el diálogo y para aumentar la calidad y la cantidad del conocimiento que se vierte en cada parcela de la literatura. Ese foro que Berkely imaginó para hacer posible el progreso de la informática, puede ahora, mediante la misma informática, hacerse posible en las demás disciplinas académicas. Por esta razón es tan importante fomentar este tipo de publicaciones abiertas que traten temas literarios. Poner a disposición de la ciudadanía las teorías y las opiniones más contrastadas o difundidas, para que sean juzgadas en un debate público y democrático con unas sencillas reglas de inclusión y no destrucción. Crear los cauces necesarios para que este debate, cuya existencia comienza a ser innegable, pueda ser una herramienta verdaderamente útil a la comunidad científica es el reto con que se encuentran ahora las humanidades y representará el mayor foco de interés en el desarrollo de la tesis doctoral que pretendemos desarrollar a raíz de este trabajo de investigación.
Aun así, la publicación cerrada ofrece una serie de ventajas que no deben ser del todo desdeñadas. En vista de la posibilidad que ofrece el sistema de publicación Web, de fijar el contenido de las páginas y mantener una visión fija, permanente e históricamente fechada, podemos beneficiarnos también de muchas de las ventajas de la publicación tradicional.
Habrá ocasiones en las que uno quiera informarse sobre un tema concreto sin entrar en el debate que pueda haber abierto al respecto, ya sea por comodidad o porque no le interese profundizar… En estos casos podría verse justificada una versión estática (siempre con carácter temporal si es que entendemos el conocimiento como un proceso progresivo) en la que se expusiera la visión más (o mejor) consensuada por la comunidad. Por supuesto esto requeriría del establecimiento de unos cauces administrativos que aún están por determinar. Pero experiencias de las que hemos hablado como la Wikipedia, muchos foros serios, los blogs colaborativos o el denominado e-lerning, que ya está dando interesantes resultados en las universidades virtuales, serán de un valor inestimable en el futuro para establecer las políticas más adecuadas.
Otros documentos para los que puede ser interesante la publicación hipertextual cerrada son aquellos que poseen algún valor testimonial, ya sea por su carácter informativo o por la posición de prestigio de sus autores. En cualquier momento podrá fijarse una versión estática de la obra de un autor tal y como se desee. La opinión de Richard Stallman y del proyecto GNU al respecto, es que las obras ‘representativas de opinión’ (ensayos, artículos…) deberían tener un sistema de derechos de autor, pero distinto al actual (“libertad de difusión, por ejemplo”, ya que la modificación de estas obras “no es útil”).
El problema de la publicación Web es que por más que se almacene de manera permanente y segura un documento con todos sus vínculos intactos, la información a la que vinculan sólo será accesible si permanece intacta la dirección URI de la página web a la que hace referencia y se mantiene su alojamiento en un servidor. Es por ello que hasta ahora se asocia con bastante frecuencia la publicación digital con un tipo de publicación efímera o que queda rápidamente obsoleta. Lo cierto es que esto está solucionándose de manera bastante satisfactoria con la publicación abierta, pero todavía tiene que mejorarse en el caso de las publicaciones cerradas. Se trata de otro punto caliente de un debate en el que la filología, como principal afectada, tendría mucho que aportar.

El caso de las obras de ficción, en las que la utilidad se supedita al valor artístico o de entretenimiento, presenta otra serie de peculiaridades. El mismo Stallman reconoce que es una cuestión delicada porque la modificación de una obra es posible y puede ser beneficiosa o estropear el original. Como decía en una entrevista publicada el ocho de febrero de 2005 en elmundo.es , “Algunas obras de arte pueden pasar por varias manos y enriquecerse”. Pero el problema es determinar dónde termina ese paso de manos, en qué estadio debemos considerar que una obra está preparada para ser valorada en su conjunto.
Es éste un tema de rabiosa actualidad en el que se ve involucrada gran parte de la producción artística de las últimas décadas. La importancia que el cine y la televisión principalmente, han otorgado a la expresión artística audiovisual y dinámica en nuestra sociedad, ha encauzado progresivamente a lo largo de todo el siglo XX muchos talentos artísticos hacia los proyectos grupales, como las películas, en los que el producto resultante no se entiende como una simple suma de las partes. El arte colaborativo y grupal es un fenómeno que tiene su propia trayectoria al margen de la aparición del hipertexto, aunque, evidentemente, una tecnología como ésta, con semejantes cualidades de difusión y multimediáticas, dará alas a todo tipo de experiencias artísticas conjuntas. Rastrear ofreciendo una valoración de todas estas manifestaciones artísticas será el otro objetivo fundamental de esta investigación.
Ahora bien, una cosa es un proyecto artístico en el que participen cierto número de personas y otra muy distinta es un proyecto artístico en el que potencialmente puedan intervenir la totalidad de las personas humanas. Simplemente carecemos de las categorías lingüísticas adecuadas para concebir una cosa así. Parece que en el ámbito del entretenimiento, los videojuegos en línea o la vida virtual que ofrece Second Life, están abriendo camino en este sentido. Las iniciativas en el mundo del arte se nos ofrecen algo más oscuras o estrictamente relacionadas con las tareas informáticas: La creatividad conjunta que está haciendo posible la programación de todo un sistema operativo como es el GNU/Linux, no ha dejado de ser considerada por muchos una magnífica forma de expresión artística de primer orden.

Permalink Dejar un comentario

Next page »