En los últimos 15 años, las tecnologías digitales se han convertido en objetos tan cotidianos como el periódico o la tarjeta de metro. Casi sin darnos cuenta, hemos incorporado a nuestras vidas tecnologías como el correo electrónico, el messenger, la fotografía digital, el dvd, etc. Estas tecnologías son tan cotidianas que hemos olvidado como eran nuestra vidas antes de que existieran. ¿Alguien recuerda el primer e-mail que envió?
Los inicios
La primera instancia de algo parecido a un ordenador data del año 1804. Joseph-Marie Jacquard ideó una máquina para automatizar el proceso de tejer telas, programable mediante unas tarjetas con diferentes agujeros: el operario insertaba una combinación particular de tarjetas, y el resultado era una tela con diferentes patrones dibujados.
La idea de Jacquard enseguida consiguió adeptos. Charles Babbage (1791-1871) ideó dos máquinas que funcionaban de manera parecida. Conceptualmente, sin embargo, eran muy diferentes. Si bien Jacquard ideó su máquina con el fin de automatizar el proceso de tejer una tela, Babbage pretendía construir una máquina capaz de calcular y listar resultados de operaciones matemáticas. Nunca llegó a construir una máquina capaz de calcular, pero fue un importante paso hacia computación moderna, al distinguir entre las funciones de cálculo y las funciones de representación.
Su colega femenina Ada Lovelace (1816-1852) fue mucho más allá. Lovelace pensó en una máquina más universal, capaz de “manipular y disponer de manera ordenada números, letras y signos en general… una máquina capaz de componer elaboradas piezas de música de cualquier complejidad y alcance… al igual que la máquina de Jacquard teje patrones de flores y hojas, nuestra máquina analítica opera tejiendo patrones algebraicos”.
Ciento cincuenta años más tarde, los servicios de inteligencia del ejército norteamericano experimentarían con máquinas capaces de calcular las trayectorias de proyectiles de diferentes tamaños y potencias. Dichas máquinas, bautizadas ya con el nombre de “computadoras”, eran programables mediante tarjetas convenientemente agujereadas, con el fin de que la computadora realizara determinados cálculos. El mismo ejército que haría funcionar también la primera red de comunicación entre ordenadores, conocida como ARPANET, en los años sesenta de la guerra fría y el amor libre.
La revolución industrial
No es casualidad que las primeras instancias de lo que hoy conocemos como ordenador o como Internet nacieran en contextos industriales y militares. El siglo XIX ha pasado a la historia como el siglo de la revolución industrial, de la máquina de vapor, de Adam Smith y el sistema económico capitalista. El siglo XX ha sido el siglo de las grandes guerras, de la obsesión con la seguridad en un mundo global lleno de peligros en cada esquina. Las tecnologías digitales no son ajenas, en su diseño y en su uso, a tales contextos sociales.
Hemos visto cómo una máquina paradigmática de la sociedad industrial, la máquina de tejer, inspiró las primeras elucubraciones acerca de máquinas capaces de calcular tablas de números destinadas, en definitiva, a simplificar la contabilidad de las grandes empresas deudoras también de la sociedad industrial.
Estamos en los últimos años del siglo XIX, y los efectos de la revolución industrial empezaban a ser evidentes en las grandes migraciones de gente desde el campo a la ciudad. Era necesario controlar de algún modo esas grandes masas humanas, del mismo modo que los productos fabricados en grandes industrias se construían a base de piezas estandarizadas y homogéneas, en una cadena de montaje donde el trabajador también debía ser un estándar.
Estados Unidos fue el primer país que emprendió la tasca de censar a su población, en el año 1790. Gran Bretaña lo haría en el 1801. Pero a finales del XIX, la población y la información necesaria para censarla eran demasiado grandes para manipularse manualmente.
Herman Hollerith propuso en 1890 la máquina tabuladora, inspirada en los trabajos de Jacquard y Babbage. Cada persona era representada por una tarjeta. Los datos de cada persona se representaban mediante agujeros en dicha tarjeta. La máquina tabuladora permitió buscar y referenciar datos de grandes números de personas, de manera casi automática y muy rápida. El ser humano, por vez primera, se reducía a un conjunto de datos almacenados en una tarjeta. Su individualidad se digitalizaba.
Hacia la computación moderna
Los primeros 30 años del siglo XX vieron el nacimiento de grandes empresas dedicadas a la computación, como por ejemplo IBM, cuyas máquinas servían básicamente para calcular y tabular datos. Así mismo, empezaron a publicarse artículos de investigación explorando las posibilidades de la computación.
En 1930, Alan Turing, que se ganaba la vida en el ejército descifrando los mensajes encriptados de submarinos alemanes, publicó un artículo en el que proponía una nueva máquina para calcular, basada en la tejedora de Jacquard pero, muy especialmente, en otra máquina paradigmática de su tiempo: la máquina de escribir.
Turing se fijó en la máquina de escribir porque era a su juicio la única máquina capaz de funcionar en dos estados diferentes: mayúsculas y minúsculas. A partir de ahí, Turing describió en un artículo una máquina capaz de programarse en un número infinito de estados, y por lo tanto capaz de llevar a cabo un número igualmente infinito de tareas. Era una máquina similar a la de escribir, pero a diferencia de ésta, permitía borrar y mover caracteres en una cinta infinita destinada a almacenar datos: algo parecido lo que hoy conocemos como disco duro.
Por un lado, Turing introduce por primera vez el concepto de almacenamiento de datos (hasta el momento, las máquinas de calcular no almacenaban, simplemente retornaban un resultado para un “input” determinado). Por otro lado, el paralelismo con los dos estados posibles de una máquina de escribir inducía a pensar en mecanismos binarios para programar un ordenador.
La segunda guerra mundial
Si bien en los años 30-40 era de esperar que tarde o temprano aparecería en escena el primer ordenador, la segunda guerra mundial contribuyó a acelerar determinantemente el proceso. La radio se había convertido en una tecnología de guerra fundamental: permitía el movimiento coordinado de los ejércitos sin la necesidad de establecer lineas físicas de comunicación. Pero la radio tenía un precio: los mensajes transmitidos por aire podían ser interceptados por el enemigo.
Gran Bretaña fue pionera en el desarrollo de técnicas de encriptación y desencriptación de mensajes, con el mencionado Alan Turing a la cabeza de un pionero grupo de investigación. Los resultados no se hicieron esperar. En 1943 nacía el primer ordenador moderno: el MK1, en Manchester, curiosamente la cuna de la otra máquina que cambió definitivamente la cara del mundo: la máquina de vapor. El gran avance del MK1 fue su manera de procesar datos: los datos ya no se almacenaban en tarjetas perforadas, sino que en su lugar se utilizaban válvulas de vacío.
Más tarde, en 1945, llegaría el ENIAC, en Estados Unidos, con la ayuda del matemático, físico y pionero de la computación John Von Neumann. Von Neumann, implicado en el proyecto Manhattan para el desarrollo de la bomba atómica, vio en el ordenador el complemento perfecto para ayudar al desarrollo matemático de la bomba.
En resumen, el ordenador nació reflejando y reforzando los grandes cambios de su época, a saber, la emergencia de la sociedad industrial y el capitalismo. Por un lado, la máquina de tejer y la máquina de escribir (paradigmas de la sociedad industrial capitalista) inspiraron el diseño de las primeras máquinas para calcular y tabular. Por otro lado, el capitalismo mismo no hubiera podido florecer sin el apoyo fundamental de tecnologías que permitieran manipular y estandarizar grandes cantidades de información, así como controlar la compleja tecnología militar de la segunda guerra mundial, que culminó con la bomba atómica.
Sociedad y tecnología, por lo tanto, avanzan apoyándose y reflejándose la una en la otra. No se trata de elementos discretos e independientes, sino que crecen arraigados en una cultura común. Una visión marxista del progreso tal vez diría que no es casual tal aparejamiento, y que existe una mente que planifica el desarrollo de la sociedad en una determinada dirección, diseñando las políticas y las tecnologías más adecuadas para satisfacer las necesidades de la clase dominante. Pero la segunda mitad del siglo XX sentó las bases para unas tecnologías digitales muy diferentes, y en algunos (pocos) casos difícilmente compatibles con la ideología capitalista.
La guerra fría
Hasta el momento de la historia que estamos trazando, el ordenador no ha abandonado las grandes instituciones públicas y las grandes empresas. ¿Cuándo podemos decir que el ordenador se convirtió en el ordenador personal? ¿Cuándo entró el ordenador en el hogar? ¿Cuándo dejó de ser una máquina para satisfacer las necesidades de cálculo y control de las grandes empresas y los grandes ejércitos, y se convirtió en una herramienta de producción personal, de evasión, de comunicación y de expresión?
Tras la segunda guerra mundial, la guerra fría marcó el desarrollo de las tecnologías digitales. Estados Unidos fundó ARPA, una agencia destinada a la investigación de aplicaciones de la tecnología digital a la estrategia militar. Y de ARPA nacieron los primeros ordenadores personales, es decir, los primeros ordenadores que, a través de una pantalla y un puntero, permitían la interacción con el usuario. La investigación de la interacción humano-computadora se creía esencial, pues era el siguiente paso para que humano y computadora pudieran integrarse en sistemas de defensa y ataque cada vez más complejos. Sin embargo, tales ordenadores tenían un problema: ocupaban el tamaño de habitaciones, incluso edificios, enteros. En la práctica, pues, eran poco “personales”.
Sin embargo, en 1970, como respuesta a la crisis financiera provocada por la guerra de Vietnam, el gobierno de los Estados Unidos decidió cortar toda financiación a proyectos de tecnología digital sin una aplicación inminentemente práctica para el ejército. El capital público dejó de financiar la computación, y el capital privado de la empresa fue su siguiente entorno natural. Y así fue como nacieron las grandes multinacionales de la informática. Xerox, Apple, IBM, Intel, Microsoft,… empezaron su andadura en los años 70, y el ordenador personal emprendió su conquista de las masas.
De Vietnam a San Francisco, pasando por Silicon Valley
La década de los 1970 fue esencial para el desarrollo del ordenador personal, tanto a nivel tecnológico como cultural. Hasta el momento, la tecnología digital se asociaba a necesidades empresariales y, sobre todo, militares. Por este motivo, no gozaba de especial atractivo para el consumidor personal, sobre todo teniendo en cuenta la mala imagen de todo lo relacionado con lo militar en un momento en que Estados Unidos se empeñaba en ganar una guerra perdida, la de Vietnam, a cualquier precio monetario y humano. Sin embargo, se avecinaba un cambio de paradigma. Y el cambio se dio en dos lugares del estado de California: San Francisco y Silicon Valley.
San Francisco era desde los 1960s la cuna de la contra-cultura, que abogaba por la realización personal del individuo como el camino hacia una sociedad alternativa. El individuo debía ser capaz de construirse los artilugios necesarios para sobrevivir, independientemente de las grandes corporaciones asociadas al capitalismo imperante y sus consecuencias más negativas, como la guerra, las grandes concentraciones de poder o la degradación del medio ambiente.
El ejemplo más claro, y más relevante históricamente, de movimiento contra-cultural fue el “Whole Earth Project”, que editaba una serie de catálogos convenientemente denominados “Whole Earth Catalogues”. Estos catálogos contenían toda una serie de consejos para llevar una vida independiente y autosuficiente, alejada de la producción y la cultura de masas: el catálogo listaba manuales para mantener una producción agrícola individual, herramientas y materiales para la construcción, ayuda médica y psicológica, instrumentos musicales,… además de textos filosóficos, políticos y económicos de diversa índole.
Los “Whole Earth Catalogues” gozaron de gran popularidad desde su primera tirada, sobre todo entre la población estudiantil y alternativa de la bahía de San Francisco. Unos 80km hacia el sur, en Palo Alto y Stanford, se empezaban a gestar otro tipo de proyectos, aparentemente opuestos a la contra-cultura, pero que en pocos años acabaron siendo su mayor aliado.
El área alrededor de la universidad de Stanford se había convertido en el centro de operaciones de varias empresas relacionadas con la microelectrónica. Puesto que el principal componente en microelectrónica es el silicio, dicha área se bautizó como “Silicon Valley”. En 1968, Robert Noyce y su colega Gordon Moore fundaron Intel, una empresa dedicada a la fabricación de componentes microelectrónicos. Los componentes microelectrónicos habían sustituido a las válvulas de vacío. En la práctica, la microelectrónica permitió fabricar ordenadores del tamaño que hoy conocemos.
En 1969, el ingeniero de Intel Ted Hoff diseñó un circuito de silicio que podía reprogramarse para diversos usos. Hasta el momento, para cada aparato electrónico se diseñaba un circuito diferente. La invención de Ted Hoff, bautizada como microprocesador, significaba que un solo circuito podía fabricarse y comercializarse para múltiples usos, desde lavadoras hasta coches o televisores. En apenas diez años, el precio de un circuito integrado bajaba de decenas de miles de dólares a menos de diez dólares. Semejante abaratamiento de costes permitía pensar en la comercialización de ordenadores personales al alcance de todo bolsillo.
Xerox fundó el XeroxPARC en Palo Alto, un centro de investigación privado que atrajo a toda una generación de investigadores en tecnología digital que se habían quedado sin trabajo tras los cortes de fondos públicos promovidos por el gobierno de los Estados Unidos. Xerox supo aprovechar la tecnología microelectrónica de Intel, por un lado, y los mecanismos de interacción persona-ordenador desarrollados por el ejército americano durante la guerra fría para presentar, en 1973, el primer ordenador personal. Bautizado como “Alto”, consistía en una caja de procesamiento, una pantalla y un ratón. Los movimientos del ratón permitían moverse y seleccionar objetos en la pantalla, de manera muy similar a lo que conocemos ahora.
El fundador del “Whole Earth Project” y abanderado de la contra-cultura, Stewart Brand, no fue ajeno a tal desarrollo. Como reportero para la revista Rolling Stone, escribió un artículo en el que relató la invención de Xerox, y utilizó por primera vez el término “ordenador personal”. Curiosamente, XeroxPARC se enorgullecía de contar con ejemplares de los “Whole Earth Catalogues” en su biblioteca. La contracultura y el silicio no andaban del todo desaparejados.
Casi inmediatamente, empezaron a surgir empresas anunciando “ordenadores personales” en las contraportadas de las revistas de electrónica del momento. Paralelamente, los movimientos contra-culturales se hicieron eco de tales desarrollos tecnológicos, y abogaron por la fabricación de ordenadores para potenciar las posibilidades del ser humano, y no para someterlo, como era el caso hasta entonces. Nació así el “Homebrew club”, que periódicamente organizaba encuentros en distintos puntos de Silicon Valley, destinados a discutir y compartir conocimiento acerca de los últimos avances en materia de computación personal.
En uno de dichos encuentros, en 1976, el ingeniero Steve Wozniak, y su colega Steve Jobs, presentaron el Apple I, el primer ordenador que fabricaba su empresa, Apple Computer. Consistía en una placa cargada de chips microelectrónicos, pero que al enchufarla a un teclado y una pantalla permitía, con asombrosa facilidad, escribir o realizar gráficos. El siguiente modelo, el Apple II, permitía realizar pequeños programas en BASIC. Tan sólo ocho años más tarde, Apple Computers, nacida en un garaje y fundada por dos personas, facturaba cientos de millones de dólares.
En 1984, Apple presenta el Macintosh. Su lanzamiento comercial es impresionante: compra todos los espacios publicitarios de la revista Newsweek, e inserta un hoy legendario anuncio publicitario de 60 segundos en el intermedio televisivo de la Superbowl, el acontecimiento deportivo más importante en Estados Unidos. El ordenador personal había conquistado a las masas.
El anuncio del Macintosh de 1984 resume quizás los casi doscientos años de historia de la computación. En el anuncio, se ve una gran sala con cientos de humanos vestidos idénticamente, dispuestos simétricamente unos junto a otros. En una pantalla gigante, se ve un rostro algo dictatorial, pronunciando unas palabras extraídas del clásico libro de Orwell, 1984. De repente, una mujer con un martillo se aproxima corriendo hacia la pantalla gigante, para finalmente lanzar el martillo contra ésta y hacerla explotar. La imagen va disolviéndose, con la siguiente voz en off: “En Enero de 1984, Apple Computers presentará el Macintosh. Y entonces veréis por qué 1984 no será como 1984”. El fundido termina, y aparece la famosa manzana de colores de Apple.
domingo, enero 15, 2006
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario