domingo, enero 29, 2006

Clase del lunes 30 Enero CANCELADA

Hola,
Lo siento pero la clase del lunes 30 de Enero queda cancelada. He cogido la gripe y voy a tener que guardar cama durante al menos tres o cuatro días.
Así pues, lo que íbamos a dar este lunes (políticas y empresas culturales) lo daremos el lunes siguiente (6 de Febrero). Ya acordaremos un día entre todos para recuperar la clase perdida: tenemos tiempo. Nos vemos pues el 6 de Febrero.
Un saludo,Pere.

sábado, enero 28, 2006

Cultura en la era digital, según la Unión Europea

Os adjunto este link sobre las políticas de la unión europea en cultura digital. Analizaremos algunos puntos en clase, como ejemplo de lo que puede ser una política cultural en la era digital.

viernes, enero 27, 2006

Internet, política cultural e infraestructuras

Os paso el link a un interesante artículo acerca de los problemas que puede presentar internet, a nivel de infraestructura, a la hora de promover una política cultural democrática e igualitaria: (cortito, sólo 5 páginas :) )
The structural problems of the internet for cultural policy
Es un buen ejemplo de cómo la tecnología puede esconder decisiones sociales en su diseño. Se trata por lo tanto de un artículo que sigue el marco teórico del constructivismo social, y es un ejemplo de lo que podría ser un buen trabajo para entregar a final de curso.

martes, enero 24, 2006

Projecte Padicat

Vilaweb, DILLUNS, 23/01/2006 - 09:11h

La Biblioteca de Catalunya engega el projecte Padicat per preservar el patrimoni digital del Principat

Amb la voluntat de preservar el patrimoni digital, la Biblioteca Nacional de Catalunya ha engegat el projecte Padicat (Patrimoni Digital de Catalunya), que té com a objectiu dissenyar i produir un sistema que permeti compilar, processar i donar accés permanent a la producció digital catalana. El projecte, coordinat per l’especialista en documentació digital i professor associat del departament de biblioteconomia i documentació de la Universitat de Barcelona, Ciro Llueca, és pioner i de referència a escala europea.

El Padicat, que compta amb la col·laboració del Centre de Supercomputació de Catalunya (Cesca) i el Departament d’Universitats, Recerca i Societat de la Informació, ajudarà la Biblioteca Nacional a ampliar la seva col·lecció actual, de més de tres milions de documents de tot tipus amb totes les pàgines webs creades al Principat o sobre el Principat.

lunes, enero 23, 2006

El mundo hacker

Neal Stephenson, En el principio...fue la línea de comandos. Madrid. Traficantes de sueños 20003

http://www.sindominio.net/biblioweb/telematica/command_es/

Pekka Himanen, La ética del hacker y el espíritu de la era de la información. Barcelona. Destino, 2003.

http://www.geocities.com/pekkahacker/

El libro de Stephenson es un ensayo sobre la evolución de la "cultura informática" desde el mundo alternativo a la cultura de masas. Stephenson plantea que en este recorrido, el conocimiento necesario para aceder al mundo informático se ha reducido ampliando el público destinatario pero a su vez se ha reducido exponencialmente la capacidad creativa y libertaria que la informática ofrece.

Pekka Himanen intenta analizar la ética hacker siguiendo los pasos del clásico de la sociologia "La ética protestante y el espíritu del capitalismo" de Max Weber. La creatividad, la cooperación y el amor al trabajo son los principios del mundo hacker que chocan con la mercantilización de la informática.

domingo, enero 22, 2006

Industrias y políticas culturales

En la tercera clase, hablaremos de políticas y empresas culturales. Os recomiendo un par de artículos como lecturas de la semana.

  • On cultural markets, de Donald Sassoon, analiza la historia de los mercados y las políticas culturales, e intenta explicar la hegemonía cultural de países como los Estados Unidos. Nos será útil para ver si las nuevas tecnologías digitales cambian algunas de las cosas que afirma Sassoon.

  • Defining creative industries, de Terry Flew, es un intento de definir qué entendemos por industrias creativas. Nos será útil para acotar un poco el terreno de lo que entendemos por industria creativa o cultural, y para analizar el efecto de las tecnologías digitales en cada una de las industrias culturales.

Se trata de dos artículos bastante extensos, pero no es necesario que leáis los dos artículos exhaustivamente. Escoged el que más os atraiga según vuestros intereses personales, y lo leéis a fondo; y el otro lo leéis más por encima :)

Como reflexión para la semana, escribid en el blog, brevemente, cómo cambian (o no) las nuevas tecnologías digitales lo que habéis leído en los artículos. Es decir,

  • ¿Cuál es el efecto de las nuevas tecnologías digitales en los mercados culturales y la hegemonía cultural?

  • ¿Qué aspectos de las industrias creativas se ven modificados (o potenciados) por las nuevas tecnologías digitales?


Recordad así mismo que "el libro de la asignatura" es Free Culture, de Lawrence Lessig. Es conveniente irlo leyendo a lo largo del curso, pues ofrece información muy útil para realizar vuestros trabajos personales.

sábado, enero 21, 2006

Información y economía digital

Diversas teorías para diversos propósitos

En la clase anterior repasamos la historia de la computación e Internet, y vimos cómo el cambio social y tecnológico son paralelos, influyendo el uno sobre el otro, y viceversa. La tecnología sólo puede entenderse situada en un contexto determinado, y sujeta a interpretaciones diversas, incluso contrarias. Al mismo tiempo, ciertos comportamientos y cambios sociales sólo pueden entenderse a través de las posibilidades interpretativas que abren las nuevas tecnologías.

Esta visión de la tecnología tiene su base en la teoría del constructivismo social, y ha sido desarrollada por autores como Latour o Bijker. En próximas clases, veremos algunas de las teorías del constructivismo social aplicadas al estudio de la interacción sociedad-tecnología-sociedad, como por ejemplo la teoría de actor-red.

En la clase de hoy, sin embargo, nos fijaremos en otra manera de aproximarnos a la tecnología y a la información, basada en la economía. La economía de la información digital intenta establecer unos principios racionales, universales e inmutables que expliquen las características de la información y sus propiedades económicas.

Se trata de un punto de vista útil para entender la información digital como concepto, y su dinámica global a través de las nuevas redes de comunicación. El constructivismo social es adecuado para entender el uso social, en un contexto determinado, de una tecnología digital determinada, mientras que la economía aspira a una explicación de la información como un fluido con unas características específicas que condicionan su posibilidades de transmisión, distribución y rentabilización monetaria.

En nuestro estudio de la producción, gestión y distribución de contenidos culturales en la era digital, utilizaremos ambos marcos teóricos para explicar diversos fenómenos, procurando ser siempre conscientes de los límites de cada teoría. Veamos pues, ahora, la descripción de la información y las tecnologías digitales siguiendo la filosofía económica.

¿Qué es la información digital?

Entendemos por información digital cualquier dato sujeto de ser digitalizado. Un libro es información digitalizada en letras y signos de puntuación; un CD es información digitalizada en bits.

La información digital es costosa de producir, pero su coste de reproducción es mínimo. En terminología económica, hablamos de costes fijos altos, y costes marginales mínimos. Producir y recoger toda la información de la enciclopedia británica tiene un alto coste, pero una vez digitalizada, podemos reproducirla por menos de un euro. Además, la copia tiene una calidad parecida al original (los economistas hablan de la misma calidad, pero esto no es siempre estrictamente cierto).

Así mismo, la información digital es un bien no exclusivo: podemos dar información sin perderla nosotros. Este principio es la base económica, por ejemplo, de los programas de intercambio de archivos entre pares (tecnología “peer-to-peer”, por ejemplo el “eMule”) Cuando comparto un archivo de música con otro usuario, no lo pierdo, si no que conservo mi copia, y con la misma calidad.

En resumen, la información digital obedece a tres principios económicos:
  • Producción: costes fijos altos, costes marginales mínimos
  • Reproducción: la copia tiene la misma calidad que el original, y el original nunca pierde calidad
  • Distribución: bien no exclusivo, puedo dártelo sin perderlo

El problema de rentabilización de la información digital

Puesto que copiar la información tiene coste casi cero, en términos económicos carecemos de incentivos para producir la información en primer lugar. Tradicionalmente, este problema se ha solventado mediante acuerdos sociales, como por ejemplo los derechos de autor (“copyright”) o las patentes. Los economistas llaman a estas intervenciones sociales “costes de transacción”, es decir, costes que no pertenecen estrictamente al producto, si no que se imponen a su transacción.

Sin embargo, las tecnologías digitales subvierten estos costes de transacción: para funcionar, el copyright necesita que la información sea un bien encapsulable, concreto. Por el contrario, la información digital circula por la red como un fluido, copiándose infinitamente desde infinitos orígenes. El problema, pues, no se resuelve con una ley de copyright, puesto que en la práctica es muy difícil imponerla.

Actualmente, este problema económico es central para el futuro de la producción y distribución de cultura en medios digitales. En la cuarta sesión trataremos en profundidad este tema. Apuntamos ahora algunas soluciones económicas al problema:

  • Versionar la información: ofrecer distintas versiones de una misma información, a precios diferentes. Por ejemplo, el sistema de ediciones en tapa dura primero, y más tarde en ediciones de bolsillo. O bien la posibilidad de descargar música gratuitamente (con mayor riesgo y menor velocidad) o hacerlo desde un servicio de pago como Itunes.
  • Buscar el beneficio en mercados paralelos. Por ejemplo, ofrecer la música gratuitamente en Internet, y recuperar los costes de producción mediante conciertos o ediciones especiales de los discos.

Otros autores simplemente opinan que la producción y distribución de cultura no debería seguir la lógica del mercado en la era digital, y que por lo tanto carece de sentido pretender solucionar el problema según la ideología de mercado impertante. Aunque parece improbable que en el contexto político-económico actual dichas teorías lleguen a ponerse en práctica, en el caso del software abierto son una realidad indiscutible.

La información como experiencia

Los economistas hablan de la información como un “bien experiencial” (intentando traducir un concepto anglosajón intraducible: “experience good”). Simplemente, esto significa que para poder valorar una información, antes tengo que comprarla. ¿Pero cómo puedo decidir si vale la pena comprarla? Es imposible. Los economistas hablan de problemas de marketing, es decir, de someter la información a las leyes del mercado.

Para solventar este problema, se recurre a diversas estrategias, como por ejemplo:

  • “Sampling”: ofrecer muestras de información sin coste, que permitan valorar la adquisición de dicha información. Por ejemplo, Amazon permite la lectura del primer capítulo de la mayoría de libros de su catálogo (como es el caso del primer capítulo de Information Rules que colgué en la web, y que hemos leído para preparar esta clase). La portada de un periódico, con esos titulares tan grandes para poderlos leer desde lejos, cumple la misma función.
  • “Branding”: crear una marca que avale la información mediante la reputación. Por ejemplo, si somos de derechas compramos el ABC, pero si somos de izquierdas nos decantamos por El País.
  • “Infomediación”: creamos mediadores de información, que actúan como filtro entre el productor y el consumidor de información. Por ejemplo, la crítica literaria o los sistemas de recomendación de películas como filmaffinity.com

Hoy en día, la industria cultural está anclada en un modelo económico de sociedad industrial de masas: se producen miles de discos, libros, películas… con la esperanza de que alguno se convertirá en un éxito de masas que compensará el resto de la producción. Se invierte en cantidad antes que en calidad. Por ejemplo, ¿cuántas colecciones de libros conocéis que siempre publiquen libros de calidad? ¿Cuántos sellos discográficos existen que siempre editen buena música?

Lo mismo sucede con la infomediación. Actualmente, la estructura productiva de la industria cultural implica una infomediación puramente comercial, otra vertiente del marketing. Por ejemplo, la lista de los 40 principales sigue criterios comerciales (se vende cada puesto en la lista al mejor postor). O bien el premio Planeta, que es una marca (“brand”) que asegura ventas, pero ha conseguido el “branding” a golpe de talonario y no de calidad.

Resumiendo, el segundo problema económico de la información digital es resolver la tensión entre cuánta información damos gratis, y cuándo empezamos a cobrar. Este problema nace debido a que, en términos económicos, la información es un “bien experiencial”.

Sobrecarga de información


Como dijo el premio Nobel de economía Herbert A. Simon, “a wealth of information creates a poverty of attention”. Es decir, “la abundancia de información provoca la pobreza en la atención”. El problema de la sociedad digital no es acceder a la información (que es algo tecnológicamente superado, siempre que se disponga de dinero ☺) sino filtrar la información relevante. En términos económicos, hablamos de sobrecarga de información ó “information overload”.

Localizar, filtrar y distribuir la información relevante es tan importante como producir la información relevante. En una economía digital, los servicios de localización y filtrado de información serán centrales, como demuestra el caso de Google. En el plano de la producción y la gestión cultural, veremos que la industria cultural está en crisis porque todavía sigue un paradigma de producción masiva, en lugar de ofrecer servicios de localización y filtrado.

Internet es único porque aúna en una misma tecnología las características de un medio de comunicación de masas (“broadcasting”, por ejemplo la televisión, la imprenta o la radio) y las características de un medio de comunicación “punto a punto” (por ejemplo el teléfono) Además, ofrece la posibilidad de almacenar todas las trazas de comunicación, de modo que es posible aprovecharlas par obtener información relevante (por ejemplo, los sistemas de recomendación y valoración de libros entre usuarios, o la “librería personal” de Amazon)

Paralelamente, la misma tecnología que produce una “sobrecarga de información” también otorga a la información de consumo minoritario un valor que antes no tenía. Por ejemplo, el 20% de la facturación de Amazon proviene de productos que no venden más de un millar de unidades. Este fenómeno se conoce como “the long tail”, y está muy bien explicado en este artículo (podéis encontrar un muy buen resumen en esta entrada de wikipedia). Fijaos que fenómenos como el “long tail” son posibles únicamente en un medio como Internet, y por lo tanto abren horizontes de producción, gestión y distribución cultural totalmente nuevos.

Principios económicos de la infraestructura digital

Hasta aquí hemos hablado únicamente de información digital. Sin embargo, puesto que actualmente el medio natural de la información digital es la red, existen varios principios de economía digital que se refieren particularmente a la infraestructura en donde habita la información, pero que lógicamente aportan conocimiento esencial acerca de la información digital.

Shapiro y Varian hacen una bonita analogía para explicar el enorme potencial que Internet otorga a la información digital. Imaginaos, nos dicen, que inventamos una nueva botella que permite transmitir el vino instantáneamente a nuestra mesa. Vino blanco, tinto, reserva, joven… de transmisión directa al hogar y sin apenas costes de distribución, todo gracias a una nueva botella, una nueva infraestructura para el vino.

El vino es la información, y la botella es la red Internet. Dudo que alguien estuviera en contra de sacar todo el partido a semejante botella, pero sin embargo la información libre parece ser más peligrosa que el vino, y varios agentes sociales están interesados en imponerle limitaciones ☺

El valor de la red reside en su capacidad de dar acceso inmediato a la información, pero también en dar acceso a una cantidad de información inaccesible por otros medios. La visión económica de Shapiro y Varian minusvalora este “pero”, seguramente porque el artículo tiene algunos años, aunque también porque se trata de una visión puramente económica y, por ende, cuantitativa.

Sin embargo, sí es cierto que la infraestructura de la web es esencial. Se trata de una tecnología que incrementa el valor de la información digital, permitiéndonos:

  • Búsquedas complejas en milisegundos: localizar información inmediatamente
  • Asociar información: realizar asociaciones rápidamente (ej. título o letra de canción que contenga “Ana”, nombre de una amiga)
  • Conectar conocimiento sobre una pieza de información: recomendaciones de usuarios, sistemas de valoración colectivos… Internet permite distribuir información y, al mismo tiempo, permite la comunicación entre los consumidores de la información… El binomio “distribución+comunicación”, en un contexto plano sin jerarquías, consigue cosas extraordinarias
  • Distribución colectiva de la información

La economía de la información se basa a la vez en la información digital y su tecnología asociada… y por supuesto, en la imaginación de la gente para encontrarle utilidades al engendro. Pero en fin, la imaginación resulta difícil de parametrizar económicamente ☺

Otra característica esencial de la infraestructura de la información digital son los denominados “efectos de red”. Decimos que un producto está sujeto a efectos de red o “externalidades” cuando su valor depende del número de usuarios que ya lo poseen. Por ejemplo, el teléfono no tiene para mí ningún valor si mis amigos y familiares no tienen ya un teléfono. A medida que mi círculo de amistades dispone de un teléfono, el valor de la red telefónica aumenta, lo cuál hace todavía más atractivo el comprar un teléfono. Esta especie de “autoalimentación” se conoce como “positive feedback”.

Que una red esté sometida a externalidades y feedback nos impone un imperativo estratégico de crecimiento en nuestros proyectos en red. Es decir, en la red todo proyecto que quiera aprovechar todo su potencial (y que por lo tanto valga la pena llevar a cabo en la red) deberá aprovechar las externalidades y feedback, pero para ello es necesario disponer de un gran número de usuarios: el crecimiento es un imperativo estratégico.

Por ejemplo, las aplicaciones de intercambio de archivos musicales necesitan conectar a un gran número de usuarios, de modo que en todo momento sea posible encontrar un gran número de archivos musicales (externalidades). Cuantos más archivos musicales encuentre, más útil será la aplicación, y por lo tanto más usuarios van a utilizarla. Si más usuarios la utilizan, más archivos musicales estarán disponibles (positive feedback). Y así en un círculo de crecimiento eterno.

Sin embargo, la economía no nos dice cuál debe ser el número de usuarios que aseguran la utilidad de una red. Es más, no siempre se cumple que a mayor número de usuarios, mayor utilidad. Por ejemplo, la aplicación Soulseek permite el acceso a varias redes, clasificadas por los intereses musicales del usuario. Así, si nos gusta el jazz, podremos conectarnos a una red de usuarios que comparten archivos musicales de jazz: quizás no serán muchos usuarios, pero como todos los archivos de esos usuarios serán a priori interesantes, esta red tendrá mucho más valor para nosotros que otra red con muchos más usuarios y muchos más archivos que no nos interesan.

martes, enero 17, 2006

Congressos i jornades TIC

Anàlisi del mercat TIC
Gartner, IDC, Penteo, Esade i Red.es analitzen les tendències de futur

Dia: 26 de gener 2006
Hora:18:30 - 20:45h
Lloc:Sala Àgora del CosmoCaixa (C/ Teodor Roviralta, 47-51, Barcelona)
Assistència gratuïta, prèvia inscripció aquí

Les ponències es realitzaran en castellà

Programa de l'acte:
18:30 - 18:35 Benvinguda: Sr. Vicenç Gasulla, Director General de la Fundació Barcelona Digital
18:35 - 18:45 Presentació i moderació de l'acte: Sr. Lluis Foix ,Director de La Vanguardia Digital
18:45 - 20:30Ponents:
  • Algunes notes sobre l'evolució de les TIC i la seva gestió Sr. Enrique Parra, Director, Executive Programs Spain and Portugal de GARTNER
  • Les TIC com a creadors d'innovació i transformadors dels processos Sr. Albert Delgado Director de Penteo ICT Analyst
  • 2006: Establint les bases del creixement en el mercat TI Sr. Alejandro Soto Director d'Anàlisi d'IDC ESPAÑA
  • Per què el teixit empresarial espanyol no inverteix intensament entecnologia? Sr. Enric Colet Professor del Departament de Sistemes d'Informació d'ESADE
  • Competitivitat i Innovació: un dels objectius 2006 del "Plan Avanza" Sr. Ramon Palacio Director General de* RED.ES


20:30 - 20:45 Debat final entre ponents i assistents. Cloenda de l'acte

Internet Global Congress

Quins aspectes cal millorar per accelerar l'ús de les noves tecnologies al'empresa? Com poden contribuir les TIC a innovar en una organització? Quinsreptes presenten les tecnologies a les administracions públiques? Quines tecnologies ocuparan un especial protagonisme en el futur? Com estancanviant els nostres hàbits les tecnologies?

Tens les respostes?
Sigues ponent en el proper IGC! Les ponències poden abordar qualsevol aspecte relacionat amb les noves tecnologies i la societat digital.

IGC2006 preveu organitzar els contingutsen tres grans àrees:

1) Sector empresarial: Analitzarà l'impacte de les TIC i l'R+D en lesempreses com a font d'innovació i implementació de la productivitat, ambcontinguts específics sobre màrqueting, comunicació, seguretat i confiançaen les noves tecnologies.

2) Sector TIC: Abordarà el desenvolupament i la convergència de les actuals plataformes de telecomunicacions, que permeten a l'usuari accedir acontinguts a qualsevol hora i des de qualsevol lloc.

3) Sector societat: Ciutats i llars digitals, administració i ciutadans,aspectes socials derivats de l'ús de les TIC, sistemes de multilingüisme,etc.

Fins al 31 de gener de 2006, els interessats en presentar-se com conferenciants poden enviar les seves propostes a través de la secció Callfor Papers de la pàgina web de
Internet Global Congress.

domingo, enero 15, 2006

Information Rules, de Carl Shapiro y Hal Varian

A continuación reproduzco el capítulo primero del libro "Information Rules", de Carl Shapiro y Hal Varian, extraído de Barnes&Noble con el permiso de los autores.
Esta es la lectura para la segunda clase. Varian y Shapiro nos presentan una visión económica de la información, introduciendo conceptos como "Economía de la Información".
Reflexionad sobre las ventajas e inconvenientes de esta visión, y escribid sobre ello como comentario a este artículo o en un nuevo artículo. El lunes que viene discutiremos el artículo en clase.


Chapter 1. The Information Economy

As the century closed, the world became smaller. The public rapidly gained access to new and dramatically faster communication technologies. Entrepreneurs, able to draw on unprecedented scale economies, built vast empires. Great fortunes were made. The government demanded that these powerful new monopolists be held accountable under antitrust law. Every day brought forth new technological advances to which the old business models seemed no longer to apply. Yet, somehow, the basic laws of economics asserted themselves. Those who mastered these laws survived in the new environment. Those who did not, failed.

A prophecy for the next decade? No. You have just read a description of what happened a hundred years ago when the twentieth-century industrial giants emerged. Using the infrastructure of the emerging electricity and telephone networks, these industrialists transformed the U.S. economy, just as today's Silicon Valley entrepreneurs are drawing on computer and communications infrastructure to transform the world's economy.

The thesis of this book is that durable economic principles can guide you in today's frenetic business environment. Technology changes. Economic laws do not. If you are struggling to comprehend what the Internet means for you and your business, you can learn a great deal from the advent of the telephone system a hundred years ago.

Sure, today's business world is different in a myriad of ways from that of a century ago. But many of today's managers are so focused on the treesof technological change that they fail to see the forest: the underlying economic forces that determine success and failure. As academics, government officials, and consultants we have enjoyed a bird's-eye view of the forest for twenty years, tracking industries, working for high-tech companies, and contributing to an evergrowing literature on information and technology markets.

In the pages that follow, we systematically introduce and explain the concepts and strategies you need to successfully navigate the network economy. Information technology is rushing forward, seemingly chaotically, and it is difficult to discern patterns to guide business decisions. But there is order in the chaos: a few basic economic concepts go a long way toward explaining how today's industries are evolving.

Netscape, the one-time darling of the stock market, offers a good example of how economic principles can serve as an early warning system. We're not sure exactly how software for viewing Web pages will evolve, but we do know that Netscape is fundamentally vulnerable because its chief competitor, Microsoft, controls the operating environment of which a Web browser is but one component. In our framework, Netscape is facing a classic problem of interconnection: Netscape's browser needs to work in conjunction with Microsoft's operating system. Local telephone companies battling the Bell System around 1900 faced a similar dependency upon their chief rival when they tried to interconnect with Bell to offer long-distance service. Many did not survive. Interconnection battles have arisen regularly over the past century in the telephone, the railroad, the airline, and the computer industries, among others. We wonder how many investors who bid Netscape's stock price up to breathtaking heights appreciated its fundamental vulnerability.

We examine numerous business strategies on both the information (software) and the infrastructure (hardware) sides of the industry. Software and hardware are inexorably linked. Indeed, they are a leading example of complements, one of the key concepts explored in our book. Neither software nor hardware is of much value without the other; they are only valuable because they work together as a system.

Information

We use the term information very broadly. Essentially, anything that can be digitized--encoded as a stream of bits--is information. For our purposes, baseball scores, books, databases, magazines, movies, music, stock quotes, and Web pages are all information goods. We focus on the value of information to different consumers. Some information has entertainment value, and some has business value, but regardless of the particular source of value, people are willing to pay for information. As we see, many strategies for purveyors of information are based on the fact that consumers differ greatly in how they value particular information goods.

Of course, information is costly to create and assemble. The cost structure of an information supplier is rather unusual. Since the very nature of competition in information markets is driven by this unusual cost structure, we begin our overview of information strategy there.

The Cost of Producing Information

Information is costly to produce but cheap to reproduce. Books that cost hundreds of thousands of dollars to produce can be printed and bound for a dollar or two, and 100-million dollar movies can be copied on videotape for a few cents.

Economists say that production of an information good involves high fixed costs but low marginal costs. The cost of producing the first copy of an information good may be substantial, but the cost of producing (or reproducing) additional copies is negligible. This sort of cost structure has many important implications. For example, cost-based pricing just doesn't work: a 10 or 20 percent markup on unit cost makes no sense when unit cost is zero. You must price your information goods according to consumer value, not according to your production cost.

Since people have widely different values for a particular piece of information, value-based pricing leads naturally to differential pricing. We explore strategies for differential pricing in detail in Chapters 2 and 3. Chapter 2 is concerned with ways to sell an information good to identifiable markets; Chapter 3 examines ways to "version" information goods to make them appeal to different market segments which will pay different prices for the different versions.

For example, one way to differentiate versions of the same information good is to use delay. Publishers first sell a hardback book and then issue a paperback several months later. The impatient consumers buy the high-priced hardback; the patient ones buy the low-priced paperback. Providers of information on the Internet can exploit the same strategy: investors now pay $8.95 a month for a Web site that offers portfolio analysis using 20-minute delayed stock market quotes but $50 a month for a service that uses real-time stock market quotes.

We explore different ways to version information in Chapter 3 and show you the principles behind creating profitable product lines that target different market segments. Each version sells for a different price, allowing you to extract the maximum value of your product from the marketplace.

Managing Intellectual Property

If the creators of an information good can reproduce it cheaply, others can copy it cheaply. It has long been recognized that some form of "privatization" of information helps to ensure its production. The U.S. Constitution explicitly grants Congress the duty "to promote the progress of science and useful arts, by securing, for limited times, to authors and inventors, the exclusive right to their respective writings and discoveries."

But the legal grant of exclusive rights to intellectual property via patents, copyright, and trademarks does not confer complete power to control information. There is still the issue of enforcement, a problem that has become even more important with the rise of digital technology and the Internet. Digital information can be perfectly copied and instantaneously transmitted around the world, leading many content producers to view the Internet as one giant, out-of-control copying machine. If copies crowd out legitimate sales, the producers of information may not be able to recover their production costs.

Despite this danger, we think that content owners tend to be too conservative with respect to the management of their intellectual property. The history of the video industry is a good example. Hollywood was petrified by the advent of videotape recorders. The TV industry filed suits to prevent home copying of TV programs, and Disney attempted to distinguish video sales and rentals through licensing arrangements. All of these attempts failed. Ironically, Hollywood now makes more from video than from theater presentations for most productions. The video sales and rental market, once so feared, has become a giant revenue source for Hollywood.

When managing intellectual property, your goal should be to choose the terms and conditions that maximize the value of your intellectual property, not the terms and conditions that maximize the protection. In Chapter 4 we'll review the surprising history of intellectual property and describe the lessons it has for rights management on the Internet.

Information as an "Experience Good"

Economists say that a good is an experience good if consumers must experience it to value it. Virtually any new product is an experience good, and marketers have developed strategies such as free samples, promotional pricing, and testimonials to help consumers learn about new goods.

But information is an experience good every time it's consumed. How do you know whether today's Wall Street Journal is worth 75 cents until you've read it? Answer: you don't.

Information businesses--like those in the print, music, and movie industries--have devised various strategies to get wary consumers to overcome their reluctance to purchase information before they know what they are getting. First, there are various forms of browsing: you can look at the headlines at the newsstand, hear pop tunes on the radio, and watch previews at the movies. But browsing is only part of the story. Most media producers overcome the experience good problem through branding and reputation. The main reason that we read the Wall Street Journal today is that we've found it useful in the past.

The brand name of the Wall Street Journal is one of its chief assets, and the Journal invests heavily in building a reputation for accuracy, timeliness, and relevance. This investment takes numerous forms, from the company's Newspapers in Education program (discussed in Chapter 2), to the distinctive appearance of the paper itself, and the corporate logo. The look and feel of the Journal's on-line edition testifies to the great lengths designers went to carry over the look and feel of the print version, thereby extending the same authority, brand identity, and customer loyalty from the print product to the on-line product. The Wall Street Journal "brand" conveys a message to potential readers about the quality of the content, thereby overcoming the experience good problem endemic to information goods.

The computer scientists who designed the protocols for the Internet and the World Wide Web were surprised by the huge traffic in images. Today more than 60 percent of Internet traffic is to Web sites, and of the Web traffic, almost three-fourths is images. Some of these images are Playboy centerfolds, of course--another brand that successfully made the move to cyberspace--but a lot of them are corporate logos. Image is everything in the information biz, because it's the image that carries the brand name and the reputation.

The tension between giving away your information--to let people know what you have to offer--and charging them for it to recover your costs is a fundamental problem in the information economy. We talk about strategies for making this choice in our discussion of rights management in Chapter 4.

The Economics of Attention

Now that information is available so quickly, so ubiquitously, and so inexpensively, it is not surprising that everyone is complaining of information overload. Nobel prize-winning economist Herbert Simon spoke for us all when he said that "a wealth of information creates a poverty of attention."

Nowadays the problem is not information access but information overload. The real value produced by an information provider comes in locating, filtering, and communicating what is useful to the consumer. It is no accident that the most popular Web sites belong to the search engines, those devices that allow people to find information they value and to avoid the rest.

In real estate, it is said that there are only three critical factors: location, location, and location. Any idiot can establish a Web presence--and lots of them have. The big problem is letting people know about it. Amazon.com, the on-line bookstore, recently entered into a long-term, exclusive agreement with America Online (AOL) to gain access to AOL's 8.5 million customers. The cost of this deal is on the order of $19 million, which can be understood as the cost of purchasing the attention of AOL subscribers. Wal-Mart recently launched the Wal-Mart Television Network, which broadcasts commercials on the television sets lined up for sale at the company's 1,950 stores nationwide. Like AOL, Wal-Mart realized that it could sell the attention of its customers to advertisers. As health clubs, doctors' offices, and other locations attempt to grab our valuable attention, information overload will worsen.

Selling viewers' attention has always been an attractive way to support information provision. Commercials support broadcast TV, and advertisement is often the primary revenue source for magazines and newspapers. Advertising works because it exploits statistical patterns. People who read Car and Driver are likely to be interested in ads for BMWs, and people who read the Los Angeles Times are likely to be interested in California real estate.

The Internet, a hybrid between a broadcast medium and a point-to-point medium, offers exciting new potentials for matching up customers and suppliers. The Net allows information vendors to move from the conventional broadcast form of advertising to one-to-one marketing. Nielsen collects information on the viewing habits of a few thousand consumers, which is then used to design TV shows for the next season. In contrast, Web servers can observe the behavior of millions of customers and immediately produce customized content, bundled with customized ads.

The information amassed by these powerful Web servers is not limited to their users' current behavior; they can also access vast databases of information about customer history and demographics. Hotmail, for example, offers free e-mail service to customers who complete a questionnaire on their demographics and interests. This personal information allows Hotmail to customize ads that can be displayed alongside the user's e-mail messages.

This new, one-to-one marketing benefits both parties in the transaction: the advertiser reaches exactly the market it wants to target, and consumers need give their attention only to ads that are likely to be of interest. Furthermore, by gathering better information about what particular customers want, the information provider can design products that are more highly customized and hence more valuable. Firms that master this sort of marketing will thrive, while those that continue to conduct unfocused and excessively broad advertising campaigns will be at a competitive disadvantage. We'll examine strategies for customizing information in detail in Chapters 2 and 3.

Technology

We have focused so far on the information side of "information technology." Now let's turn to the technology side--that is, the infrastructure that makes it possible to store, search, retrieve, copy, filter, manipulate, view, transmit, and receive information.

Infrastructure is to information as a bottle is to wine: the technology is the packaging that allows the information to be delivered to end consumers. A single copy of a film would be of little value without a distribution technology. Likewise, computer software is valuable only because computer hardware and network technology are now so powerful and inexpensive.

In short, today's breathless pace of change and the current fascination with the information economy are driven by advances in information technology and infrastructure, not by any fundamental shift in the nature or even the magnitude of the information itself. The fact is, the Web isn't all that impressive as an information resource. The static, publicly accessible HTML text on the Web is roughly equivalent in size to 1.5 million books. The UC Berkeley Library has 8 million volumes, and the average quality of the Berkeley library content is much, much higher! If 10 percent of the material on the Web is "useful," there are about 150,000 useful book-equivalents on it, which is about the size of a Borders superstore. But the actual figure for "useful" is probably more like 1 percent, which is 15,000 books, or half the size of an average mall bookstore.

The value of the Web lies in its capacity to provide immediate access to information. Using the Web, information suppliers can distribute up-to-date information dynamically from databases and other repositories. Imagine what would happen if the wine industry came up with a bottle that gave its customers easier, quicker, and cheaper access to its wine. Sure, the bottle is only infrastructure, but infrastructure that can reduce cost and increase value is tremendously important. Improved information infrastructure has vastly increased our ability to store, retrieve, sort, filter, and distribute information, thereby greatly enhancing the value of the underlying information itself.

What's new is our ability to manipulate information, not the total amount of information available. Mom-and-pop hardware stores of yesteryear regularly checked their inventories. The inventory information now captured by Home Depot, while surely more accurate and up-to-date, is not vastly greater than that of a generation ago. What is truly new is Home Depot's ability to re-order items from suppliers using electronic data interchange, to conduct and analyze cross-store demand studies based on pricing and promotional variations, and to rapidly discount slow-moving items, all with minimal human intervention.

Indeed, in every industry we see dramatic changes in technology that allow people to do more with the same information. Sears Roebuck popularized catalog sales more than a century ago. Lands' End does not have that much more raw information than Sears did. Like Sears, it has a catalog of products and a list of customers. What is new is that Lands' End can easily retrieve data on customers, including data on previous purchases, that allows it to engage in targeted marketing. Furthermore, Lands' End can use the telecommunications and banking infrastructure to conduct transactions in real time over the telephone and on-line.

Content providers cannot operate without infrastructure suppliers, and vice versa. The information economy is about both information and the associated technology.

Systems Competition

Systems show up everywhere in information technology: operating systems and applications software, CPUs and memory chips, disk drives and controller cards, video cassette recorders and the videotapes themselves. Usually, one firm cannot hope to offer all the pieces that make up an information system. Instead, different components are made by different manufacturers using very different production and business models. Traditional rules of competitive strategy focus on competitors, suppliers, and customers. In the information economy, companies selling complementary components, or complementors, are equally important. When you are selling one component of a system, you can't compete if you're not compatible with the rest of the system. Many of our strategic principles are specifically designed to help companies selling one component of an information system.

The dependence of information technology on systems means that firms must focus not only on their competitors but also on their collaborators. Forming alliances, cultivating partners, and ensuring compatibility (or lack of compatibility!) are critical business decisions. Firms have long been faced with make/buy decisions, but the need for collaboration, and the multitude of cooperative arrangements, has never been greater than in the area of infotech. We describe how firms must function in such a systems-rich and standards-rich environment in Chapter 8.

The history of the Microsoft-Intel partnership is a classic example. Microsoft focused almost exclusively on software, while Intel focused almost exclusively on hardware. They each made numerous strategic alliances and acquisitions that built on their strengths. The key for each company has been to commoditize complementary products without eroding the value of its own core strengths. For example, Intel has entered new product spaces such as chipsets and motherboards to improve the performance of these components and thereby stimulate demand for its core product: microprocessors. Intel has helped to create a highly competitive industry in component parts such as video cards, sound cards, and hard drives as well as in the assembly and distribution of personal computers.

Microsoft has its following of independent software vendors (ISVs), and both companies have extensive licensing programs with original equipment manufacturers (OEMs). And they each have each other, an extraordinarily productive, if necessarily tense, marriage. It's in the interest of each company to create multiple sources for its partner's piece of the system but to prevent the emergence of a strong rival for its own piece. This tension arises over and over again in the information technology sector; Microsoft and Intel are merely the most visible, and profitable, example of the complex dynamics that arise in assembling information systems.

Apple Computer pursued a very different strategy by producing a highly integrated product consisting of both a hardware platform and the software that ran on it. Their software and hardware was much more tightly integrated than the Microsoft/Intel offerings, so it performed better. (Microsoft recognized this early on and tried to license the Apple technology rather than investing in developing its own windowing system.) The downside was that the relative lack of competition (and, later, scale) made Apple products more expensive and, eventually, less powerful. In the long run, the "Wintel" strategy of strategic alliance was the better choice.

Lock-In and Switching Costs

Remember long-playing phonograph records (LPs)? In our lexicon, these were "durable complementary assets" specific to a turntable but incompatible with the alternative technology of CDs. In plain English: they were durable and valuable, they worked with a turntable to play music, but they would not work in a CD player. As a result, Sony and Philips had to deal with considerable consumer switching costs when introducing their CD technology. Fortunately for Sony and Philips, CDs offered significant improvement in convenience, durability, and sound quality over LPs, so consumers were willing to replace their music libraries. Quadraphonic sound, stereo AM radio, PicturePhones, and digital audiotape did not fare as well. We'll see how the new digital video (or versatile) disks (DVDs) will do in the next few years.

As the impending problem of resetting computers to recognize the year 2000 illustrates, users of information technologies are notoriously subject to switching costs and lock-in: once you have chosen a technology, or a format for keeping information, switching can be very expensive. Most of us have experienced the costs of switching from one brand of computer software to another: data files are unlikely to transfer perfectly, incompatibilities with other tools often arise, and, most important, retraining is required.

Switching costs are significant, and corporate information officers (CIOs) think long and hard about changing systems. Lock-in to historical, legacy systems is commonplace in the network economy. Such lock-in is not absolute--new technologies do displace old ones--but switching costs can dramatically alter firms' strategies and options. In fact, the magnitude of switching costs is itself a strategic choice made by the producer of the system.

Lock-in arises whenever users invest in multiple complementary and durable assets specific to a particular information technology system. You purchased a library of LPs as well as a turntable. So long as these assets were valuable--the albums were not too scratched and the turntable still worked--you had less reason to buy a CD player and start buying expensive CDs. More generally, in replacing an old system with a new, incompatible one, you may find it necessary to swap out or duplicate all the components of your system. These components typically include a range of assets: data files (LP records, COBOL programs, word processing documents, etc.), various pieces of durable hardware, and training, or human capital. Switching from Apple to Intel equipment involves not only new hardware but new software. And not only that, the "wetware"--the knowledge that you and your employees have built up that enables you to use your hardware and software--has to be updated. The switching costs for changing computer systems can be astronomical. Today's state-of-the-art choice is tomorrow's legacy system.

This type of situation is the norm in the information economy. A cellular telephone provider that has invested in Qualcomm's technology for compressing and encoding the calls it transmits and receives is locked into that technology, even if Qualcomm raises the price for its gear. A large enterprise that has selected Cisco's or 3com's technology and architecture for its networking needs will find it very costly to change to an incompatible network technology. Whether the enterprise is locked in to proprietary Cisco or 3Com products or to an "open" standard with multiple suppliers can make a big difference.

Lock-in can occur on an individual level, a company level, or even a societal level. Many consumers were locked into LP libraries, at least in the sense that they were less inclined to purchase CD players because they could not play LPs. Many companies were locked into Lotus 1-2,-3 spreadsheets because their employees were highly trained in using the Lotus command structure; indeed, Lotus sued Borland for copying the 1-2-3 command structure in its spreadsheet product, Quattro Pro, a dispute that went all the way to the Supreme Court. Today, at a societal level, most of us are locked into Microsoft's Windows desktop operating environment.

We explore lock-in and switching costs in Chapters 5 and 6. We'll examine the different kinds of lock-in, strategies to incorporate proprietary features into your product, and ways to coordinate your strategy with that of your partners. We'll explain how to exploit lock-in when you are offering an information system and how to avoid it, or at least anticipate it, when you are the buyer.

Positive Feedback, Network Externalities, and Standards

For many information technologies, consumers benefit from using a popular format or system. When the value of a product to one user depends on how many other users there are, economists say that this product exhibits network externalities, or network effects. Communications technologies are a prime example: telephones, e-mail, Internet access, fax machines, and modems all exhibit network externalities.

Technologies subject to strong network effects tend to exhibit long lead times followed by explosive growth. The pattern results from positive feedback: as the installed base of users grows, more and more users find adoption worthwhile. Eventually, the product achieves critical mass and takes over the market. Fax machines illustrate nicely the common pattern. The Scottish inventor Alexander Bain patented the basic technology for fax machines in 1843, and AT&T introduced a wire photo service in the United States in 1925, but faxes remained a niche product until the mid-1980s. During a five-year period, the demand for and supply of fax machines exploded. Before 1982, almost no one had a fax machine; after 1987, the majority of businesses had one or more.

The Internet exhibited the same pattern. The first e-mail message was sent in 1969, but up until the mid-1980s e-mail was used only by techies. Internet technology was developed in the early 1970s but didn't really take off until the late 1980s. But when Internet traffic did finally start growing, it doubled every year from 1989 to 1995. After the Internet was privatized in April 1995, it started growing even faster.

But network externalities are not confined to communications networks. They are also powerful in "virtual" networks, such as the network of users of Macintosh computers: each Mac user benefits from a larger network, since this facilitates the exchange of files and tips and encourages software houses to devote more resources to developing software for the Mac. Because these virtual networks of compatible users generate network externalities, popular hardware and software systems enjoy a significant competitive advantage over less popular systems. As a result, growth is a strategic imperative, not just to achieve the usual production side economies of scale but to achieve the demand side economies of scale generated by network effects.

We explore the implications of network externalities for business strategy in Chapter 7. The key challenge is to obtain critical mass--after that, the going gets easier. Once you have a large enough customer base, the market will build itself. However, having a superior technology is not enough to win. You may need to employ marketing tools such as penetration pricing to ignite the positive feedback.

The company that best understands information systems and complementary products will be best positioned to move rapidly and aggressively. Netscape grabbed the Web browser market early on by giving away its product. It lost money on every sale but made up for it in volume. Netscape was able to give away its browser and sell it, too, by bundling such critical components as customer support with the retail version and by selling complementary goods such as server software for hefty prices.

In competing to become the standard, or at least to achieve critical mass, consumer expectations are critical. In a very real sense, the product that is expected to become the standard will become the standard. Self-fulfilling expectations are one manifestation of positive-feedback economics and bandwagon effects. As a result, companies participating in markets with strong network effects seek to convince customers that their products will ultimately become the standard, while rival, incompatible products will soon be orphaned.

Competitive "pre-announcements" of a product's appearance on the market are a good example of "expectations management." In the mid-1980s, when Borland released Quattro Pro, a new spreadsheet, Microsoft was quick to counter with a press release describing how much better the next release of its comparable program, Excel, would be. It didn't take long for the press to come up with the term vaporware to describe this sort of "product." Microsoft played the same game IBM had played in an earlier generation, when IBM was accused of using pre- announcements to stifle competition. When network effects are strong, product announcements can be as important as the actual introduction of products.

Product pre-announcements can be a two-edged sword, however. The announcement of a new, improved version of your product may cut into your competitors' sales, but it can also cut into your own sales. When Intel developed the MMX technology for accelerating graphics in the fall of 1996, it was careful not to advertise it until after the Christmas season. Likewise, sales of large-screen TV sets in 1997 declined as consumers waited for digital television sets to arrive in 1998.

Because of the importance of critical mass, because customer expectations are so important in the area of information infrastructure, and because technology is evolving so rapidly, the timing of strategic moves is even more important in the information industry than in others. Moving too early means making compromises in technology and going out on a limb without sufficient allies. Japan's television network NHK tried to go it alone in the early 1990s with its own high-definition television system, with disastrous consequences: not only has NHK's analog MUSE system met with consumer resistance in Japan, but it has left the Japanese behind the United States in the development and deployment of digital television. Yet moving too late can mean missing the market entirely, especially if customers become locked into rival technologies. We'll explore timing in Chapter 7 along with our discussion of critical mass, network externalities, standards, and compatibility.

Whether you are trying to establish a new information technology or to extend the lifetime of technology that is already popular, you will face critical compatibility decisions. For example, a key source of leverage for Sony and Philips in their negotiations with others in the DVD alliance was their control over the original CD technology. Even if Sony and Philips did not develop or control the best technology for DVD, they were in the driver's seat to the extent that their patents prevented others from offering backward-compatible DVD machines. Yet even companies with de facto standards do not necessarily opt for backward compatibility: Nintendo 64 machines cannot play Nintendo game cartridges from the earlier generations of Nintendo systems. We explore a range of compatibility issues, including intergenerational compatibility, in Chapter 8.

Another method for achieving critical mass is to assemble a powerful group of strategic partners. For this purpose, partners can be customers, complementors, or even competitors. Having some large, visible customers aboard can get the bandwagon rolling by directly building up critical mass. In November 1997 Sun took out full-page ads in the New York Times and other major newspapers reciting the long list of the members of the "Java coalition" to convey the impression that Java was the "next big thing."

Having suppliers of complements aboard makes the overall system more attractive. And having competitors aboard can give today's and tomorrow's customers the assurance that they will not be exploited once they are locked in. We see this strategy being used with DVD today; Sony and Philips, the original promoters of CD technology, have teamed up with content providers (that is, customers) such as Time Warner and competitors such as Toshiba to promote the new DVD technology. Both player manufacturers and disk-pressing firms are on board, too. The same pattern occurs in the emergence of digital television in the United States, where set manufacturers, who have the most to gain from rapid adoption of digital TV, are leading the way, with the Federal Communications Commission (FCC) dragging broadcasters along by offering them free spectrum for digital broadcasts.

Very often, support for a new technology can be assembled in the context of a formal standard-setting effort. For example, both Motorola and Qualcomm have sought to gain competitive advantages, not to mention royalty income, by having their patented technologies incorporated into formal standards for modems and cellular telephones.

If you own valuable intellectual property but need to gain critical mass, you must decide whether to promote your technology unilaterally, in the hope that it will become a de facto standard that you can tightly control, or to make various "openness" commitments to help achieve a critical mass. Adobe followed an openness strategy with its page description language, PostScript, explicitly allowing other software houses to implement PostScript interpreters, because they realized that such widespread use helped establish a standard. Nowadays, participation in most formal standard-setting bodies in the United States requires a commitment to license any essential or blocking patents on "fair, reasonable and non-discriminatory terms." We explore strategies for establishing technology standards in Chapter 8.

A go-it-alone strategy typically involves competition to become] the standard. By contrast, participation in a formal standard-setting process, or assembling allies to promote a particular version of technology, typically involves competition within a standard. Don't plan to play the higher-stakes, winner-take-all battle to become the standard unless you can be aggressive in timing, in pricing, and in exploiting relationships with complementary products. Rivalry to achieve cost leadership by scale economies and experience, a tried and true strategy in various manufacturing contexts, is tame in comparison. Just ask Sony about losing out with Beta in the standards war against VHS, or the participants in the recent 56k modem standards battle. We explore effective strategies for standards battles in Chapter 9.


Policy

The ongoing battle between Microsoft and the Justice Department illustrates the importance of antitrust policy in the information sector. Whether fending off legal attacks or using the antitrust laws to challenge the conduct of competitors or suppliers, every manager in the network economy can profit from understanding the rules of the game. We explore government information policy in Chapter 10, including antitrust policy and regulation in the telecommunications sector.

Microsoft's wishes to the contrary, high-tech firms are not immune to the antitrust laws. Competitive strategy in the information economy collides with antitrust law in three primary areas: mergers and acquisitions, cooperative standard setting, and monopolization. We explore the current legal rules in each of these areas in Chapter 10.

Overall, we do not believe that antitrust law blocks most companies from pursuing their chosen strategies, even when they need to cooperate with other industry members to establish compatibility standards. Now and then, companies are prevented from acquiring direct rivals, as when Microsoft tried to acquire Intuit, but this is hardly unique to the information sector.

The Sherman Anti-Trust Act was passed in 1890 to control monopolies. Technology has changed radically since then. As we have stressed, the underlying economic principles have not. As a new century arrives, the Sherman Act is flexible enough to prevent the heavy hand of monopoly from stifling innovation, while keeping markets competitive enough to stay the even heavier hand of government regulation from intruding in our dynamic hardware and software markets.

How we differ

We've explained what this book is about. We also should say what our book is not about and what distinguishes our approach from others.

First, this book is not about trends. Lots of books about the impact of technology are attempts to forecast the future. You've heard that work will become more decentralized, more organic, and more flexible. You've heard about flat organizations and unlimited bandwidth. But the methodology for forecasting these trends is unclear; typically, it is just extrapolation from recent developments. Our forecasting, such as it is, is based on durable economic principles that have been proven to work in practice.

Second, this book is not about vocabulary. We're not going to invent any new buzzwords (although we do hope to resurrect a few old ones). Our goal is to introduce new terms only when they actually describe a useful concept; there will be no vocabulary for the sake of vocabulary. We won't talk about "cyberspace," the "cybereconomy," or cyber-anything.

Third, this book is not about analogies. We won't tell you that devising business strategy is like restoring an ecosystem, fighting a war, or making love. Business strategy is business strategy and though analogies can sometimes be helpful, they can also be misleading. Our view is that analogies can be an effective way to communicate strategies, but they are a very dangerous way to analyze strategies.

We seek models, not trends; concepts, not vocabulary; and analysis, not analogies. We firmly believe the models, the concepts, and the analysis will provide you with a deeper understanding of the fundamental forces at work in today's high-tech industries and enable you to craft winning strategies for tomorrow's network economy.

Pequeña historia social del ordenador personal

En los últimos 15 años, las tecnologías digitales se han convertido en objetos tan cotidianos como el periódico o la tarjeta de metro. Casi sin darnos cuenta, hemos incorporado a nuestras vidas tecnologías como el correo electrónico, el messenger, la fotografía digital, el dvd, etc. Estas tecnologías son tan cotidianas que hemos olvidado como eran nuestra vidas antes de que existieran. ¿Alguien recuerda el primer e-mail que envió?

Los inicios

La primera instancia de algo parecido a un ordenador data del año 1804. Joseph-Marie Jacquard ideó una máquina para automatizar el proceso de tejer telas, programable mediante unas tarjetas con diferentes agujeros: el operario insertaba una combinación particular de tarjetas, y el resultado era una tela con diferentes patrones dibujados.

La idea de Jacquard enseguida consiguió adeptos. Charles Babbage (1791-1871) ideó dos máquinas que funcionaban de manera parecida. Conceptualmente, sin embargo, eran muy diferentes. Si bien Jacquard ideó su máquina con el fin de automatizar el proceso de tejer una tela, Babbage pretendía construir una máquina capaz de calcular y listar resultados de operaciones matemáticas. Nunca llegó a construir una máquina capaz de calcular, pero fue un importante paso hacia computación moderna, al distinguir entre las funciones de cálculo y las funciones de representación.

Su colega femenina Ada Lovelace (1816-1852) fue mucho más allá. Lovelace pensó en una máquina más universal, capaz de “manipular y disponer de manera ordenada números, letras y signos en general… una máquina capaz de componer elaboradas piezas de música de cualquier complejidad y alcance… al igual que la máquina de Jacquard teje patrones de flores y hojas, nuestra máquina analítica opera tejiendo patrones algebraicos”.

Ciento cincuenta años más tarde, los servicios de inteligencia del ejército norteamericano experimentarían con máquinas capaces de calcular las trayectorias de proyectiles de diferentes tamaños y potencias. Dichas máquinas, bautizadas ya con el nombre de “computadoras”, eran programables mediante tarjetas convenientemente agujereadas, con el fin de que la computadora realizara determinados cálculos. El mismo ejército que haría funcionar también la primera red de comunicación entre ordenadores, conocida como ARPANET, en los años sesenta de la guerra fría y el amor libre.

La revolución industrial

No es casualidad que las primeras instancias de lo que hoy conocemos como ordenador o como Internet nacieran en contextos industriales y militares. El siglo XIX ha pasado a la historia como el siglo de la revolución industrial, de la máquina de vapor, de Adam Smith y el sistema económico capitalista. El siglo XX ha sido el siglo de las grandes guerras, de la obsesión con la seguridad en un mundo global lleno de peligros en cada esquina. Las tecnologías digitales no son ajenas, en su diseño y en su uso, a tales contextos sociales.

Hemos visto cómo una máquina paradigmática de la sociedad industrial, la máquina de tejer, inspiró las primeras elucubraciones acerca de máquinas capaces de calcular tablas de números destinadas, en definitiva, a simplificar la contabilidad de las grandes empresas deudoras también de la sociedad industrial.

Estamos en los últimos años del siglo XIX, y los efectos de la revolución industrial empezaban a ser evidentes en las grandes migraciones de gente desde el campo a la ciudad. Era necesario controlar de algún modo esas grandes masas humanas, del mismo modo que los productos fabricados en grandes industrias se construían a base de piezas estandarizadas y homogéneas, en una cadena de montaje donde el trabajador también debía ser un estándar.

Estados Unidos fue el primer país que emprendió la tasca de censar a su población, en el año 1790. Gran Bretaña lo haría en el 1801. Pero a finales del XIX, la población y la información necesaria para censarla eran demasiado grandes para manipularse manualmente.

Herman Hollerith propuso en 1890 la máquina tabuladora, inspirada en los trabajos de Jacquard y Babbage. Cada persona era representada por una tarjeta. Los datos de cada persona se representaban mediante agujeros en dicha tarjeta. La máquina tabuladora permitió buscar y referenciar datos de grandes números de personas, de manera casi automática y muy rápida. El ser humano, por vez primera, se reducía a un conjunto de datos almacenados en una tarjeta. Su individualidad se digitalizaba.

Hacia la computación moderna

Los primeros 30 años del siglo XX vieron el nacimiento de grandes empresas dedicadas a la computación, como por ejemplo IBM, cuyas máquinas servían básicamente para calcular y tabular datos. Así mismo, empezaron a publicarse artículos de investigación explorando las posibilidades de la computación.

En 1930, Alan Turing, que se ganaba la vida en el ejército descifrando los mensajes encriptados de submarinos alemanes, publicó un artículo en el que proponía una nueva máquina para calcular, basada en la tejedora de Jacquard pero, muy especialmente, en otra máquina paradigmática de su tiempo: la máquina de escribir.

Turing se fijó en la máquina de escribir porque era a su juicio la única máquina capaz de funcionar en dos estados diferentes: mayúsculas y minúsculas. A partir de ahí, Turing describió en un artículo una máquina capaz de programarse en un número infinito de estados, y por lo tanto capaz de llevar a cabo un número igualmente infinito de tareas. Era una máquina similar a la de escribir, pero a diferencia de ésta, permitía borrar y mover caracteres en una cinta infinita destinada a almacenar datos: algo parecido lo que hoy conocemos como disco duro.

Por un lado, Turing introduce por primera vez el concepto de almacenamiento de datos (hasta el momento, las máquinas de calcular no almacenaban, simplemente retornaban un resultado para un “input” determinado). Por otro lado, el paralelismo con los dos estados posibles de una máquina de escribir inducía a pensar en mecanismos binarios para programar un ordenador.

La segunda guerra mundial

Si bien en los años 30-40 era de esperar que tarde o temprano aparecería en escena el primer ordenador, la segunda guerra mundial contribuyó a acelerar determinantemente el proceso. La radio se había convertido en una tecnología de guerra fundamental: permitía el movimiento coordinado de los ejércitos sin la necesidad de establecer lineas físicas de comunicación. Pero la radio tenía un precio: los mensajes transmitidos por aire podían ser interceptados por el enemigo.

Gran Bretaña fue pionera en el desarrollo de técnicas de encriptación y desencriptación de mensajes, con el mencionado Alan Turing a la cabeza de un pionero grupo de investigación. Los resultados no se hicieron esperar. En 1943 nacía el primer ordenador moderno: el MK1, en Manchester, curiosamente la cuna de la otra máquina que cambió definitivamente la cara del mundo: la máquina de vapor. El gran avance del MK1 fue su manera de procesar datos: los datos ya no se almacenaban en tarjetas perforadas, sino que en su lugar se utilizaban válvulas de vacío.

Más tarde, en 1945, llegaría el ENIAC, en Estados Unidos, con la ayuda del matemático, físico y pionero de la computación John Von Neumann. Von Neumann, implicado en el proyecto Manhattan para el desarrollo de la bomba atómica, vio en el ordenador el complemento perfecto para ayudar al desarrollo matemático de la bomba.

En resumen, el ordenador nació reflejando y reforzando los grandes cambios de su época, a saber, la emergencia de la sociedad industrial y el capitalismo. Por un lado, la máquina de tejer y la máquina de escribir (paradigmas de la sociedad industrial capitalista) inspiraron el diseño de las primeras máquinas para calcular y tabular. Por otro lado, el capitalismo mismo no hubiera podido florecer sin el apoyo fundamental de tecnologías que permitieran manipular y estandarizar grandes cantidades de información, así como controlar la compleja tecnología militar de la segunda guerra mundial, que culminó con la bomba atómica.

Sociedad y tecnología, por lo tanto, avanzan apoyándose y reflejándose la una en la otra. No se trata de elementos discretos e independientes, sino que crecen arraigados en una cultura común. Una visión marxista del progreso tal vez diría que no es casual tal aparejamiento, y que existe una mente que planifica el desarrollo de la sociedad en una determinada dirección, diseñando las políticas y las tecnologías más adecuadas para satisfacer las necesidades de la clase dominante. Pero la segunda mitad del siglo XX sentó las bases para unas tecnologías digitales muy diferentes, y en algunos (pocos) casos difícilmente compatibles con la ideología capitalista.

La guerra fría

Hasta el momento de la historia que estamos trazando, el ordenador no ha abandonado las grandes instituciones públicas y las grandes empresas. ¿Cuándo podemos decir que el ordenador se convirtió en el ordenador personal? ¿Cuándo entró el ordenador en el hogar? ¿Cuándo dejó de ser una máquina para satisfacer las necesidades de cálculo y control de las grandes empresas y los grandes ejércitos, y se convirtió en una herramienta de producción personal, de evasión, de comunicación y de expresión?

Tras la segunda guerra mundial, la guerra fría marcó el desarrollo de las tecnologías digitales. Estados Unidos fundó ARPA, una agencia destinada a la investigación de aplicaciones de la tecnología digital a la estrategia militar. Y de ARPA nacieron los primeros ordenadores personales, es decir, los primeros ordenadores que, a través de una pantalla y un puntero, permitían la interacción con el usuario. La investigación de la interacción humano-computadora se creía esencial, pues era el siguiente paso para que humano y computadora pudieran integrarse en sistemas de defensa y ataque cada vez más complejos. Sin embargo, tales ordenadores tenían un problema: ocupaban el tamaño de habitaciones, incluso edificios, enteros. En la práctica, pues, eran poco “personales”.

Sin embargo, en 1970, como respuesta a la crisis financiera provocada por la guerra de Vietnam, el gobierno de los Estados Unidos decidió cortar toda financiación a proyectos de tecnología digital sin una aplicación inminentemente práctica para el ejército. El capital público dejó de financiar la computación, y el capital privado de la empresa fue su siguiente entorno natural. Y así fue como nacieron las grandes multinacionales de la informática. Xerox, Apple, IBM, Intel, Microsoft,… empezaron su andadura en los años 70, y el ordenador personal emprendió su conquista de las masas.

De Vietnam a San Francisco, pasando por Silicon Valley

La década de los 1970 fue esencial para el desarrollo del ordenador personal, tanto a nivel tecnológico como cultural. Hasta el momento, la tecnología digital se asociaba a necesidades empresariales y, sobre todo, militares. Por este motivo, no gozaba de especial atractivo para el consumidor personal, sobre todo teniendo en cuenta la mala imagen de todo lo relacionado con lo militar en un momento en que Estados Unidos se empeñaba en ganar una guerra perdida, la de Vietnam, a cualquier precio monetario y humano. Sin embargo, se avecinaba un cambio de paradigma. Y el cambio se dio en dos lugares del estado de California: San Francisco y Silicon Valley.

San Francisco era desde los 1960s la cuna de la contra-cultura, que abogaba por la realización personal del individuo como el camino hacia una sociedad alternativa. El individuo debía ser capaz de construirse los artilugios necesarios para sobrevivir, independientemente de las grandes corporaciones asociadas al capitalismo imperante y sus consecuencias más negativas, como la guerra, las grandes concentraciones de poder o la degradación del medio ambiente.

El ejemplo más claro, y más relevante históricamente, de movimiento contra-cultural fue el “Whole Earth Project”, que editaba una serie de catálogos convenientemente denominados “Whole Earth Catalogues”. Estos catálogos contenían toda una serie de consejos para llevar una vida independiente y autosuficiente, alejada de la producción y la cultura de masas: el catálogo listaba manuales para mantener una producción agrícola individual, herramientas y materiales para la construcción, ayuda médica y psicológica, instrumentos musicales,… además de textos filosóficos, políticos y económicos de diversa índole.

Los “Whole Earth Catalogues” gozaron de gran popularidad desde su primera tirada, sobre todo entre la población estudiantil y alternativa de la bahía de San Francisco. Unos 80km hacia el sur, en Palo Alto y Stanford, se empezaban a gestar otro tipo de proyectos, aparentemente opuestos a la contra-cultura, pero que en pocos años acabaron siendo su mayor aliado.

El área alrededor de la universidad de Stanford se había convertido en el centro de operaciones de varias empresas relacionadas con la microelectrónica. Puesto que el principal componente en microelectrónica es el silicio, dicha área se bautizó como “Silicon Valley”. En 1968, Robert Noyce y su colega Gordon Moore fundaron Intel, una empresa dedicada a la fabricación de componentes microelectrónicos. Los componentes microelectrónicos habían sustituido a las válvulas de vacío. En la práctica, la microelectrónica permitió fabricar ordenadores del tamaño que hoy conocemos.

En 1969, el ingeniero de Intel Ted Hoff diseñó un circuito de silicio que podía reprogramarse para diversos usos. Hasta el momento, para cada aparato electrónico se diseñaba un circuito diferente. La invención de Ted Hoff, bautizada como microprocesador, significaba que un solo circuito podía fabricarse y comercializarse para múltiples usos, desde lavadoras hasta coches o televisores. En apenas diez años, el precio de un circuito integrado bajaba de decenas de miles de dólares a menos de diez dólares. Semejante abaratamiento de costes permitía pensar en la comercialización de ordenadores personales al alcance de todo bolsillo.

Xerox fundó el XeroxPARC en Palo Alto, un centro de investigación privado que atrajo a toda una generación de investigadores en tecnología digital que se habían quedado sin trabajo tras los cortes de fondos públicos promovidos por el gobierno de los Estados Unidos. Xerox supo aprovechar la tecnología microelectrónica de Intel, por un lado, y los mecanismos de interacción persona-ordenador desarrollados por el ejército americano durante la guerra fría para presentar, en 1973, el primer ordenador personal. Bautizado como “Alto”, consistía en una caja de procesamiento, una pantalla y un ratón. Los movimientos del ratón permitían moverse y seleccionar objetos en la pantalla, de manera muy similar a lo que conocemos ahora.

El fundador del “Whole Earth Project” y abanderado de la contra-cultura, Stewart Brand, no fue ajeno a tal desarrollo. Como reportero para la revista Rolling Stone, escribió un artículo en el que relató la invención de Xerox, y utilizó por primera vez el término “ordenador personal”. Curiosamente, XeroxPARC se enorgullecía de contar con ejemplares de los “Whole Earth Catalogues” en su biblioteca. La contracultura y el silicio no andaban del todo desaparejados.

Casi inmediatamente, empezaron a surgir empresas anunciando “ordenadores personales” en las contraportadas de las revistas de electrónica del momento. Paralelamente, los movimientos contra-culturales se hicieron eco de tales desarrollos tecnológicos, y abogaron por la fabricación de ordenadores para potenciar las posibilidades del ser humano, y no para someterlo, como era el caso hasta entonces. Nació así el “Homebrew club”, que periódicamente organizaba encuentros en distintos puntos de Silicon Valley, destinados a discutir y compartir conocimiento acerca de los últimos avances en materia de computación personal.

En uno de dichos encuentros, en 1976, el ingeniero Steve Wozniak, y su colega Steve Jobs, presentaron el Apple I, el primer ordenador que fabricaba su empresa, Apple Computer. Consistía en una placa cargada de chips microelectrónicos, pero que al enchufarla a un teclado y una pantalla permitía, con asombrosa facilidad, escribir o realizar gráficos. El siguiente modelo, el Apple II, permitía realizar pequeños programas en BASIC. Tan sólo ocho años más tarde, Apple Computers, nacida en un garaje y fundada por dos personas, facturaba cientos de millones de dólares.

En 1984, Apple presenta el Macintosh. Su lanzamiento comercial es impresionante: compra todos los espacios publicitarios de la revista Newsweek, e inserta un hoy legendario anuncio publicitario de 60 segundos en el intermedio televisivo de la Superbowl, el acontecimiento deportivo más importante en Estados Unidos. El ordenador personal había conquistado a las masas.

El anuncio del Macintosh de 1984 resume quizás los casi doscientos años de historia de la computación. En el anuncio, se ve una gran sala con cientos de humanos vestidos idénticamente, dispuestos simétricamente unos junto a otros. En una pantalla gigante, se ve un rostro algo dictatorial, pronunciando unas palabras extraídas del clásico libro de Orwell, 1984. De repente, una mujer con un martillo se aproxima corriendo hacia la pantalla gigante, para finalmente lanzar el martillo contra ésta y hacerla explotar. La imagen va disolviéndose, con la siguiente voz en off: “En Enero de 1984, Apple Computers presentará el Macintosh. Y entonces veréis por qué 1984 no será como 1984”. El fundido termina, y aparece la famosa manzana de colores de Apple.