Ciencias

Las guerras clon

Guerras Clon 1

Alrededor del año 2005 asistimos a un fenómeno inédito en el mundo de la informática de consumo tal y como la conocíamos desde los años 80: el sistema operativo omnipresente en aquellos ordenadores que no estuvieran ubicados en determinadas irreductibles aldeas galas llevaba ya cuatro años funcionando, el recambio era una especie de leyenda urbana y, para colmo, incluso había cierto consenso en que funcionaba razonablemente bien. Por primera vez era innecesario tener conocimientos enciclopédicos o el proverbial «enterao» a mano sobre el hardware disponible a la hora de comprar un ordenador. Fueran laptops o desktops nuestros ordenadores habían ampliado su vida útil hasta un punto que no se había visto nunca. El origen de esto hay que buscarlo en la ley de Moore, que ha sido una fuente de satisfacciones permanente para los aficionados a la última tecnología prácticamente desde que se enunció. Eso por no mencionar a los fabricantes de productos tecnológicos, que gracias a ella han visto elevado el grado de obsolescencia de sus productos hasta unos límites insospechados. Sin embargo el software de consumo puede necesitar un montón de recursos, pero a menos que se quiera hacer modelos del clima, de la resistencia de un puente o resolver numéricamente la ecuación de Schrödinger, la necesidad de esos recursos es finita. Lo que nos deja en un callejón sin salida respecto a la tasa de reposición de ordenadores convencionales que a la industria no le conviene en absoluto. En una sola frase: el mercado de consumo más importante de las últimas dos décadas se estaba muriendo. Las vías convencionales para resucitarlo ya no colaban: Vista se convirtió en un fracaso más de Microsoft o el número de iMacs o iBooks vendidos no acababa de despegar.

Sin embargo la industria tuvo un golpe de genialidad. Ahora parece casi evidente, pero en su día reconocer que el binomio reproductores de mp3/teléfonos móviles marcarían el camino a seguir de la informática de consumo fue verdaderamente formidable. Los ordenadores hacían ya de todo y de manera fluida. Sin embargo los dispositivos portátiles tienen dos pegas fundamentales. El hardware, por razones de tamaño, no es tan potente y la fuente de alimentación, por razones de movilidad, es limitada. De hecho muy limitada. Así que ahí tenía el filón que precisaba la industria: meter ordenadores en dispositivos ultraportátiles. Que estos fueran mp3s, teléfonos o batidoras era irrelevante. Lo importante era meter todo el mercado de la informática en un dispositivo de potencia muy limitada y la ley de Moore ya se encargaría de todo lo demás.

En esas estamos ahora mismo, smartphones y tablets, son el nuevo campo de batalla de la industria. Hay un objetivo claro, el centro del tablero de esta partida de ajedrez es el sistema operativo. Quien se lleve el centro controlará todo el juego como ha demostrado Microsoft, rey indiscutible de la informática de consumo durante más de 20 años.  Sin embargo Microsoft, probablemente por ser un gigante en un mundo de hormigas, despreció muchas cosas: Internet, telefonía, empresas de hardware, incluso el mercado de mp3 y cuando respondió fue tarde. Así que nuestros nuevos ordenadores de bolsillo buscan un sistema operativo. Las alternativas son variadas, pero sobresalen dos por encima de todas: IOS y Android. Hay otros contendientes, pero mucho debería cambiar el mercado para que triunfen. Windows Phone o Bada de Samsung son intentos muy dignos, pero seguramente ya han llegado demasiado tarde para poder competir con garantías de éxito.

La sensación de dejà vu es total, volvemos a los 80 con sus máquinas producidas ex profeso por compañías que ofrecen su sistema operativo y que el consumidor elija. Apple ha demostrado con su supervivencia que este panorama le va muy bien, Google siempre se desmarcó del hardware, de hecho aún lo hace, así que tampoco le puede ir muy mal. Samsung vende de todo, así que su incursión es una aventura no muy dañina para la compañía. Aquí el verdadero problema es para los chicos de Redmond que en pocos años pueden llegar a verse fuera del mercado. No es que los sistemas operativos se hayan creado desde la nada, todos están basados en sistemas operativos existentes. IOS (el de los iPhones) es una miniaturización de Mac OS, igual que Windows Phone lo es de Windows o Android de Linux. Bada es una portabilidad de librerías java compatibles con una gran variedad de kernels aunque en las gamas altas prefieren los basados en Linux.

Aquí la pregunta inevitable es qué es un kernel. Se trata de un conjunto de programas que ponen en contacto todos los componentes del dispositivo con el cerebro del ordenador, el microprocesador. Eso es nuestro sistema operativo, el de verdad, y todos menos uno se inclinan por Linux, ya que Mac OS es un nuevo desarrollo basado en Unix y convergente, por tanto, con Linux. Y esto tiene su importancia, porque programar para Linux no es exactamente lo mismo que para Windows. Windows como sistema operativo es muy potente, pero no tiene color respecto a Linux, y de hecho es un sistema con menos desarrollo que Linux a pesar de que parezca lo contrario. Cualquier avance en protocolos de interacción software/hardware que pueda salir de la cabeza de un muchacho en un rincón apartado del mundo llega al kernel Linux en cuestión de horas, semanas en el caso de Apple. Microsoft necesita años para el mismo proceso.

Decía que el kernel es el sistema operativo, lo cual al usuario normal le desconcierta ya que las apariencias son diferentes. Esto es debido al  interfaz gráfico, el GUI. Aquí las empresas tienen libertad absoluta ya que no tiene nada que ver con estándares de fabricación de microprocesadores. Apple tiene una larguísima tradición de hacer GUIs verdaderamente amigables, muy fluidos y muy, pero que muy sencillos de manejar. Lo que unido a una debilidad por el diseño vanguardista de sus dispositivos hace que sea ahora un contendiente muy serio a pesar de que hace diez años era una compañía con la que nadie contaba ya, salvo sus fieles, que cada vez eran menos.

Intentos por cambiar los GUIs ha habido muchos, pero al final todos acaban convergiendo hacia la forma de hacer de Apple. Uno no sabe muy bien qué tienen estos muchachos, pero lo cierto es que una vez tras otra acaban marcando el estándar de la interfaz gráfica. Si en los años 80 nos demostraron que el ratón era el paradigma y, por lo tanto, Microsoft les copió más o menos descaradamente, ahora en la primera década del siglo XXI nos hacen ver que las pantallas táctiles son el futuro. Y como tal todos los fabricantes les han seguido la estela. Los gestos táctiles que prácticamente tienen ahora todos los smartphones o los tablets ya venían incluidos en la primera versión del iPhone. No sólo eso, han marcado también la forma de hacer negocio con su tienda iTunes y sus aplicaciones, por lo que ahora Android tiene un repositorio de aplicaciones Android Market, Microsoft planea abrir su propia tienda, o Bada recoge sus aplicaciones de Samsung Apps.

La tercera pata que soporta el éxito de Apple ha sido abrir su sistema al desarrollo independiente. Tradicionalmente los sistemas operativos eran entornos cerrados. Las compañías cedían licencias de desarrollo a compañías grandes para que pudiera escribir aplicaciones para su sistema previo pago de un importe absolutamente desmesurado. Eso dejaba fuera a los programadores amateur que poco podían ofrecer al público, so pena de pagar precios astronómicos por entornos de desarrollo que no sabían si iban a dar algún beneficio. Sin embargo Linux vino a cambiar eso; no sólo las herramientas de desarrollo eran gratuitas, sino que además cualquier idea, fuera del tipo que fuera, era bienvenida e incorporada a sus repositorios. Eso hizo que Linux, al menos en el plano profesional, le fuera quitando porcentajes de una tarta que Microsoft creía únicamente suya. Para contrarrestar esto Microsoft empezó a rebajar los precios de sus sistemas de desarrollo hasta hacerlos incluso gratuitos en las versiones Express de sus plataformas .NET. No es que sea abierto, pero sí ofrecen herramientas de muy fácil manejo para crear software. Y esto es exactamente lo que hizo Apple para abrir su sistema al desarrollo independiente. Para Google esto tampoco supuso un trauma. Nunca había sido una compañía refractaria a abrir su código, bueno, al menos no del todo, así que no le costó acostumbrarse a liberar código y ofrecer sus propios kits de desarrollo de software (SDK). Bada hizo también lo propio sin mayores problemas porque el estándar ya estaba creado a su llegada. De esta manera todos los sistemas operativos cuentan con un SDK gratuito conteniendo las librerías que permiten un control absoluto del sistema de manejo sencillo, que con conocimientos de algún lenguaje de programación, Java fundamentalmente con pinceladas de C, permitía al usuario crear su propia aplicación para su dispositivo móvil. Lo mejor: la imaginación, y la batería, es el límite.

¿Entonces en qué consisten las diferencias para decantarnos por un sistema u otro? En el uso general son mínimas. Apple abre camino y todos los demás van detrás. Sin embargo hay claroscuros. Apple tiende a tomar un control absoluto sobre sus dispositivos y el software que se ejecuta en ellos. Las aplicaciones tienen que pasar un riguroso control de una compañía que es muy celosa de su imagen de marca. Por otro lado vende dispositivos a muy alto precio. Precio no justificado por la calidad de los componentes en muchos casos.

Google es más relajada en este aspecto, pero eso conlleva el riesgo de encontrarnos con aplicaciones perniciosas o con una calidad no a la altura del sistema. Como tampoco tiene control sobre el hardware, se limita a firmar acuerdos con fabricantes, con lo cual tenemos que revisar con mucho ojo qué componentes tiene el dispositivo que estamos comprando ya que puede darse el caso de que no llegue a satisfacer nuestras expectativas. Digamos que Android es una analogía perfecta del mundo de los ordenadores clónicos de los 90. Si el aparato es bueno su uso será una experiencia fantástica. Ahora bien, como el hardware sea malo disfrutaremos de una tortura diaria sin que los muchachos de Mountain View se hagan en absoluto responsables. Aquí antes de comprar es necesaria una exhaustiva búsqueda y comparación de lo que estamos adquiriendo.

Los demás están en una tierra de nadie. Microsoft se acerca más a Google en este aspecto, hace acuerdos con fabricantes y aún no facilita en exceso el desarrollo de terceros mientras que Samsung se acerca más a Apple aunque con mucha más libertad de acción al desarrollador.

¿Qué valoración les puede ofrecer quien esto escribe? Créanme, soy imparcial; reconozco que el panorama actual se lo debemos a Apple. Pero es tan cerrada y tan monopolística que no acaba de convencerme. Además yo provengo del mundo del PC clónico, así que Android me hace rejuvenecer, aunque su experiencia de uso es ligeramente más decepcionante que la que ofrece Apple. Los demás necesitan aún mejorar.

 

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

85año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

9 Comentarios

  1. Veamos:

    Hay una idea que sobrevuela un par de párrafos del artículo que da una visión incorrecta sobre el desarrollo y evolución de la potencia de los computadores. La Ley de Moore no lo es todo y leyendo este artículo lo parece. Por decirlo de alguna manera, la ley de Moore es la mitad, es tecnología, la otra mitad es ingeniería. La tecnología actual, incluso la actual experimental, no es suficiente por si sola para dar las prestaciones que se necesitan, no ya en entornos de trabajo o científicos sino en entornos caseros. Es duro con los niveles de desarrollo a los que hemos llegado pero es así, nuestras exigencias siempre van muy por delante. Por ello existe una ingeniería de hardware que paralelamente a ese desarrollo tecnológico completa el diseño de los microprocesadores y computadores y resulta en lo que tenemos en nuestras manos. Es injusto que debido a que la ley de Moore es algo fácilmente comprensible, se ponga como bandera de este tipo de adelantos porque por si sola no es nada, el mundo de la arquitectura e ingeniería de microprocesadores es enorme y complejísimo y sin él, seguiríamos en los años 50 en estos aspectos, por mucha ley de Moore que se cumpliera. Esto no es que sea una opinión mía, es que es un hecho.

    Por otro lado, que el sistema operativo sea la parte fundamental de los dispositivos móviles tampoco es del todo cierto. Un maravilloso sistema operativo no es nada sin un entorno de aplicaciones que lo explote y el uno sin el otro no existen, no es que ésto sea la tercera pata es que es la misma pata, afinando. iOS y Android están donde están no solamente por lo que son sino por lo que los rodea. Es fundamental tener eso claro. De la misma manera, Linux no tiene el mismo éxito que Windows en los entornos particulares y la razón principal es la misma de forma básica, las aplicaciones que utilizan los usuarios. Sea por calidad o costumbre ya es otro tema.

    Decir que un desarrollo de un particular llega el kernel de Linux en cuestión de¡horas! es falso. Igual con Apple si tienes suerte consigues lo de las semanas pero seguramente cuando no sea de las primeras que hagas y que además la suerte te acompañe. Los controles tanto de calidad, como de planificación, burocráticos, etc… de todos esos procesos que se encuentran en estos entornos son complejos y cuidados. Ni horas en Linux ni semanas, bueno, sí, pero no dos ni tres por norma general, en Apple.

    Opino que Windows Phone tendrá un papel importante que jugar cuando aparezca Windows 8. La similitud de entornos entre el PC o portátil de casa y el dispositivo móvil alegrará a muchos usuarios y por ahí puede entrar fuerte en el mercado.

    Me parece importante puntualizar que Apple no inventó «el ratón y las ventanas» sino que lo copió de Xerox y luego Microsoft a ellos. No es ninguna tontería este punto. Que luego Apple haya marcado el camino en lo que a interfaces gráficas se refiere, por supuesto. Que han inventado cosas muy importantes, pero no todo y si hay algo más importante que todo lo demás en cuanto a entornos gráficos de las últimas décadas es precisamente esa idea que tuvieron y desarrollaron en Xerox.

    • Gandalf, la ley de Moore en teoría no lo es todo. Sin embargo permíteme que disienta en cuanto a que no lo sea en la práctica. Lay ley de Moore no es más que un enunciado teórico de un electrónico que no hacía más que pensar en circuitos integrados, eso es muy cierto. Pero tampoco es menos cierto que también ha funcionado para la capacidad de almacenamiento, de memoria o incluso en las tasas de transferencia en los buses de datos.

      Pero la clave para que me refiera a su influencia práctica está en como afecta este fenómeno a la obsolescencia de un producto determinado; algo que para la industria no es precisamente baladí. Y prueba de ello es el esfuerzo, exponencialmente creciente, que ha puesto la industria en I+D. Si se pone es porque se vende mucho, y si se vende mucho es porque nuestros dispositivos no duran demasiado. O no duraban, vaya.

      Si piensas en cómo era la industria hace 35 años: un negocio sólo pensado para grandes compañías y punto. Piensa en cómo es la informática de consumo en este momento. El objetivo de mercado es el mundo entero. Eso lo sabe la industria y como tal lo explota. Y por esa razón, a mi juicio, ha volcado su interés en los dispositivos ultraportátiles. Porque en el fondo le conviene mucho empezar de nuevo la espiral de obsolescencia marcada por el cumplimiento de la ley de Moore. De hecho hay algún gurú de cuello alto que ha anunciado ya la muerte del ordenador como lo conocemos, y es que se trata de crear un clima propicio.

      Tampoco cabe duda de que la ley de Moore no dirige el desarrollo de aplicaciones, pero sí lo controla de alguna manera. A más prestaciones de hardware mayores prestaciones de software. El problema, es que las prestaciones imprescindibles del software tienen un límite para el gran público, que es el que en el fondo controla todo este este mercado. Esto, para la informática de usuario como la conocemos, también ha marcado la nueva deriva, y es que resultaba muy difícil abrir ya nuevos mercados. Nuevas necesidades si lo prefieres. Entretanto los nuevos miniordenadores es un mercado totalmente virgen y (esto es importante para una expansión adecuada) relativamente amateur.

      El sistema operativo, al menos como lo venimos conociendo, es el factor limitante de los productos sean software o hardware. Supongo que decir que erigir a Windows como controlador absoluto de los sistemas operativos fue decisivo en el desarrollo del mercado no es una exageración. Que Motorola saliera del desarrollo de microprocesadores, que SGI cerrara, que la propia Apple se asomara al abismo de la quiebra o que los fabricantes de componentes tuvieran que rendir pleitesía a una empresa que ¡sólo desarrollaba software! no me parece precisamente casual.

      En mi opinión particular, y como tal todo lo matizable que quieras, si Linux no ha sido un competidor serio para Windows es por una cuestión de timing. Para cuando dejó de ser un proyecto más o menos académico, Microsoft ya dominaba el mercado. Al menos el mercado que da dinero que es el de consumo. Sí lo ha sido para el profesional, y lo ha sido precisamente por su rapidez y capacidad en la respuesta a problemas. Eso significa capacidad de corrección de errores críticos en cuestión de horas. No de meses como solía pasarle a los muchachos de Redmond.

      En lo que sí tienes razón es en lo de Xerox y su ratón. No obstante, siempre he creído que ese proyecto se quedó en la nada. Una curiosidad más, como las pantallas táctiles de los PDAs. O se habría quedado si no llega a ser por Apple.

      Pero vamos, que los comentarios me han parecido de lo más pertinente.

      Un saludo.

      • Por supuesto que la Ley de Moore se cumple y se nota en la práctica pero a lo que me refiero es que detrás de ella también hay un desarrollo de la microarquitectura enorme, que sabe hacer dos cosas: aprovechar el aumento de densidad de integración y lo que comentaba, incluso cuando no es suficiente la tecnología aplicar métodos de pura ingeniería para conseguirlo. La microarquitectura cambia, evoluciona, hay diferentes visiones, mejoras aquí y empeoramientos allá. No es solamente tecnología lo que influye, la tecnología es arcilla y la ingeniería la mano que la convierte en jarrón, que la arcilla sea cada vez mejor y ayude, por supuesto.

        Yo añadiría más a la cadena de causas de obsolescencia que planteas: la industria necesita que los productos tengan fecha de caducidad. No hay más que mirar la página de SPEC para comprobar que no ya los rendimientos efectivos se incrementan taaanto como dicen sino que a veces resulta que hay máquinas que siguen funcionando muy bien, pero que muy bien y que por esa «obsolescencia artificial» tienen unos precios muy inferiores saliendo en el fondo muchísimo más rentables y siendo igualmente capaces. Progreso, evolución, hay, pero el ritmo es por una parte engañoso y por otra no tan acuciante como se quiere hacer creer en todos los mercados a los que apuntan. Evidentemente, cuanto más, mejor :)

        ¿Tú de verdad crees, por poner un ejemplo, que un móvil necesita dos núcleos para hacer correr lo que corre? Yo creo que no, sinceramente.

        Un punto que deriva de estos temas es también el aspecto de los desarrolladores. Ahora le siguen el juego a la industria porque «si necesito, me lo darán», antes no era así y requería más ingenio, más trabajo, pero las cosas se hacían igual. No me creo que las aplicaciones que corren en mi iOS necesitan gigas de memoria, de verdad que no y menos viendo luego el uso que le da la gente. Es un nuevo flanco donde ponerse a correr y hacer dinero pero porque se quiere, no porque sea lo necesario que se dice que es. También es verdad que el usuario se ha metido en el juego y lo alimenta ¡vaya si lo aliementa! El usuario pide y pide y pide y la indsutria está encantad de dárselo mientras pague. A mí todo me parece un poco fuera de control en este aspecto.

        Windows ha sido el rey en PCs pero no en cosas serias, lo que no niega lo que tú afirmas, que me parece bien. Y sí, Linux llegó tarde y seamos serios, sigue sin llegar. Linux funciona, si no funciona te puedes cagar, Windows todavía está un escalón por encima, en el día a día, en ese aspecto fundamental para el usuario casero o el trabajador de oficina. También estamos de acuerdo de que Linux es mejor en muchos entornos, es que eso es así, pero una cosa es que se solucionen bugs y se metan parches muy velozmente y otra hablar de kernels, que es otro mundo y otro tema, me da a mí que como no anden con cuidadísimo, el kernel de Linux un día va a decir basta o más bien lo van a decir los que trabajan en él.

        Y sí, cierto es que Apple apuesta por tecnologías que otros no y las convierte en el camino que los demás luego siguen, pero no me parece tanto visión revolucionaria a nivel de ingeniería o de creatividad puramente científica o tecnológica, hay parte pero con lo que de verdad dan el golpe sobre la mesa es con la genial idea de mercado y de comprensión del usuario que no quiere, sino que está dispuesto a querer y ellos son los que se lo dicen y se lo van a decir. Ahí me parece que está el verdadero punto clave de Apple.

  2. Bullwinkle

    A ver si por agotamiento logras que te den una columna, gandalf.

  3. fat elfo

    Por fin, leo algo de este tema escrito por una persona con conocimientos porque mira que hay catamañanas por la red, todos sueltos. Gracias y sigue así, por favor.

  4. Quizá todo se solucionaría si no se aplicara sólo la Ley de Moore sino que se tuvieran en cuenta modelos más generales de desarrollo económico y de proceso productivo, porque al final es de lo que se está hablando.

    Yo lo simplificaría así:

    Informática del silicio con transistores (si me equivoco lo siento, no soy ingeniero).

    Primera fase, desarrollo militar

    Segunda fase, desarrollo comercial extensivo, informática de consumo. Agotamiento lógico en los 2000: necesidades de refrigeración y energéticas empiezan a ser absurdas. Estancamiento vida útil. Problema para amortizar inversiones futuras, salto a otro nicho.

    Tercera fase, búsqueda de la repetición de toda la curva de aprendizaje y de monopolio, oligopolio, agotamiento… en lo portátil.

    Una vez acabada esta fase, lo que me pregunto es qué pasara con el silicio como base del negocio tal y como lo entendemos. Porque se cumple el mismo recorrido económico-social que con industrias como la del papel «pulp» vs el cáñamo. No se desarrolla otra vía hasta que se han explotado todos los nichos, aunque no tenga sentido económico/tecnológico. Básicamente esto se cumple siempre por el volumen de la inversión y la necesidad enfermiza de amortización, mayor cuanto mayor el es volumen de capital invertido.

    Como veis, ese es el contexto en el que se integra la Ley de Moore. Sin eso, no tiene sentido, la Ley no podría cumplirse porque existirían saltos hacia nichos imprevisibles, que tendrían que ver con I+D realizado de forma difusa. No tengo a mano modelos claros, pero lo que explica para mí la Ley de Moore es una focalización del I+D en consonancia con un cierto control de los mercados y de la apertura siempre pautada de nuevos nichos. Sin una economía controlada en cuanto a procesos productivos eso es imposible. Sin grupos fuertes comprando patentes y gestionando su implementación de forma pautada para maximizar beneficio sin tener en cuenta utilidad pura social y externalidades esto no se puede cumplir facilmente.

  5. Otra cosa que me parece muy interesante es si esa Ley podría ser trasladada al software, evidentemente con cambios.

    Parece absurdo, pero en el mundo del PC, ahora abandonado por los procesos que he mencionado antes, tendría lógica.

    Afinamiento gradual de las arquitecturas en el software, aligeramiento general, incluso a base de potencias. Creo que sería uno de los grandes logros de la humanidad poder llegar a eso. Implicaría un cambio de modelo bastante bestia.

    Evidentemente parto del hecho de que el desarrollo del software ha sido influido por la Ley de Moore y el desarrollo exponencial de la parte dura de la informática. Optimización de recursos aberrante, etc… sería como un sueño que una red de desarrollo difuso pudiera llevarnos a un camino de optimización creciente.

    Supongo que al no saber nada del tema, me he perdido mucho.

  6. La historia de que Apple copió a Xerox se repite una y otra vez, pero tiene una parte de falsa.

    En Xerox había algo parecido a las ventanas y al ratón, pero no es exagerado decir que Apple creó en muy poco tiempo lo que conocemos hoy por la ventana y el ratón. Primero, ya había desarrollos conceptuales elaborados sobre las interfaces de usuario gráficas. El jefe de desarrollo original del Mac, Jeff Raskin, hizo su tesis doctoral precisamente sobre eso a finales de los 60. Segundo, el ratón de Xerox era un mamotreto enorme y carísimo absolutamente inútil para el manejo eficaz de un ordenador personal. Fue Apple la que creó el ratón como lo conocemos: pequeño, barato, con un botón para seleccionar y una bola que accionaba ruedas. Tercero, las ventanas de Xerox eran sumamente primitivas, y Apple consiguió crear en tiempo récord no una reproducción de lo que había hecho Xerox, sino algo muy superior. Las ventanas de Apple, por ejemplo, podían superponerse unas a otras. Por último, el Lisa y el primer Mac eran ordenadores relativamente pequeños y económicos, susceptibles de ser producidos industrialmente, en serie, y con aplicaciones útiles. El salto que dio Apple desde la cosa de Xerox al Mac fue increíble, y más increíble aún cuando se piensa el poco tiempo que necesitaron y lo reducido de los equipos de desarrollo que lo lograron.

    Microsoft copió no a Xerox, sino a Apple, directamente. Copiaron todo el ingenio que Apple puso en el concepto de Xerox (que no era sólo de Xerox, aunque éstos le dieron una primera forma física). Además la copia no era ni de lejos tan refinada, elegante y acabada como el original.

    La distancia entre Apple y Xerox fue enorme, pero entre Microsoft y Apple muy corta.

    Apple además compró a finales de los 90 la NeXT de Jobs. NeXT había venido creando desde finales de los 80 un sistema operativo muy avanzado basado en el BSD Unix, pero con una sofisticada interfaz gráfica. Linux vino después.

    Con los dispositivos móviles lo volvieron a hacer, de nuevo. El sistema operativo del iPhone original es una maravilla, si bien ya había entonces teléfonos táctiles con interfaces parecidas, aunque mucho más primitivas y desgarbadas (recuerdo un LG Prada, negro con iconos dorados, anterior por muy poco al iPhone original, si la memoria no me falla). Una vez más, la idea de dispositivos táctiles con una interfaz digital (de dedo) ya flotaba, y tenía incluso algunas realizaciones comerciales. Pero Apple presentó una materialización redonda de esas ideas: funcional, eficaz y elegante, y por todo ello duradera.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*


Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.