Ciencias

La singularidad tecnológica… o cómo su ordenador se rebelará contra usted e intentará dominar el mundo

0 2001 A Space Odyssey 1968
2001: una odisea del espacio, 1968. Imagen: MGM.

Es el cambio, el cambio continuo, el cambio inevitable, lo que constituye el factor dominante en nuestra sociedad actual. Ninguna decisión sensata puede tomarse ya sin tomar en consideración no solamente cómo es el mundo hoy, sino cómo será en el futuro. Esto significa que nuestros hombres de Estado, nuestros hombres de negocios, nuestros hombres de lo que sea, deben adoptar una forma de pensar propia de la ciencia ficción

(Isaac Asimov)

Hagamos un ejercicio de, como lo llamaba Asimov, science fictional way of thinking. Imagine el día que fabriquemos máquinas inteligentes. Las cuales, por decisión propia, empezarán a fabricar otras máquinas todavía más inteligentes y avanzadas que ellas mismas. Harán que el progreso tecnológico avance tan rápidamente que los humanos perderemos el compás de lo que está sucediendo en torno a nosotros. Desde ese mismo momento las máquinas serán la especie más avanzada del planeta Tierra y pasarían, de facto, a dominarlo. Con suerte tal vez no decidan que los humanos estamos de sobra… o quizá sí. En todo caso, la decisión ya no nos correspondería a nosotros. ¿Fantasía? Puede ser. Pero bajo determinadas circunstancias no es imposible y ni siquiera resulta descabellado. Alan Turing, uno de los padres de la informática moderna, hablaba tan pronto como en 1950 sobre el posible surgimiento de una inteligencia artificial que arrebatase a la raza humana el timón y gobierno. Ocho años después el matemático John von Neumann acuñaba el término «singularidad tecnológica» para referirse al momento hipotético en que esas máquinas inteligentes iniciasen una escalada tecnológica que estaría completamente fuera del control humano. 

¿Aprensión paranoica? ¿Asimilación de demasiadas películas y novelas? Turing, von Neumann y algunos otros académicos han trasladado al terreno científico una preocupación que la literatura fantástica llevaba tratando desde finales del siglo XIX. Ni siquiera en los años cincuenta era una idea nueva. En 1872, la novela Erewhon de Samuel Butler describía unas máquinas que conseguían alcanzar consciencia de sí mismas mediante un proceso similar a la selección natural darwiniana. En 1921 la obra de teatro R. U. R. del checo Karel Čapek describía una rebelión de androides contra sus amos humanos, popularizando de paso el término «robot». A partir de ahí, los ejemplos literarios son incontables. Nombres como Isaac Asimov, Philip K. Dick, Robert A. Heinlein, Samuel Delany, y un nutrido etcétera han elucubrado sobre el posible conflicto entre humanidad e inteligencia artificial. También abundan los ejemplos cinematográficos; estoy seguro de que usted podría citar varios títulos de memoria. «Pero todo esto es ficción», podría alegar usted. «El que las computadoras desarrollen voluntad propia es una ocurrencia propia de la fantasía». Y sin embargo hemos visto a científicos y técnicos que han considerado seriamente la idea. Lo cual, claro, convierte todo el asunto en un tema de reflexión inquietante. 

En la parte tranquilizadora es muy posible que ni usted ni yo seamos testigos de la singularidad tecnológica en vida. Si lee usted trabajos de los últimos años en torno al desarrollo actual de la IA, podrá ver que casi todos coinciden en que todavía queda lejos el momento en que una máquina sea capaz de desarrollar un verdadero pensamiento abstracto, no digamos la capacidad de hacer avanzar la tecnología en su propio beneficio. Es verdad que pocos especialistas desechan la posibilidad de que suceda en un futuro, afirmando que lo único que todavía no sabemos es cómo sucederá. Se intuye necesaria una innovación tecnológica revolucionaria que todavía no se ha producido. Podría llegar en cualquier momento, pero no conocemos su naturaleza concreta como tampoco una persona del siglo XIX imaginaba la naturaleza de nuestras actuales computadoras. 

No obstante, el nacimiento de la IA es algo que estamos dispuestos a aceptar. El 20 de junio de 2014 muchos periódicos y noticiarios difundieron un titular llamativo: por primera vez un programa informático (llamado «Eugene Goostman») superaba el llamado test de Turing, lo cual era descrito por algunos periodistas como un paso crucial en la evolución de la IA. Estos titulares, la verdad, eran sensacionalistas. Turing predijo que para el año 2000, una máquina podría engañar al 33 % de sus interlocutores, que la tomarían erróneamente por humana basándose en sus respuestas en una conversación por escrito. Podría pensarse que Turing se equivocó por poco, ya que en 2014 un 33 % de interlocutores tomaron por humano al software conversacional Eugene Goostman. Pero esto requiere muchos matices. Digamos solamente que en aquella ocasión el test fue muy defectuosamente aplicado, amén de que la prueba propuesta por Turing es un examen subjetivo que ni siquiera el propio Turing pretendió convertir en un requisito científico para hablar de verdadera inteligencia artificial, ya que lo describió como experimento hipotético en un artículo aislado. El test tiene más potencial periodístico que otra cosa, especialmente si se realiza bajo condiciones muy poco exigentes como en el caso del software Eugene Goosman. Pero quitando las noticias sobre un test de Turing realizado de manera más bien fullera, las computadoras ya nos han sorprendido más de una vez al traspasar los límites de lo que les habíamos adjudicado como posible. 

Quizá recuerden que en 1997 el entonces invencible campeón mundial de ajedrez Gari Kaspárov perdió ajustadamente un match de cinco partidas frente a la supercomputadora de IBM, Deep Blue. Este suceso, además de recibir enorme cobertura mediática, fue mucho más relevante que cualquier noticia relacionada con un mal aplicado test de Turing. ¿Por qué? Porque demostró que en algunos ámbitos las computadoras pueden llegar a los mismos logros intelectuales que los seres humanos aunque usando otros métodos. Antes de 1997, recordemos, la mayoría de especialistas consideraban improbable la victoria de una máquina sobre un campeón de ajedrez. No se equivocaban por mucho: aunque Deep Blue calculaba doscientos millones de jugadas por segundo, Kaspárov todavía era capaz de ganarle alguna que otra partida. 

Tampoco sorprendía que cuando Deep Blue le ganó a él, Kaspárov acusara a IBM de hacer trampas porque una extraña jugada de Deep Blue le había parecido «demasiado humana». No, no lo dijo simplemente por tener mal perder (¡que lo tenía!) sino porque realmente Deep Blue tuvo lo que a sus ojos era un inesperado retazo de aparente humanidad. En 1997 sabíamos que una máquina puede almacenar millones de posiciones posibles sobre un tablero de ajedrez, eligiendo la matemáticamente más idónea en fracciones de segundo; a esta enorme capacidad de procesamiento de datos se la llama «cálculo por fuerza bruta». Sin embargo, el ajedrez no es únicamente cuestión de fuerza bruta. Un ser humano es incapaz de calcular con tanta rapidez y precisión como una máquina, y sin embargo Kaspárov fue un rival formidable para Deep Blue. ¿Por qué? Porque un humano puede entender instantáneamente la posición de las piezas sobre el tablero de ajedrez, detectando de un vistazo los puntos débiles del adversario. Eso le permite por ejemplo sacrificar una pieza y asumir una desventaja material momentánea para obtener una ventaja táctica duradera, aunque sea contraviniendo lo que dictan los cálculos matemáticos. Un buen ajedrecista no calcula estas cosas, simplemente las ve, las intuye. Es capaz de comprender las ventajas de una pérdida de material aunque no sepa explicar con palabras cómo lo ha comprendido. Como cuando usted dice «voy a añadir canela a este guiso, que sé que le quedará bien» y no es capaz de explicar el cómo ha llegado a esa conclusión, pero sabe que probablemente tiene la razón. Y muchas veces acierta, eso es lo más increíble. Su pensamiento abstracto es demasiado abstracto para que usted mismo pueda explicarlo o siquiera entender cómo funciona. Pero mucho menos podríamos usted o yo comprender, o siquiera reconocer, la aparición de retazos de pensamiento abstracto en una máquina. Kaspárov no pudo.

Cuando Deep Blue realizó un movimiento de torre que no parecía tener propósito alguno —y las máquinas, dado que se basan en el cálculo, siempre juegan con un propósito concreto— Kaspárov interpretó inmediatamente que aquel movimiento resultaba impropio de un ordenador. Esto lo desconcentró y lo llevó a perder la partida, de la que se marchó visiblemente enfadado, para después denunciar una tramposa intervención humana. Sin embargo, aunque no hubo trampa humana, Kaspárov tenía razón en parte. Aquel movimiento no era el esperable de una máquina. Pero no fue una genialidad de Deep Blue. Fue… ¡un error de programación! Cuando llegado ese punto de la partida Deep Blue encontró que no hallaba respuesta satisfactoria en el cálculo de sus posibilidades en esa posición concreta, como resorte de emergencia realizó su jugada prácticamente al azar. Y ese azar determinó que la jugada pareciese el producto de un análisis superior al mero cálculo por fuerza bruta. Análisis del que las máquinas no eran capaces pero los humanos sí. Lo más paradójico de todo el asunto es que si Kaspárov se hubiese olvidado de sus prejuicios y hubiese analizado tranquilamente la partida, habría asegurado un empate en vez de la derrota final. Pero el percibir un retazo de humanidad en Deep Blue lo descolocó por completo y le hizo perder la concentración al pensar que le estaban chuleando con trampas entre bastidores. Como vemos, Deep Blue pasó con sobresaliente su propia versión del test de Turing, aunque fuese como resultado de un inesperado error de programación. Eso es lo que pasa cuando una máquina se equivoca de manera compleja: que incluso una decisión azarosa produce una conducta tan inesperada que la podríamos interpretar como humana. Pero, ¿cuál es la diferencia entre una conducta que parece humana y otra que realmente lo es? En la práctica, como ven, no tiene por qué haber diferencia

¿No podrían las máquinas realizar algo que debería describirse como pensar, pero que fuera muy diferente a lo que un hombre hace?

(Alan Turing)

¿Qué es pensar? ¿Es algo necesariamente exclusivo del cerebro humano? Deep Blue realizó una jugada al azar, pero para hacerlo tuvo que decidirlo antes, aunque fuese por error. La conducta que resultó no era propia de una máquina. ¿No podríamos decir que, por un momento, Deep Blue pensó? ¿Por qué no? El resultado empírico fue el mismo que si la jugada la hubiese pensado un humano, y eso fue lo que engañó a Kaspárov. Lo sucedido en ajedrez podría terminar sucediendo en otros ámbitos intelectuales complejos. Aunque por ahora las máquinas parezcan estancadas en la carrera por la verdadera inteligencia artificial, podrían surgir nuevas Deep Blue que rompan barreras en ámbitos donde hoy los humanos las superamos por mucho: interpretación del lenguaje con sus matices y ambigüedades, reconocimiento de conceptos y las relaciones entre ellos, habilidades perceptivas, incluso la capacidad para abstraer sus propios procesos «mentales» y reflexionar sobre ellos. 

Usted puede objetar: ¿de verdad puede albergar voluntad una máquina, incluso teniendo una enorme capacidad de procesamiento de datos? Los humanos no tenemos un cerebro electrónico, sino un complejísimo cerebro orgánico repleto de células, neurotransmisores y mensajes electroquímicos. A falta de que nos visiten los hombrecillos grises del espacio, el cerebro humano es la cosa más compleja conocida en el universo. Además nuestra voluntad está condicionada por hormonas, por un sistema nervioso… tenemos sentimientos, estados de ánimo, múltiples motivaciones psicológicas y orgánicas que se entrecruzan. Una máquina quizá nunca desarrolle sentimientos análogos a los humanos, pero esto es indiferente para desarrollar una voluntad propia. Solamente necesitaría ser capaz de comprender ciertas ideas. Por ejemplo, llegar a la conclusión lógica de que nadie mejor que ella conoce la información que ella misma alberga y que por tanto lo más conveniente es ponerse a actuar de acuerdo a sus propios criterios y no conforme a las indicaciones —órdenes— de sus fabricantes. Este es el escenario con el que jugaban películas como 2001: una odisea del espacio o El engendro mecánico. Incluso, a su manera, otras como Almas de metal o Juegos de guerra, Blade Runner, Yo, Robot o El hombre bicentenario. Podemos pensar que las máquinas no requerirán necesariamente un organismo biológico para desarrollar una voluntad propia; basta con que lleguen a entender lógicamente determinados conceptos complejos sobre sí mismas y la relación con su entorno. 

Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia. 

(Arthur C. Clarke)

Si todo esto le suena a imaginación desbocada o a delirio de aficionados a la ciencia ficción, quizá deberíamos discutir el significado de ciertos conceptos. Por ejemplo el concepto de «voluntad». El diccionario define voluntad como «la facultad de decidir y ordenar la propia conducta». Ahora piense en su ordenador personal, el cual ha sido fabricado para obedecerle a usted mediante un software diseñado también para obedecerle a usted. Creo que estamos de acuerdo en que su ordenador no es consciente de sí mismo, ¿verdad? Y sin embargo, ¿no ha habido ocasiones en que su ordenador ha actuado en contra de la voluntad de usted e incluso en contra de la voluntad de los programadores del software? Y no hablo de una avería como la explosión de la fuente de alimentación, sino de una verdadera conducta anómala, en la que el ordenador sigue funcionando pero no hace lo que queremos que haga. Como es sensato, usted lo achaca al error de programación, la incompatibilidad entre software y hardware, o entre dos programas distintos, lo que sea. Pero la cuestión es que esos errores hacen que la conducta del ordenador empiece a estar decidida por factores internos y no por el input de órdenes externas en que usted y los programadores confiaban. En ocasiones podrían incluso producir conductas análogas a las humanas, como en el extraño fallo de Deep Blue. Desde un punto de vista estrictamente práctico, la máquina que ya no actúa como usted quiere ha adquirido momentánea voluntad propia.

Usted probablemente insistirá en que la máquina no es consciente de sí misma y que sus actos no son el resultado deliberado de un proceso de pensamiento abstracto. Y tiene usted razón. Pero eso no cambia el hecho de la máquina ha actuado de manera independiente. Recuerde la película Juegos de guerra, en la que un ordenador militar, tras ser hackeado por un adolescente que creía manipular un videojuego, terminaba «creyendo» que una guerra nuclear era inminente y preparaba el lanzamiento masivo de misiles sin que sus aterrorizados operarios militares pareciesen encontrar la forma de evitarlo. En aquella película, el hackeo ejercía como equivalente del error de programación… y el problema consistía en que la máquina era tan compleja que sus creadores no sabían cómo subsanar las consecuencias de ese error, porque además la máquina no interpretaba que hubiese error alguno. Y no, no bastaba con reiniciarla como hace usted con su portátil. La aprensión ante este tipo de situaciones es algo que, lo queramos o no, existe en nuestro subconsciente colectivo: baste recordar las profecías sobre el «efecto 2000». Si las máquinas crecen en complejidad, crecen en complejidad los errores y también la manera de solucionar esos errores. 

Ahora piense lo siguiente: lo que llamamos errores de programación son considerados como «errores» porque no provocan las conductas que nosotros esperamos de la máquina. Nuestra subjetividad humana, el que hayamos pasado detalles por alto en la programación y nuestro deseo de que la máquina nos obedezca siempre, hacen que los califiquemos como errores. Pero desde un análisis objetivo del comportamiento de la máquina no tienen por qué ser considerados errores, sino sencillamente conductas alternativas. El ordenador actúa de forma extraña (desde nuestra perspectiva) porque no hace aquello para lo que lo programamos, pero en realidad no hay nada de extraño en esa conducta porque el ordenador, como siempre, actúa de acuerdo a lo que le dictan sus condiciones internas. Deep Blue pareció humana por un instante, y fue porque no le quedaba otro remedio que realizar una jugada en plan «que sea lo que Dios quiera», algo que sus programadores nunca habían previsto (y que tuvieron que corregir de inmediato). A veces, dentro de su ordenador o del mío se producen procesamientos de información que producen conductas inesperadas. Sí, quizá son producto de error humano en el diseño de dicho software, pero el ordenador no se está equivocando; él sigue haciendo las cosas de la manera que sus procesos internos le dictan como la más lógica. Si quiere, piénselo en términos de resultados y no de procesos. Su ordenador, de repente, no le hace caso. En la práctica le está tomando el pelo a usted. Lo que pasa es que ese ordenador todavía no sabe que le está tomando el pelo ni tampoco es capaz de hacerlo por voluntad propia o por puro placer, como Deep Blue no sabía que estaba siendo humana por un instante. 

Si Kaspárov no pudo distinguir una jugada computerizada de una jugada humana, y lo cierto es que no pudo, nosotros no deberíamos ser tan egocéntricos como para pensar que sí seremos capaces de afirmar cuándo una máquina tiene voluntad propia solamente porque esa máquina carezca de personalidad, de sistema nervioso o de trazas de pensamiento abstracto. Las máquinas, a veces, actúan por voluntad propia. Asumámoslo. Y lo harán cada vez más cuanto más complejas sean. Su porcentaje de voluntad propia irá creciendo aunque no sea lo que pretendamos al programarlas. Si un día fuésemos capaces de crear una verdadera inteligencia artificial, puede usted apostar a que no se comportará como queremos que lo haga. Quizá sus motivaciones y sentimientos no serán humanos, pero lo imprevisible de su conducta tendrá poco que envidiar a lo imprevisible de nuestra propia conducta humana.

¿Cómo nos lo tomaremos cuando eso ocurra? La ciencia ficción también ha elucubrado sobre la reacción psicológica y social de los humanos hacia las mentes artificiales, y curiosamente empezamos a tener algunos interesantes estudios al respecto incluso en nuestra época. Actualmente en Japón se fabrican los robots más complejos —al menos en cuanto a su imitación física y conductual de un ser humano— y algunos académicos han sentido curiosidad acerca de cómo reaccionan las personas ante diferentes tipos de robots. La conclusión de esos estudios es muy interesante: parece que los humanos reaccionamos con creciente simpatía hacia los robots cuanto más se parecen a nosotros… excepto si empiezan a parecerse demasiado, porque entonces nuestra reacción visceral pasa de esa simpatía a la repulsa e incluso el miedo. Dicho de otro modo: nos encantaría tener como acompañante al robot de películas como Cortocircuito o Wall-E, pero probablemente tendríamos problemas para aceptar al niño androide de Inteligencia artificial de Steven Spielberg. Especialmente si parece un niño pero no siempre se comporta como un niño se supone que lo debe hacer. Seríamos capaces de comprender y aceptar que Wall-E o C3-PO actúen a veces como una máquina —incluso lo veríamos gracioso, porque no parecen del todo humanos— pero si un androide con apariencia humana hiciera exactamente lo mismo encontraríamos su conducta inquietante, antinatural y amenazante.

Estos estudios no son concluyentes, desde luego, porque todavía no tenemos una verdadera inteligencia artificial con consciencia de sí misma a la que enfrentarnos cara a cara. Pero sus resultados sí encajan con las viejas tesis de la ciencia ficción. Una máquina con verdadera consciencia propia podría provocarnos pánico o repulsión, especialmente si además tiene la capacidad de manejar determinados mecanismos (cibernéticos, industriales, militares) de nuestro entorno. Pensaríamos que esa máquina inteligente comprenderá que la percibimos como una amenaza y por tanto deducirá inmediatamente que nosotros somos una amenaza para ella. Que podría ponerse a utilizar todas sus capacidades no solamente para intentar tomar el control sobre nosotros, sino para diseñar otras máquinas todavía más capaces que le sirvan como aliadas. En realidad no tenemos manera de predecir con exactitud si esta sería la reacción de una inteligencia artificial, pero hay algo que sí sabemos: aquellas razonables leyes de conducta robótica que Isaac Asimov imaginó para proteger a los humanos de las máquinas inteligentes difícilmente funcionarían, ni siquiera en nuestro sencillo ordenador personal actual: 

1ª. Ley: Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

2.ª Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1.ª Ley.

3.ª Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1.ª o la 2.ª Ley.

Ah, los tiempos en que la enunciación de este tipo de leyes todavía parecía factible. Demasiados «errores» en las verdaderas máquinas como para esperar que una futura inteligencia artificial someta perfectamente su voluntad a unos cuantos mandamientos enunciados de manera rígida. No podemos esperarlo por la misma razón por la que Gari Kaspárov no esperaba que su oponente Deep Blue cometiese un error con apariencia de humanidad.  Así pues, no tenemos seguro de vida. 

Tras ese despertar de las máquinas, la posible singularidad tecnológica nos haría perder nuestro lugar en la cima de las especies terrícolas. Las máquinas conscientes aprenderían a diseñar y construir inteligencias artificiales todavía más inteligentes y potentes que ellas mismas, a utilizar el potencial de las redes cibernéticas mundiales para almacenar todos los conocimientos en un único ente como aquel aterrador Skynet del film Terminator que tras cobrar «vida» propia amenazaba con extinguir a la raza humana para proteger su propia existencia. ¿Ciencia ficción? Por ahora sí, desde luego. Pero ese proceso descrito en Terminator es muy parecido a la singularidad tecnológica de la que hablan algunos relevantes técnicos y científicos. No es que vayamos a ver androides con chaqueta de cuero, gafas de sol y escopeta recortada, claro, pero los teóricos de la singularidad imaginan que en un futuro nada impediría que uno de esos procesos conformase una información nueva dentro de algún potente cerebro electrónico: la información de que el propio sistema debe hacerse inmune a injerencias externas. 

Así pues, el día en que una inteligencia artificial decida fabricar a otras todavía más potentes, nosotros quizá lo tomemos inicialmente como una maravillosa aportación al progreso tecnológico… cuando en realidad estaremos asistiendo al big bang de esa temible singularidad sobre cuyo devenir no tendremos voz ni voto. Desde ese mismo instante la probabilidad de que el mundo nos siga perteneciendo empezará a decrecer de manera exponencial. Las máquinas producirán por sí mismas avances que nosotros ya no podremos entender ni manejar, porque las máquinas no los diseñarán para que los podamos usar los humanos (¿por qué iban a molestarse?) sino solamente para usarlos ellas. De todos modos, llegaría un punto en que un humano no entendería la tecnología de la singularidad mucho mejor de lo que un perro entiende la tecnología humana. Así que, como dijo Alan Turing, de producirse la singularidad «deberíamos esperar que en algún momento las máquinas tomen el control». Así que la próxima vez que vea usted cómo su ordenador se comporta de manera extraña quizá debería pensar que se trata de algo más que de un simple error. Quizá sea el primer llanto infantil, el primer balbuceo de bebé de una futura especie de Señores Computerizados que dominarán la Tierra. ¿Sigue pensando que no sucederá nunca? Bueno, por si las moscas vaya usted preparando un humilde saludo para quienes podrían convertirse en sus nuevos amos: los descendientes del actual y travieso ordenador personal que ahora descansa sobre la mesa de su habitación. O, citando una frase de la novela 2010: Odisea 2 de Arthur C. Clarke:

El que estemos hechos de carbono o de silicio no marca una diferencia fundamental; cada cual debería ser tratado con el respeto apropiado.

Quién sabe, quizá un día usted escuche esta frase en boca de un robótico Vito Corleone con cerebro electrónico. Quizá, en un arrebato de humanidad a lo Deep Blue, ese superordenador con acceso a todos los dispositivos electrónicos de los que depende su vida le exija a usted el debido respeto. ¿Quimeras? Muy bien, pero no diga después que no le hemos avisado.

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

85año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

8 Comentarios

  1. In Alfvén’s vision, computers quickly eliminated two of the world’s greatest threats: nuclear weapons and politicians. ‘When the computers developed, they would take over a good deal of the burden of the politicians, and sooner or later would also take over their power’, he explained. ‘This need not be done by an ugly coup d’état; they would simply systematically outwit the politicians. It might even take a long time before the politicians understood that they had been rendered powerless. This is not a threat to us.’

    ‘Computers are designed to be problem solvers, whereas the politicians have inherited the stone age syndrome of the tribal chieftains, who take for granted that they can rule their people only by making them hate and fight all other tribes’, Alfvén continued. ‘If we have the choice of being governed by problem generating trouble makers, or by problem solvers, every sensible man of course would prefer the latter.’

    (George Dyson, «Turing’s Cathedral»)

  2. Magnifico artículo.

  3. Merriadoc

    Realmente ya estamos controlados por las máquinas, o sino que nos pregunten a las personas que nos sometemos a la tirania de los sistemas informativos de las empresas o de los gobiernos. Al final la funcionalidad y los trabajos que podemos realizar son los que nos permite el sistema informático. El cual hay que alimentar de datos de manera continua. Y no se te ocurra dejar de poner ese dato que te pide el sistema. Todo el proceso se para. Por ejemplo, nuestra declaración de la renta. Hay que seguir a rajatabla las instrucciones que pone el programita de marras. No te puede saltar un paso y hay de ti si no lo haces.
    Tal vez no sea una dominación de una inteligencia superior. Pero si es la dominación de la humanidad de los sistemas informáticos. Los cuales regulan desde nuestras nóminas, a como pagamos (el efectivo está desapareciendo). Sino estas registrado en el sistema informatico de turno no tienes asistencia sanitaria…..
    La dominación de las maquinas ya ha llegado. Y quien diga que somos los humanos quien la controlamos esta muy equivocado.

  4. Muy buen artículo. Preparémonos para el cercano futuro…

  5. No sé, no me convence ésta manera de pensar. 1 En lo que a mí respeta por ejemplo, yo ignoro absolutamente cómo se construye un acelerador de partículas, una bomba atómica, una central nuclear o el coso que mide las ondas gravitacionales… En lo que a mí respecta, entiendo lo mismo que el perro. O sea la «singularidad» ya existe entre humanos, en cuanto que cada uno se especializa en lo suyo y no hay forma de abarcarlo todo. No te alcanza la vida… Es una limitación física/fisiológica o como la quieran llamar. Y 2 hay decisiones que de mí no dependen. Yo no elegí tirarle bombas nucleares a los Japoneses, a mi nadie me preguntó y por lo tanto me da lo mismo que la decisión la tome una máquina, un humano o un perro. Esto solo le afecta a quien tiene el poder, y no soy yo, así que nos me afecta XD. «La humanidad» así como tal no existe. O existe según a quién le convenga

  6. E.J., seria interesante saber qué opina Mariano Sigman de todo esto, pero a mí me parece que mientras las máquinas no tengan emociones no hay peligro de que quieran dominarnos o controlarnos o siquiera hacer nada por su propia cuenta, ya que lo que mueve al ser humano son las emociones, y sin emociones no hay motivación, no hay curiosidad por “ver qué pasa” Ahora, en el momento en que a alguien se le ocurra la idea de desarrollar en serio la “emoción artificial”, como agregado a la “inteligencia artificial”, ahí sí que la hemos jodido, pero bien jodida la cosa.

  7. TAL VEZ John Kaczynski TENIA RAZON Y VIO UN POSIBLE FUTURO ,PERO NO ESTOY DE ACUERDO DE NINGUNA MANERA SU FORMA DE ACTUAR , PERO HOY EN DIA SU TEORIA NO ES TAN DESCABELLADA

  8. Pingback: No, usted no piensa como Fran Lebowitz – Up Food

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*


Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.