Todos los que más o menos estamos al tanto de los avances de la ciencia en general y de las matemáticas en particular, coincidimos en que vivimos (o puede que tengamos que decir vivíamos en el caso de España: las crisis, los recortes… ya se sabe) una época dorada: cada día se investiga más, se refinan los métodos utilizados, la información nos llega a todos de forma casi instantánea y con eso se ha democratizado el acceso a la investigación ya que, no hace tanto tiempo atrás, la verdadera investigación de calidad estaba vedada a aquellos que se encontraban fuera de los círculos oficiales, que eran los únicos que disfrutaban de la información actualizada mucho antes que los excluidos de dichos círculos.
Naturalmente, en ciencias experimentales el avance puede estar limitado por las cantidades enormes de dinero que se requieren para disponer de ciertos equipos, pero los equipos más caros han sido construidos entre varias naciones y organismos y el acceso a ellos suele venir determinado por la calidad de la investigación propuesta más que por otros factores (naturalmente, habría mucho que matizar en todo lo dicho anteriormente, pero digamos que, en términos generales, se avanza en esa dirección). Pero las matemáticas son una ciencia muy, muy barata, así que lo único que se necesita es estar informado de qué ocurre en el resto del mundo y que alguien que conozca las herramientas adecuadas tenga una buena idea. En conclusión, digamos que las posibilidades de que alguien en una universidad «de provincias», de un país en crisis produzca algo de calidad, con repercusión global en matemáticas, hoy en día son infinitamente más altas que hace un siglo (o medio siglo). De hecho, algunos matemáticos «de provincias» de un país en crisis, tuvieron cierta repercusión internacional hace unos años: me refiero a Paco Santos de Cantabria y a Isabel Fernández (Sevilla) y Pablo Mira (Murcia). Los dos últimos fueron invitados a dar una conferencia en el congreso mundial de matemáticas de 2012 celebrado en la India, y Paco demostró la falsedad de la conjetura de Hirsch, una cuestión sobre la que se habían devanado los sesos matemáticos de todo el mundo en los últimos cincuenta años. Uno se puede preguntar por qué es importante dicha conjetura. En realidad, hubiera sido más importante que la conjetura fuese cierta, pero las cosas son como son y Paco no hizo otra cosa que mostrar la realidad.
Dantzig y la irrazonable efectividad del método del simplex
La conjetura de Hirsch está relacionada con lo que es conocido como el método del simplex (o simplejo): en el año 2000, una prestigiosa revista de computación e ingeniería pidió a dos reconocidos investigadores que eligieran los «diez algoritmos del siglo XX», es decir, los algoritmos más influyentes en el desarrollo de la ciencia y la ingeniería del pasado siglo. Uno de los diez elegidos fue dicho método del simplex en programación lineal.
La programación lineal (técnicamente: encontrar el óptimo de una función en una región definida por un sistema no de ecuaciones lineales sino de inecuaciones —donde aparecen desigualdades—) trata de minimizar los recursos necesarios para conseguir ciertos objetivos y surgió de forma secreta durante la Segunda Guerra Mundial. En una guerra, ya se sabe, cada ejercito trata de conseguir el máximo de perdidas enemigas con el mínimo coste por su parte. Nada más acabar la guerra, se comprobó que esas ideas que fueron más o menos utilizadas por todos los ejércitos con el fin de optimizar sus recursos podían reciclarse para mejorar la producción industrial y la economía de las empresas. Normalmente se considera que el «padre» de la programación lineal es el estadounidense George B. Dantzig (1914-2005), quien, en 1947, publicó un artículo donde se presentaba uno de los protagonistas de nuestra historia: el método del simplex para resolver computacionalmente los problemas de programación lineal.
No voy a entrar en detalles de cómo funciona dicho algoritmo, pero tal y como se ha dicho, muchos expertos consideran a dicho método como uno de los fundamentales del siglo XX. Lo que no me puedo resistir a contar es una anécdota que involucra al propio Dantzig: en 1939, siendo estudiante de doctorado en la prestigiosa universidad de California en Berkeley (también hay una anécdota «curiosa» más reciente que involucra a esta y a otras muchas universidades californianas y al ex ministro de Educación José Ignacio Wert, pero mejor no entrar en esos temas), como decía: Dantzig llegó tarde a una de las clases del profesor Neyman (un reputado especialista en estadística) y se encontró con dos problemas enunciados en la pizarra. Por la noche se puso a resolverlos y tardó unos cuantos días porque los encontró bastante difíciles, así que se los entregó al profesor Neyman y se olvidó de ellos, al cabo de algunas semanas, este se presentó en la puerta de su apartamento para comentarle, muy excitado, que los dos problemas que acababa de resolver eran dos de los problemas abiertos (de los cuales no se conoce solución hasta ese momento) más famosos de estadística. Cuando, poco después Dantzig se dirigió a Neyman para que le asignara un tema de tesis, este se limitó a encogerse de hombros y a decirle que a él le bastaba que metiera en una carpeta los dos problemas que había resuelto.
La anécdota que acabo de relatar me parece, además, significativa para mi tesis: en la primera mitad del siglo XX era imposible que eso ocurriera en España: puede que hubieran algunos Dantzigs ocultos, Dantzigs en potencia, pero lo que no existían eran profesores Neymans, que conocían cuáles eran los problemas importantes que convenía atacar, que estaban al tanto de lo que ocurría a nivel mundial (que entonces era un mundo muy restringido). Sin embargo, en este siglo tenemos a Paco Santos, a Isabel Fernández, a Pablo Mira que saben qué problemas son importantes y cómo intentar resolverlos; pero me estoy adelantando en mi historia: volvamos a Dantzig.
Como decía, Dantzig publicó en 1947 su algoritmo para resolver los problemas de programación lineal y desde el primer momento se comprobó que dicho método resolvía de forma muy eficiente dichos problemas. Pero una cosa es comprobar que un método funciona para resolver los problemas que se le proponen y otra muy distinta es garantizar que ello siempre va a ocurrir, estar seguro al cien por cien de que cualquier problema de programación lineal podrá ser resuelto en un tiempo corto por el método del simplex (naturalmente, cuanto más inecuaciones tratemos, más tardará el método en encontrar la solución, pero eso está asumido). Esto, garantizar que un método es eficiente, se ha conseguido para muchos algoritmos conocidos, pero no para el del simplex. Así podemos decir, parafraseando al nobel de física Eugene Wigner que el del simplex es un algoritmo que es irrazonablemente eficiente: nadie ha sido capaz de demostrar que efectivamente es eficiente en todos los casos. Es más, existen muchas variantes del método del simplex y nadie ha sido capaz de demostrar que alguna de dichas variantes sea eficiente. Más bien todo lo contrario, como veremos en el siguiente artículo.
(Continúa aquí)