John von Neumann (registrado al nacer como Neumann János Lajos; Budapest, Imperio austrohúngaro, 28 de diciembre de 1903-Washington, D. C., Estados Unidos, 8 de febrero de 1957) fue un matemático húngaro-estadounidense que realizó contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos. Se le considera uno de los matemáticos más importantes del siglo XX.
Neumann János Lajos nació en Budapest en 1903, cuando esta ciudad pertenecía al Imperio austrohúngaro. Su padre, Max Neumann, era un banquero judío que se había casado con Margaret Kann, hija de una familia adinerada de Pest. El padre de John, Max Neumann, recibió el 20 de febrero de 1913 la nobleza húngara donada por el emperador Francisco José de Austria-Hungría. De esta manera, John, que en Hungría ya utilizaba la forma germanizada de su nombre, solía presentarse como Johann von Neumann. Él fue el mayor de tres hermanos y a los diez años comenzó a estudiar en el Colegio Luterano de Budapest. Sus profesores pronto se dieron cuenta de su talento y recomendaron que recibiera clases particulares de matemáticas impartidas por profesores universitarios.
John era un superdotado y ganó el premio Eötvös al mejor alumno del país en matemáticas y ciencia. Su enorme inteligencia se haría luego legendaria. Compañero de colegio una clase por encima de él era el futuro Premio Nobel de Física Eugene Wigner, que sería su amigo toda la vida y al que las conversaciones que mantuvo con von Neumann en aquella época disuadieron de dedicarse a las matemáticas: «Habiendo conocido a János von Neumann me di cuenta de la diferencia entre un matemático de primera fila y yo».
En 1919, al término de la Primera Guerra Mundial, su familia abandonó Hungría durante la época revolucionaria que culminó con el gobierno comunista de Béla Kun. A su vuelta, en 1921, John fue admitido en la Universidad de Budapest donde acabaría doctorándose en matemáticas en 1926. Estudiaba al mismo tiempo en Berlín, y recibió algunas clases de Albert Einstein, en compañía de otros compañeros húngaros como el mismo Wigner, Leó Szilárd y Dennis Gabor. Además se matriculó en la Escuela Politécnica Federal de Zúrich, donde en 1925 obtuvo la licenciatura en ingeniería química y conoció a figuras como Hermann Weyl y George Pólya. Finalmente también asistía a los seminarios de David Hilbert en Gotinga, donde coincidió con Robert Oppenheimer, con quien volvería a encontrarse posteriormente en Princeton. A los 24 años se convirtió en Privatdozent de matemáticas en la universidad de Berlín.
Es sumamente probable que ya en Gotinga, la meca de los matemáticos por aquel entonces, conociese a Norbert Wiener entre 1924 y 1926.
En 1929 la Universidad de Princeton les ofreció a von Neumann y a Wigner una invitación para un semestre y allí acudió acompañado de su novia Mariette Koevesi, con la que se casaría ese mismo año y tendría en 1935 una hija, Marina, que llegaría a ser una distinguida economista. Durante los años siguientes alternaba sus estancias entre Alemania y Estados Unidos, pero en 1933 la llegada de los nazis al poder hizo que los profesores judíos fuesen progresivamente expulsados de sus puestos. Von Neumann se encontró con la facilidad de estar ya establecido en los Estados Unidos y de que el Instituto de Estudios Avanzados de Princeton comenzó a funcionar ese mismo año, y fue elegido como uno de los primeros profesores junto con Albert Einstein, Oswald Veblen, Hermann Weyl y James W. Alexander.
Aunque llevaban una intensa vida social y su casa de Princeton era lugar de encuentro habitual para fiestas sociales, su relación matrimonial se fue deteriorando y, finalmente, acabó divorciándose de Mariette en 1937. Al año siguiente viajó a Europa y daba conferencias e intercambiaba ideas con científicos como Niels Bohr, con quien coincidió en Copenhague. Visitó también a su familia en Hungría y, antes de regresar a Estados Unidos, se casó con su amiga húngara Klara Dan.
Al año siguiente estalló la Segunda Guerra Mundial y el gobierno norteamericano puso en marcha el famoso Proyecto Manhattan, al que von Neumann se unió en 1943, junto con Eugene Wigner y Leó Szilárd, también húngaros exiliados. Su aportación más importante radicó en el diseño del método de implosión, que fue utilizado en Alamogordo, la primera detonación de una bomba atómica de la historia, y que luego volvería a usarse en la de Nagasaki.
Su aporte al programa atómico norteamericano terminó yendo mucho más allá de las contribuciones científicas. Fue elegido por el general Leslie Groves, la máxima autoridad militar a cargo del Proyecto Manhattan, como uno de los miembros del comité encargado de tomar decisiones estratégicas. Se mostró a favor de la construcción de la bomba de hidrógeno y de los misiles balísticos intercontinentales capaces de lanzarlas sobre la Unión Soviética, y participó activamente en su diseño. La primera explosión de una bomba H se produjo en un atolón del océano Pacífico en 1952.
Von Neumann también se vio afectado en la posguerra por el surgimiento de la persecución macartista, a pesar de que él era un decidido partidario de la disuasión nuclear. Otros científicos, como Robert Oppenheimer, mostraron posturas políticas opuestas, y en el ambiente que daba inicio a la Guerra Fría fueron llevados ante el Comité de Actividades Antiamericanas. Von Neumann, adoptando una actitud radicalmente diferente a la de otros científicos como Edward Teller, se atrevió a defender en público la inocencia y lealtad de Oppenheimer.
En enero de 1955 von Neumann fue ratificado por el Senado de los Estados Unidos como uno de los cinco comisarios de la Comisión de Energía Atómica, el puesto más alto al que un científico podía aspirar en el gobierno, lo que hizo que en la primavera se mudara a Washington con su familia. Al año siguiente, en 1956, recibió de manos del presidente Dwight D. Eisenhower la primera medalla Fermi a la vez que se le manifestaban los primeros síntomas de la enfermedad que rápidamente terminaría con su vida.
Era común en la época subestimar los peligros de la radiación, y von Neumann compartía la misma confianza: permanecía en Los Álamos varios meses al año y acudía personalmente a los ensayos nucleares. Finalmente contrajo un cáncer de huesos que le fue diagnosticado en 1955 y que ya al año siguiente lo incapacitó gravemente. Algunas reuniones de alto secreto de la Comisión de la Energía Atómica tuvieron que celebrarse en la habitación del Hospital militar Walter Reed en el que había sido internado. Aunque de origen judío, von Neumann nunca había sido creyente y sorprendió a sus allegados pidiendo el consuelo de un sacerdote católico, el padre Strittmater. John von Neumann murió el 8 de febrero de 1957.
La axiomatización de las matemáticas, de acuerdo con el modelo de Los elementos de Euclides, había alcanzado nuevos niveles de rigor y envergadura a finales del siglo XIX; particularmente en aritmética (gracias a Richard Dedekind y Giuseppe Peano) y geometría (gracias a David Hilbert). A comienzos del siglo XX, de cualquier manera, la teoría de conjuntos no había sido formalizada. Esta nueva rama de las matemáticas había sido creada por Georg Cantor y puesta en crisis por Bertrand Russell con el descubrimiento de su famosa paradoja sobre el conjunto de todos los conjuntos que no pertenecen a sí mismos. La paradoja de Russell consistía en la observación de que si el conjunto x (de todos los conjuntos que no son miembros de sí mismos) es un miembro de sí mismo, entonces debe pertenecer al conjunto de los conjuntos que no pertenecen a sí mismos y, por otra parte, si el conjunto x no pertenece a sí mismo, entonces debe pertenecer al conjunto de los conjuntos que no pertenecen a sí mismos y, por lo tanto, debe pertenecer a sí mismo.
Una de sus famosas aportaciones a la Teoría de Números fue la definición de Número ordinal (teoría de conjuntos).
El problema de una axiomatización adecuada de la teoría de conjuntos fue resuelto, implícitamente, cerca de 20 años después, gracias a Ernst Zermelo y Abraham Fraenkel, por medio de una serie de principios que permitieron la construcción de todos los conjuntos utilizados en la práctica actual de las matemáticas, pero que no excluía, explícitamente, la posibilidad de la existencia de conjuntos que pertenecieran a sí mismos. En su tesis doctoral de 1925, von Neumann demostró cómo era posible excluir esta posibilidad en dos formas complementarias: el axioma de la fundación y la noción de clase.
El axioma de la fundación establecía que cada conjunto puede ser construido de abajo hacia arriba en una sucesión de pasos ordenada por medio de los principios de Zermelo y Fraenkel, de tal manera que, si un conjunto pertenece a otro, entonces, necesariamente, el primero debe ir antes del segundo en la sucesión (con esto se excluye la posibilidad de que un conjunto pertenezca a sí mismo). Con el objetivo de demostrar que la adición de este nuevo axioma a los otros no implicaba contradicciones, von Neumann introdujo un método de demostración (llamado método de los modelos internos) que más tarde se convertiría en un instrumento esencial de la teoría de conjuntos.
La segunda aproximación al problema toma como base la noción de clase y define un conjunto como una clase que pertenece a otras clases, mientras una clase de propiedad se define como una clase que no pertenece a otras clases. Mientras en la aproximación Zermelo/Fraenkel los axiomas impiden la construcción de un conjunto de todos los conjuntos que no pertenecen a sí mismos, en la aproximación de von Neumann la clase de todos los conjuntos que no pertenecen a sí mismos puede ser construida pero es una clase de propiedad y no un conjunto.
Con esta contribución de von Neumann, el sistema axiomático de la teoría de conjuntos se hizo completamente satisfactorio y la siguiente cuestión era si aquel era o no definitivo y si no estaba sujeto a mejoras. La contundente respuesta negativa la dio Kurt Gödel, cuando anunció, en el histórico Congreso de Königsberg de septiembre de 1930, su famoso primer teorema de la incompletitud: los sistemas axiomáticos usuales son incompletos, en el sentido de que no pueden probar cada verdad que puede expresarse en su lenguaje. Este resultado fue lo suficientemente innovador como para desconcertar a la mayoría de los matemáticos de aquella época. Pero von Neumann, que había participado en el congreso, confirmó su fama de pensador instantáneo y, en menos de un mes, estuvo en disposición de comunicarle a Gödel una interesante consecuencia de su teorema: los sistemas axiomáticos usuales son incapaces de demostrar su propia consistencia. Esta es, precisamente, la consecuencia que ha atraído la mayor atención, incluso si Gödel, originalmente, la consideraba como una simple curiosidad, la habría derivado independientemente; por esta razón el resultado es llamado el segundo teorema de Gödel, sin mención alguna a von Neumann.
En el Congreso Internacional de Matemáticos de 1900, David Hilbert presentó su famosa lista de 23 problemas considerada central para el desarrollo de las matemáticas del nuevo siglo: el sexto problema era la axiomatización de las teorías físicas. Entre las nuevas teorías físicas del siglo la única que tenía todavía que recibir tal tratamiento para finales de la década de 1930 era la mecánica cuántica. De hecho, la mecánica cuántica se encontraba, en ese momento, en una condición de crisis de fundamentos, similar a aquella que pasó la teoría de conjuntos a comienzos de siglo, enfrentando problemas tanto de naturaleza filosófica como técnica; por otra parte, su aparente indeterminismo no había sido reducido, como Albert Einstein creía que debía ser a fin de que la teoría se hiciera satisfactoria y completa, a una explicación de forma determinista; además, todavía existían dos formulaciones heurísticas distintas, pero equivalentes: la supuesta mecánica matricial de Werner Heisenberg y la mecánica ondulatoria de Erwin Schrödinger, pero no había todavía una formulación teórica unificada satisfactoria.
Después de haber completado la axiomatización de la teoría de conjuntos, von Neumann empezó a enfrentarse a la axiomatización de la mecánica cuántica. Inmediatamente, en 1926, comprendió que un sistema cuántico podría ser considerado como un punto en un llamado espacio de Hilbert, análogo al espacio de fase 6N dimensional (N es el número de partículas, 3 coordenadas generales y 3 momentos canónicos para cada una) de la mecánica clásica, pero con infinidad de dimensiones (correspondiente a la infinidad de estados posibles del sistema) en su lugar: las cantidades de la física tradicional (es decir, posición y momento) podrían estar, entonces, representadas como operadores lineales particulares operando en esos espacios. Por consiguiente, la física de la mecánica cuántica era reducida a las matemáticas de los operadores lineales hermitianos en los espacios de Hilbert. Por ejemplo, el famoso principio de incertidumbre de Heisenberg, según el cual la determinación de la posición de una partícula impide la determinación de su momento y viceversa, es trasladado a la no conmutatividad de los dos operadores correspondientes. Esta nueva formulación matemática incluía, como clases especiales, las formulaciones tanto de Heisenberg como de Schrödinger y culminó en el clásico de 1932 Las fundamentaciones matemáticas de la mecánica cuántica. De cualquier manera, los físicos, en general, terminaron prefiriendo otra aproximación diferente a la de von Neumann (la cual era considerada extremadamente elegante y satisfactoria por los matemáticos). Esta aproximación, formulada en 1930 por Paul Dirac y que estaba basada en un extraño tipo de función (la llamada delta de Dirac), fue severamente criticada por von Neumann.
De cualquier forma, el tratamiento abstracto de von Neumann le permitió también confrontar el problema extremadamente profundo y fundamental del determinismo contra el no determinismo y en el libro demostró un teorema de acuerdo con el cual es imposible que la mecánica cuántica sea derivada por aproximación estadística de una teoría determinista del mismo tipo de la utilizada en mecánica clásica. Esta demostración contenía un error conceptual, pero ayudó a inaugurar una línea de investigaciones que, gracias al trabajo de John Stuart Bell en 1964 sobre el teorema de Bell y los experimentos de Alain Aspect en 1982, finalmente demostraron que la física cuántica, en definitiva, requiere una noción de la realidad sustancialmente diferente de la manejada en la física clásica.
En un trabajo complementario de 1936, von Neumann demostró, junto con Garret Birkhoff, que la mecánica cuántica también requiere una lógica sustancialmente diferente de la lógica clásica. Por ejemplo, la luz (los fotones) no puede pasar a través de dos filtros sucesivos que estén polarizados perpendicularmente (por ejemplo, uno horizontal y el otro vertical) y por eso, a fortiori, la luz no puede pasar si un tercer filtro, polarizado diagonalmente, se agrega a los otros dos ya sea antes o después de ellos en la sucesión. Pero si el tercer filtro se coloca entre los otros dos, los fotones sí pasarán. Esta observación experimental se traduce, en términos lógicos, como la no conmutatividad de la conjunción, es decir:
También se demostró que las leyes de distribución de la lógica clásica,
y
no son válidas para la teoría cuántica. Esto se debe a que una disyunción cuántica, diferente al caso de la disyunción clásica, puede ser verdadera incluso cuando ambos disyuntos son falsos y esto puede atribuirse, a su vez, al hecho de que es frecuente que ocurra, en mecánica cuántica, que un par de alternativas sean semánticamente determinadas, mientras cada uno de sus miembros son necesariamente indeterminados. Esta última propiedad puede ilustrarse con un simple ejemplo. Supóngase que se está tratando con partículas (como electrones) de espín (momento angular) semientero, por lo que sólo hay dos posibles valores: positivo o negativo. Entonces, el principio de indeterminación establece que el espín, relativo a dos direcciones diferentes (por ejemplo, x y y) da como resultado un par de cantidades incompatibles. Supóngase que el estado φ de cierto electrón verifica la proposición «el espín del electrón x es positivo». Por el principio de indeterminación, el valor del espín en la dirección y será completamente indeterminado para φ. Entonces, φ no puede verificar ni la proposición «el espín en la dirección de y es positivo» ni la proposición «el espín en la dirección de y es negativo». Sin embargo, la disyunción de la proposición «el espín en la dirección y es positivo o negativo» debe ser verdadera para φ. En el caso de la distribución es, por lo tanto, posible tener una situación en la cual
,
mientras
.
Hasta la década de 1930, la economía parecía involucrar el uso de una gran cantidad de matemáticas y números, pero casi todo era superficial o irrelevante. La economía se utilizaba, sobre todo, para proveer, inútilmente, formulaciones precisas y soluciones a problemas que eran, de hecho, intrínsecamente vagos. La economía se encontraba en un estado similar al de la física del siglo XVII: esperaba todavía el desarrollo de un lenguaje apropiado a través del cual expresarse y resolver sus problemas. Mientras la física, por supuesto, había encontrado su lenguaje en el cálculo infinitesimal, von Neumann propuso el lenguaje de la teoría de juegos y la teoría del equilibrio general para la economía.
Su primera contribución significativa fue el teorema minimax de 1928. Este teorema establece que en ciertos juegos de suma cero, que involucran información perfecta (esto es, cada jugador conoce de antemano la estrategia de su oponente y sus consecuencias), existe una estrategia que permite a ambos jugadores minimizar su máxima pérdida (de ahí el nombre «minimax»). En particular, cuando se examina cada posible estrategia, un jugador debe considerar todas las respuestas posibles del jugador adversario y la pérdida máxima que puede acarrear. El jugador juega, entonces, con la estrategia que da como resultado la minimización de su máxima pérdida. Tal estrategia se llama óptima para ambos jugadores sólo en caso de que sus minimaxes sean iguales (en valor absoluto) y contrarios (en signo). Si el valor común es cero, el juego se convierte en un sinsentido.
Von Neumann finalmente perfeccionó y extendió el teorema minimax para incluir juegos que involucran información imperfecta y juegos de más de dos jugadores. Este trabajo culminó en el clásico de 1944 Theory of Games and Economic Behavior (Teoría de juegos y comportamiento económico), escrito con Oskar Morgenstern.
La segunda contribución importante de von Neumann en esta área fue la solución, en 1937, a un problema descrito por Léon Walras en 1874: la existencia de situaciones de equilibrio en modelos matemáticos de desarrollo del mercado basado en oferta y demanda. Primero reconoció que tal modelo tendría que estar expresado por medio de inecuaciones y no de ecuaciones (como solía hacerse), y entonces encontró la solución al problema de Walras aplicando un teorema de punto fijo derivado del trabajo de Luitzen Brouwer. La importancia perdurable del trabajo en equilibrio general y la metodología de los teoremas de punto fijo es resaltada por la concesión del Premio Nobel, en 1972, a Kenneth Arrow y, en 1983, a Gerard Debreu.
Von Neumann (junto con Morgenstern en su libro de 1944) fue el primero en emplear el método de prueba, utilizado en teoría de juegos, conocido como Inducción hacia atrás (backward induction).
En 1937 von Neumann, habiendo obtenido recientemente su ciudadanía estadounidense, empezó a interesarse en problemas de matemática aplicada. Se convirtió rápidamente en uno de los más grandes expertos en materia de explosivos y se comprometió con un gran número de consultorías militares, principalmente para la Marina de Estados Unidos. En 1942 desarrolló una teoría sobre el proceso de detonación. Un resultado notable en el campo de explosiones fue el descubrimiento de que las bombas de grandes dimensiones son más devastadoras si se detonan antes de tocar el suelo, por la fuerza adicional causada por las ondas de detonación (los medios mantuvieron, simplemente, que von Neumann había descubierto que es mejor perder un objetivo que acertarlo). Lo cual era lo opuesto al empleo operacional de las bombas más potentes utilizadas en ese momento, las bombas terremoto, que se incrustaban en el suelo antes de explotar. Las más famosas (o infames) aplicaciones de este descubrimiento ocurrieron el 6 y 9 de agosto de 1945, cuando dos proyectiles nucleares fueron detonados sobre Hiroshima y Nagasaki, a la altitud precisa, calculada por el mismo von Neumann, con el objetivo de que produjeran el mayor daño posible.
Von Neumann se incorporó al Proyecto Manhattan y su principal contribución fue el concepto y el diseño de los explosivos de contacto necesarios para comprimir el núcleo de plutonio de la primera detonación nuclear de la historia, la prueba Trinity, y de la bomba Fat Man lanzada sobre Nagasaki.
Desde un punto de vista político, Von Neumann era un miembro del comité cuyo trabajo era seleccionar «objetivos» potenciales. La primera elección de von Neumann, la ciudad de Kioto, fue rechazada por el Secretario de la Guerra Henry Stimson.
Después de la guerra, Robert Oppenheimer había hecho notar que los físicos «habían conocido el pecado» como resultado del desarrollo de las primeras bombas atómicas. La respuesta de von Neumann, algo cínica, fue que «algunas veces alguien confiesa un pecado con el fin de darse el crédito por él». En cualquier caso, continuó imperturbable en su trabajo, y finalmente se convirtió, junto con Edward Teller, en uno de los más convencidos defensores del proyecto de construcción de la bomba de hidrógeno. Von Neumann había colaborado con el espía Klaus Fuchs en el desarrollo de la bomba de hidrógeno y los dos archivaron una patente secreta sobre «mejora en métodos y medios para la utilización de energía nuclear» en 1946, la cual esbozaba un esquema para el uso de la explosión de una bomba de fisión que produjera la compresión de combustible de fusión necesaria para poder iniciar una reacción termonuclear. Aunque el método escogido para el diseño final de la bomba de hidrógeno fue el de Teller y Ulam, se reconoció posteriormente que fue un paso en la dirección correcta hacia el logro de este.
El trabajo de Von Neumann en la bomba de hidrógeno se encontraba también en el dominio de la computación, donde él y Stanislaw Ulam desarrollaron simulaciones computacionales en las nuevas calculadoras digitales de von Neumann para los cómputos hidrodinámicos necesarios. Durante este tiempo contribuyó al desarrollo del método de Montecarlo, el cual permitía la aproximación de problemas muy complicados a través del uso de números aleatorios. Como utilizar listas de «verdaderos» números aleatorios era demasiado lento para el ENIAC, Von Neumann elaboró una forma tosca de generar números pseudoaleatorios, utilizando el método middle-square ('método del centro del cuadrado'). Aunque está demostrado que este método no es fiable, Von Neumann era consciente de eso en aquel entonces: lo justificó por ser más rápido, en términos de tiempo computacional, que cualquier otro método a su disposición en ese momento, y también hizo notar que cuando aquel fallaba lo hacía de manera muy obvia, no como otros métodos que podían ser sutilmente incorrectos.
En 1952 la primera bomba de hidrógeno, Ivy Mike, fue detonada en el atolón de Enewetak.
Von Neumann le dio su nombre a la arquitectura de von Neumann, utilizada en casi todos los computadores, por su publicación del concepto; aunque muchos piensan que este nombramiento ignora la contribución de J. Presper Eckert y John William Mauchly, quienes contribuyeron al concepto durante su trabajo en ENIAC. Virtualmente, cada computador personal, microcomputador, minicomputador y supercomputador es una máquina de von Neumann. También creó el campo de los autómatas celulares sin computadores, construyendo los primeros ejemplos de autómatas autorreplicables con lápiz y papel. El concepto de constructor universal fue presentado en su trabajo póstumo Teoría de los autómatas autorreproductivos. El término «máquina de von Neumann» se refiere alternativamente a las máquinas autorreplicativas. Von Neumann probó que el camino más efectivo para las operaciones mineras a gran escala, como minar una luna entera o un cinturón de asteroides, es a través del uso de máquinas autorreplicativas, para aprovechar el crecimiento exponencial de tales mecanismos.
Además de su trabajo en arquitectura computacional, von Neumann ofreció una contribución al estudio de algoritmos. Donald Knuth considera a von Neumann el inventor, en 1945, del conocido algoritmo merge sort, en el cual la primera y segunda mitad de un array (vector) se clasifican recursivamente por separado y luego se fusionan juntas.
También participó en la investigación de problemas en el campo de la hidrodinámica numérica. Junto con R. D. Richtmyer desarrolló un algoritmo para definir la viscosidad artificial, que probó la esencia para el entendimiento de las ondas de choque. Puede decirse que no sería posible entender mucho de astronáutica y ni siquiera podrían haberse desarrollado los reactores y los motores espaciales sin ese trabajo. El problema era que cuando los computadores resuelven problemas hidro o aerodinámicos, buscan poner muchos puntos de rejilla (o malla, en inglés grid) computacionales en regiones con onda de choque de discontinuidad aguda. La viscosidad artificial era un truco matemático para suavizar levemente la transición del choque sin sacrificar la física básica.
Von Neumann desarrolló una carrera académica «relámpago» similar a la velocidad de su propio intelecto, y obtuvo a los 29 años una de las primeras cinco plazas docentes en el recién creado Instituto de Estudios Avanzados de Princeton (otra fue para Albert Einstein). Él parecía obligado, entonces, a buscar otros campos de interés con el objetivo de satisfacer su ambiciosa personalidad, y lo encontró en su colaboración con el complejo militar-industrial norteamericano. A él lo consultaban con frecuencia la CIA, el ejército de los Estados Unidos, la Corporación RAND, Standard Oil, IBM y otros.
Durante una audiencia del comité del senado, una vez describió su ideología política como "violentamente anticomunista y mucho más militarista que la normal". Primero como presidente del conocido Comité para Misiles de von Neumann y luego como miembro de la restringida Comisión de Energía Atómica, desde 1953 hasta su muerte en 1957, él era el científico con mayor poder político en Estados Unidos. A través de su comité, desarrolló varios escenarios de proliferación nuclear, misiles submarinos e intercontinentales con cabezas atómicas y el muy controvertido equilibrio estratégico llamado Destrucción mutua asegurada (Destrucción mutuamente asegurada). En pocas palabras, él era la mente diestra de los aspectos científicos de la guerra fría que condicionó al mundo occidental por cuarenta años.
Von Neumann siempre vestía un traje de negocios gris de franela, conservador. También se sabe que para jugar al tenis iba vestido con su traje de negocios y que le gustaba organizar grandes fiestas en su casa de Princeton, en ocasiones hasta dos veces por semana. A pesar de conducir muy mal, le gustaba hacerlo (con frecuencia lo hacía mientras leía un libro), y llegó a ocasionar numerosas detenciones y accidentes. En uno de ellos le dijo lo siguiente a la policía: "Yo iba avanzando por el camino. Los árboles de la derecha me estaban pasando de manera ordenada a 60 millas por hora. De repente uno de ellos se paró en mi camino".
Escribe un comentario o lo que quieras sobre Von Neumann (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)