LA TEORÍA DEL VALOR EXTREMO

Desde los huracanes hasta  las marcas en salto de altura, con demasiada frecuencia un acontecimiento inesperado distinto a cualquier cosa antes vista puede aparecer cuando menos se espera. ¿Pero hasta qué punto son extravagantes tales acontecimientos? Esta es la cuestión que responde la Teoría del Valor Extremo.

Esta teoría utiliza la información existente -por ejemplo, sobre las peores inundaciones acaecidas en los últimos quinientos años- para predecir la probabilidad de que se produzcan inundaciones incluso peores en el futuro.

Inundación

La Teoría del Valor Extremo, desarrollada por matemáticos en la década de 1920, fue considerada con desconfianza durante mucho tiempo debido a su capacidad aparentemente mágica de predecir incluso acontecimientos sin precedentes.

En la actualidad se confía más en sus capacidades, que se han utilizado en áreas tan diversas como la planificación del riesgo financiero y la seguridad marítima. Se le ha dado un uso significativo en el campo de los seguros, en el que las empresas aplican fórmulas de la Teoría del Valor Extremo para calcular la probabilidad de que se produzcan desastres importantes y para garantizar que existen suficientes fondos para cubrir los costes.

Terremoto de Japón

Estos son tiempos extraños. En solo una semana, en mayo de 2002, una tormenta sin precedentes de trescientos tornados asoló el medio oeste de Estados Unidos, causando daños por valor de más de 1.600 millones de euros. Sigue leyendo

¿Y si nuestro mundo no fuera real sino simulado?

Siempre me asalta la horrorosa duda de si las convicciones del cerebro humano, que se han desarrollado a partir de la mente de los animales inferiores, tienen algún valor o no son dignas de confianza en absoluto. ¿Alguien confiaría en las convicciones de la mente de un mono, es que hay alguna convicción en esa mente?

CHARLES DARWIN

Conocer los pensamientos de uno no requiere tanto la investigación por separado de las condiciones que hacen posible el juicio cuanto saber lo que uno percibe.

TYLER BURGE

Como es sabido, hay conocimientos que conocemos. Hay cosas que sabemos que sabemos. También sabemos que hay conocimientos que desconocemos. Es decir, sabemos que hay algunas cosas que no sabemos. Pero también hay incógnitas que desconocemos, aquellas que no sabemos que no sabemos.

DONALD RUMSFELD

La película de Hollywood Matrix imagina un futuro en el que los humanos han sido esclavizados por las máquinas. Desde que nacen hasta que mueren, duermen prisioneros en cápsulas, son alimentados a través de tubos y aseados por robots. Sigue leyendo

LA POLÍTICA Y LA CIENCIA: LECCIONES DE HIROSHIMA

Hans Bethe dijo que el Proyecto Manhattan “lo cambió todo; hizo que los científicos se metieran en política”. La necesidad de que los científicos comprendan lo que sucede a su alrededor también se aplica a la inversa, por supuesto, a los políticos y a los profanos en la materia con respecto a la ciencia.

Hans Bethe

Rudolf  Peierls dijo en 1986: “Me temo que, hace cuarenta años, subestimamos la capacidad de los que estaban en el poder para comprender las implicaciones de lo que habíamos creado”.

De hecho, la interacción a través de estas líneas divisorias comenzó antes del proyecto de Los Álamos, en la época en que Leo Szilard expresó por primera vez su preocupación a cerca de la bomba nuclear.

Leo Zsilard con Albert Einstein

Tales intercambios exigían de los científicos toda una serie de habilidades nuevas. Antes, ser un buen científico requería inteligencia y buenos conocimientos de un campo determinado. No era preciso, sin embargo, ser un buen comunicador ni saber relacionarse con otros, ni tener conciencia política, ni mostrar capacidad de juicio en cualquier área ajena a la ciencia, e incluso entonces sólo se exigía dominar un tema especializado.

La energía atómica fue quizás el primero entre diversos temas que existen hoy, como la genética y la nanotecnología, que exige a los científicos que comuniquen sus conclusiones de forma eficaz y que decidan después si deben expresar una opinión al respecto, presentar otras opciones o decir simplemente: “Aquí están, esto es lo que significan, otros tendrán que decidir qué uso se les puede dar”. Sigue leyendo

INTELIGENCIA ARTIFICIAL: ¿PUEDE PENSAR UNA MÁQUINA?

En 1945 se construyó el ENIAC, el primer ordenador electrónico de propósito general. Pesaba 27 toneladas y ocupaba una sala de casi doscientos metros cuadrados. Se componía de más de diecisiete mil válvulas de vacío y cada pocos minutos se fundía una de ellas, por lo que un grupo de operadores había de estar pendiente de reponerlas.

El ENIAC

Se dice, aunque quizá sea exagerdo, que al encenderse dejaba a oscuras a la mitad de Filadelfia.

Desgraciadamente el objetivo inicial era bélico, como en tantos otros avances tecnológicos: calcular las trayectorias balísticas de los nuevos armamentos empleados durante la segunda guerra mundial.

Cada arma requería un libro lleno de tablas. En lugar de ser computadas manualmente por ejércitos de mujeres durante jornadas enteras, el ENIAC las obtendría él solito en pocas horas. Pero su construcción se demoró, y cuando estuvo a punto, la guerra ya había finalizado.

Pronto las nuevas máquinas demostraron ser algo más que simples “masticadores” de números. También se revelaron competentes en el manejo de información simbólica y hallaron nuevas y más elegantes soluciones a teoremas clásicos de la lógica matemática. Por un momento parecía que no había límites  a sus posibilidades. Sigue leyendo

LOBOTOMÍAS A GRAN ESCALA EN LOS ESTADOS UNIDOS Y LA PÍLDORA REVOLUCIONARIA

En 1946 la prestigiosa revista norteamericana Life publica Bedlamun reportaje sobre dos centros psiquiátricos estatales, uno en Cleveland y otro en una ciudad de Pensilvania. El texto se acompaña de fotos estremecedoras en las que aparecen los enfermos en condiciones infrahumanas, amontonados, acuclillados semidesnudos contra las paredes, o atados a los bancos.

Acaba de finalizar la segunda guerra mundial y el impacto de las imágenes es enorme porque esas escenas recuerdan a las fotografías de los campos de concentración nazis, aún frescas en la retina de la gente.

Y con el agravante de que esto no sucede en ultramar sino allí, en el propio país; de modo que la reacción general es que urge hacer algo en los psiquiátricos americanos. A Walter Freeman estas imágenes le evocan sus primeros momentos en  el Elizabeth de Washington y está convencido de que tiene en sus manos el remedio para la situación; en otras palabras, se plantea la aplicación de lobotomías a gran escala para, según su criterio, mejorar y dar de alta a un buen número de enfermos mentales.

Walter Freeman en plena actividad

Antes de que las lobotomías puedan practicarse en serie, hay que simplificar el procedimiento. En palabras de El-Hai, “resultaba caro, requería los servicios de un neurocirujano, un anestesista, un quirófano. Y estas instituciones estatales, incluso aunque se llamaran hospitales, carecían de todas esas cosas”.

Tras meses de pruebas, Freeman cree que ha encontrado una ruta anatómica más directa hacia el cerebro: en lugar de trepanar el duro cráneo, podría acceder a los lóbulos frontales desde abajo, directamente a través de las órbitas oculares. La cavidad ósea que rodea a los ojos tiene un tabique superior relativamente fino; en una secuencia de archivo Freeman sostiene un cráneo en sus manos y señala “aquí el hueso es lo suficientemente delgado que deja traslucir la luz, y puede ser fácilmente perforado”.

Nacían así las célebres e infaustas lobotomías transorbitales. La historia nos dice  que Freeman ideó la nueva técnica en su propia casa, en la cocina con un picahielo y un martillo, ensayando sobre un cráneo. Sigue leyendo

SANTIAGO RAMÓN Y CAJAL, LAS NEURONAS Y CAMILLO GOLGI

En octubre de 1889 se reúne la Sociedad Alemana de Anatomía en la Universidad de Berlín. Entonces Alemania era una potencia científica, y es lógico suponer que la élite de la anatomía mundial se iba a dar cita en el congreso.

El médico español decide que es una oportunidad inigualable, y allí viaja con sus preparaciones y su microscopio Zeiss bajo el brazo. No comprende el alemán y debe hacerse entender con su rudimentario francés; por tanto, la mejor forma de comunicar los descubrimientos no es con la palabra, sino a través de las preparaciones microscópicas.

Se le asigna una mesa en la zona de demostraciones y Cajal coloca el microscopio con sus magníficas imágenes en negro. En palabras del historiador Finger, “la respuesta inicial a su exhibición deja mucho que desear. Como muchos histólogos tenían sus propias demostraciones, apenas se acercan para ver lo que les ofrecía. Estos científicos tendían a ser escépticos al principio, pensando que sólo un trabajo de segunda fila podía venir de un país atrasado como España. Pero, cuando contemplaron las bellas diapositivas de Cajal y observaron  las células nerviosas con una claridad no vista hasta entonces, sus ceños fruncidos dieron paso a sonrisas y cálidas palabras de felicitación”.

Uno de los sorprendidos por las preparaciones cajalianas es el patriarca de la anatomía alemana, Albrecht von  Kölliker, allí presente. Lo que muestra Cajal es un verdadero disparo en la línea de flotación de su postura favorable a la red nerviosa, pero no duda en felicitarlo sinceramente y hace lo imposible por franquear la barrera idiomática e introducir al español en los círculos del congreso. Sigue leyendo

EL TOYOTISMO

El toyotismo corresponde a una relación en el entorno de la producción industrial que fue pilar importante en el sistema de procedimiento industrial japonés y coreano, y que después de la crisis del petróleo de 1973 comenzó a desplazar al fordismo como modelo referencial en la producción en cadena.

Se destaca de su antecesor básicamente en su idea de trabajo flexible, aumento de la productividad a través de la gestión y organización (just in time) y el trabajo combinado que supera a la mecanización e individualización del trabajador, elemento característico del proceso de la cadena fordista.

Cuando el sistema económico keynesiano y el sistema productivo fordista dan cuenta de un agotamiento estructural en los años 73-74, las miradas en la producción industrial comienzan a girar al modelo japonés; modelo que permitió llevar a la industria japonesa del subdesarrollo a la categoría de potencia mundial en sólo décadas. Los ejes centrales del modelo lograban revertir las  crisis que se presentaban  en la producción en cadena fordista.

Estos puntos serían:

  • Estímulos sociales a través del fomento del trabajo en equipo y la identificación transclase entre jefe-subalterno.
  • Sistema just in time; que revaloriza la relación entre el tiempo de producción y la circulación de la mercancía a través de la lógica de menor control del obrero en la cadena productiva y un aceleramiento de la demanda que acerca al “stock 0″ y permite prescindir de la bodega y sus altos costos por concepto de almacenaje.

Sistema Just in Time

  • Reducción de costos de planta permite traspasar esa baja al consumidor y aumentar progresivamente el consumo en las distintas clases sociales.

La manera en que se manifiesta idealmente esa nueva concepción vinculación/ejecución tiene que ver con una economía que tenga un crecimiento aceptable y un control amplio de mercados externos. A pesar de que sólo un pequeño grupo de países cumplen con ese escenario, el toyotismo también ha manifestado formas híbridas en otros países con el objetivo de perseguir la reducción de costos y el estímulo social a los trabajadores.

Mercados Externos

EL TOYOTISMO COMO EJE INDUSTRIAL DEL NEOLIBERALISMO

Desaceleramiento en la innovación tecnológica en términos de creatividad y reconfiguración permanente de la cosmovisión (idea de los “grandes inventos”). En ese escenario, el crecimiento se da en el plano de la nanotecnología (reducción progresiva del tamaño de los chips para mayor confortabilidad y ahorro) y la biotecnología, que al estar en manos privadas no se sabe si su uso será mayoritariamente para el beneficio científico o para un programa dual de redireccionamiento bélico (armamento biológico) y prestación utilitarista de mercado.

La Biotecnología

La caída generalizada de salarios, desprotección creciente del Estado de bienestar, potencialización del individualismo y el desempleo estructural (entre otros factores) minan la contención ideológica del trabajador de la época toyotista bajando la productividad esperada. Sigue leyendo