span.fullpost {display:none;} span.fullpost {display:inline;} saber si ocupa lugar: noviembre 2013

sábado, 30 de noviembre de 2013

¿Por qué las pelotas de golf tienen huecos en su superficie?


Los primeros golfistas jugaban con pelotas lisas. Al final de un partido, algunos jugadores más observadores notaban que las bolas usadas llegaban más lejos que las nuevas. No hizo falta mucho más para que empezara a bullir el cerebro de los astutos inventores. Y en 1908, un tal Taylor patentó la bola que conocemos hoy, es decir, una esfera cuya superficie está surcada por pequeños huecos.

¡Sólo había que pensar! En realidad, esa especie de hoyuelos no hacen más que imitar a las bolas gastadas de los primeros golfistas, las que habían sufrido los golpes violentos de los palos que habían causado marcas (incluso agujeros) en su superficie. Esquemáticamente, el avance a través del viento de una bola perfectamente lisa crea una microzona de baja presión en su parte posterior, lo que frena su avance. Los huecos impiden precisamente la creación de los torbellinos intempestivos que se observan alrededor de una bola lisa.

A principios del siglo XX vieron la luz otros dos inventos. Basados en las mismas observaciones, lógicamente presentan características comparables. Son dos bolas que tienen también una superficie alveolada, una en forma de cuadrícula (malla o estrías); otra, pequeñas protuberancias (una especie de bola de espinas). Los tres inventos se comercializaron casi al mismo tiempo, pero ganaron los huecos. En comparación con una bola lisa y a igual potencia de golpe, una de las modernas llega más lejos y más recta.

Leer Mas...

jueves, 28 de noviembre de 2013

Construcción de presas y diques – un freno al curso natural del agua


 



Aunque su primera aplicación fue la de servir como depósitos de agua y asegurar el abastecimiento tanto para el regadío como para el consumo de grandes poblaciones, en la actualidad las presas tienen diversas utilidades. Dependiendo de la finalidad para la que van a ser creadas, de las características del terreno y del tipo de material usado, los ingenieros pueden elegir entre varios tipos de construcción.

Capaces de generar energía eléctrica, regular y canalizar las aguas, aumentar la profundidad de los ríos haciendo posible navegar por ellos, ayudar a controlar tanto las inundaciones como los periodos de sequía e incluso utilizarlas con fines recreativos, las presas son obras de ingeniería habituales en la geografía de todo el mundo.

Las primeras presas conocidas fueron obra de los antiguos egipcios y se debieron construir hacia el
año 2500 a.de C. Eran pantanos construidos en el valle del Nilo y a orillas de los ríos Tigris y Éufrates con el fin de almacenar el agua durante las crecidas y garantizar el suministro durante el resto del año. Varios siglos más tarde, los romanos demostraron su maestría en la construcción y en la ingeniería levantando presas y todo tipo de obras de canalización y suministro de aguas, tanto en Europa como en el norte de África.

Este saber hacer fue heredado por los pobladores de la Península Ibérica, que, después del Imperio Romano, se reafirmaron como expertos en edificaciones hidráulicas. Una prueba de ello es la presa de Almonacid, al sur de Zaragoza, que data del siglo XIII. Todo ese saber y esa experiencia la trasladaron los conquistadores españoles al continente americano, donde construyeron numerosas obras de regadío, especialmente en México y California. En Bolivia y Norteamérica, el agua almacenada por algunas presas se utilizaba también para mover los molinos con los que se trituraban los minerales o se hacían funcionar los aserraderos.

En el siglo XVIII, en plena Revolución Industrial, urgía la necesidad de mejorar las comunicaciones a través de canales para el transporte de mercancías en Europa. La aplicación de nuevas tecnologías en la creación de presas mejoró el transporte fluvial y permitió el suministro a grandes núcleos de población y a enormes fábricas en crecimiento. Con el siglo XIX llegó una nueva y revolucionaria aplicación: la obtención de energía eléctrica.

Actualmente, existen en todo el mundo más de 50.000 presas construidas con más de 10 metros de altura. El 85% de ellas están compuestas de materiales sin trabar –piedra, tierra, grava, arena, arcilla-, mientras el resto tiene como elemento básico el hormigón.

Después de que los ingenieros hayan estudiado detalladamente el terreno y antes de comenzar a construir la presa, hay que desecar el terreno y preparar los cimientos. La desecación se consigue medianta una o varias ataquías –construcciones que impiden el paso del agua- diseñadas para eliminar el paso de las corrientes fluviales en el terreno donde se va a construir la presa. Estas ataquías, que pueden estar construidas a base de materiales como tierra o pueden estar formadas por chapas de acero, se deben construir también a los lados del río que se quiere embalsar, pues así se evitan desbordamientos antes, durante y después de la construcción de la presa.

También es conveniente hacer túneles que rodeen la presa para conducir el agua, pero si las condiciones topográficas no lo aconsejan es preferible hacer la construcción en dos etapas. Instalando una primera ataquía que deseque la mitad del ancho del río y construyendo la base de esta mitad de la presa para levantar la otra mitad. Actualmente y con los modernos métodos y maquinarias con que se cuenta, se puede construir una presa en aproximadamente siete años.

Los distintos tipos de presas que existen se diferencian por los materiales empleados para su
construcción y por la forma de su estructura. Entre las construidas con hormigón, hay que distinguir las presas de gravedad, en las que la estabilidad y la resistencia se deben fundamentalmente a su propio peso. Están constituidas por un muro cuya sección vertical es triangular o trapezoidal –el muro externo aparece inclinado-, mientras su sección horizontal es rectilínea o curva. La base es ancha y se va estrechando hacia la parte superior. Es la construcción más duradera, la que requiere menor mantenimiento y su altura depende de la resistencia del terreno. Dos factores favorecen su equilibrio estático: el empuje hidrostático que ejerce la masa de agua y el peso de la estructura.

Basándose en los fundamentos teóricos de la construcción de arcos, se levantan las presas de bóveda. Son estructuras curvilíneas con la parte convexa dirigida hacia el embalse para distribuir el peso hacia los extremos. Por eso, aunque esta clase de presas necesitan menos hormigón, no siempre se encuentra un terreno adecuado para su utilización.

Las presas de contrafuertes tienen una pared que soporta el agua y una serie de contrafuertes o pilares de forma triangular que sujetan la pared y transmiten la carga del agua a la base. Aunque necesitan entre un 35 y un 50% menos del hormigón que requiere la construcción de una presa de capacidad semejante, no son las más económicas, pero sí las más adecuadas para terrenos poco estables. Entre las variedades de este tipo, se encuentran las de planchas uniformes, en las que el elemento que contiene el agua es un conjunto de planchas que cubren la superficie entre los contrafuertes; y las de bóvedas múltiples, en las que los contrafuertes se encuentran más espaciados.

Materiales naturales como piedra, tierra o arcilla también se utilizan para construir presas de
contención de agua. La elección de este tipo de presa depende, generalmente, de los materiales que existan en la zona. Como se trata de elementos poco estables, la anchura de la base de la presa ha de ser entre cuatro y siete veces mayor que su altura. Suelen estar hechas totalmente con materiales impermeables o sólo en su núcleo para, luego, reforzarlo por los lados con materiales más permeables, como arena, grava o roca. Este núcleo debe extenderse más debajo de la base con el fin de evitar filtraciones.

En cualquier caso, la elección del tipo de presa y del material más adecuado depende, por una parte, de las condiciones económicas y, por otra, del resultado de los estudios realizados por los ingenieros.

Uno de los problemas que hay que tener en cuenta en el momento de diseñar una presa es el desagüe del exceso de agua acumulada. Cada presa tiene un nivel máximo por encima del cual debe quedar libre siempre una zona, llamada de libre coronamiento. Antes de construirla, se calcula su capacidad de desagüe, que es igual al volumen de la crecida máxima o catastrófica. Para controlar esos excesos se construyen aliviaderos, orificios laterales de la presa habitualmente cerrados por compuertas móviles y por donde se expulsa el agua sobrante.

Hay presas en las que el sobrante es tan habitual que tienen aliviaderos a lo largo de toda la
construcción; de esta manera, se acaba convirtiendo en una sucesión de pilares que sujetan compuertas levadizas. En otras, de poca o moderada altura, los aliviaderos son saltos de agua en forma de canales de hormigón anchos y con mucha pendiente. Por su parte, las grandes presas de bóveda utilizan vertederos de pozo; es decir, conductos que llevan el agua del embalse a través de la presa y la depositan río abajo. Los desagües de fondo son manejados desde la parte superior de la presa para controlar y regular la salida de agua según las necesidades.

Pero tampoco hay que olvidar otro factor importante en la construcción de una presa: su altura. Además de la topografía, su utilidad aconseja una elevación determinada. Si su función es la de obtener energía eléctrica, hay que tener en cuenta que cuanto mayor es la altura, mayor es también la energía potencial del agua acumulada en la presa. De igual manera, si se trata de una presa de contención, tendrá más capacidad de almacenamiento cuanto mayor sea la altura.

Sea cual sea el tipo de construcción elegido, actualmente los ingenieros no sólo piensan en las utilidades que va a tener la presa, sino que cada vez se valoran con más cuidado los daños tanto ecológicos como económicos que puede provocar la edificación de este tipo de obra hidráulica.

Leer Mas...

martes, 26 de noviembre de 2013

¿Se puede sacar a la Tierra de su órbita?


Si, es posible. Pero el impacto preciso para conseguirlo debería ser tan grande que la Tierra quedaría destruida.

Muchos astrónomos piensan que hace unos 4.500 millones de años, cuando se estaba formando el sistema solar, la Tierra recibió una fuerte sacudida que hizo que se formara la Luna. Según esta teoría, un objeto del tamaño de Marte chocó contra la Tierra. En ese momento de la evolución del sistema solar, ambos cuerpos estaban formados de material fundido que aún no se había solidificado. Los núcleos ricos en hierro se unieron y parte de las capas externas se vaporizaron y entraron en órbita alrededor de la Tierra. Con el tiempo, este material se unió y formó nuestra Luna rocosa. La Tierra ganó momento angular y puede que su órbita haya cambiado ligeramente. Es probable que este impacto haya sido 100 millones de veces más fuerte que el que acabó con los dinosaurios. Si recibiéramos un impacto igual hoy, teniendo un planeta casi sólido, quedaríamos hechos pedazos.

Leer Mas...

El aire que respiramos - la contaminación en el aire y en casa



 El siglo XX ha representado un cambio radical para la Tierra y la atmósfera: el auge de las industrias, la obtención de energía a partir de recursos fósiles, los pesticidas y los transportes, entre otros factores, están ensuciando nuestra atmósfera, y ésta, a su vez, contamina la tierra y los suelos: el aire que respiramos es también el agua que bebemos y los alimentos que comemos.

Por determinadas características geográficas, la ciudad de Los Ángeles favorece la acumulación de contaminantes en la capa baja de la atmósfera. Ya en la década de los cuarenta del siglo XX, la contaminación alcanzó tal nivel que redujo considerablemente la visibilidad y causó múltiples problemas de salud a los habitantes.

En la actualidad, ha disminuido la densidad industrial en la zona, pero ha aumentado la cantidad de coches: aunque las condiciones han mejorado, no son en absoluto las idóneas, y muchos agricultores se han visto obligados a abandonar la zona por culpa de la lluvia ácida que, además, ha atacado los bosques en las montañas cercanas –lo cual, a su vez, ha contribuido a aumentar la contaminación-. Otras ciudades con problemas similares son Tokio –donde los policías de tráfico disponen como parte de su equipo de botellas de oxígeno-. Milán, Ankara, México o Buenos Aires.

El aire de la atmósfera está formado –o debería estarlo- por un 78.1% de nitrógeno molecular, un 20,9% de oxígeno molecular, un 0,934% de argón y, aproximadamente, un 0,036% de dióxido de carbono. Existen muchos otros componentes, pero en cantidades realmente mínimas.

La actividad humana –agricultura, transporte, procesos industriales…- cada vez más intensa vierte una gran cantidad de productos tóxicos en la atmósfera. Estos productos tóxicos, que están en el aire tanto en forma de gases como sólidos o aerosoles líquidos, se dividen en cinco grandes grupos: monóxido de carbono, óxidos de sulfuro, hidrocarbonos, óxidos de nitrógeno y micropartículas de polvo y ceniza.

Varios de estos compuestos suelen provenir combinados de una sola fuente: por ejemplo, los automóviles liberan en la atmósfera monóxido de carbono, varios hidrocarbonos y óxidos de nitrógeno. En las grandes urbes, donde los rayos ultravioleta del Sol proporcionan la energía necesaria para que se combinen estas moléculas, se forma el llamado smog, una capa de contaminación que forma una cúpula oscura.

A gran escala, el resultado más conocido de la contaminación del aire es el aumento de la
temperatura media del planeta. El responsable directo de este fenómeno es la cantidad cada vez mayor de dióxido de carbono en la atmósfera y el efecto invernadero consecuente: el calor llega a la tierra, pero no vuelve a ser radiado al exterior. Un aumento de la temperatura de unos pocos grados podría tener efectos muy graves: la fundición de parte de los casquetes polares haría aumentar el nivel medio del mar y su grado de salinidad; la alteración del clima produciría la migración de insectos a zonas de pronto más cálidas con el consiguiente traslado de enfermedades endémicas de unas regiones a otras del planeta.

El problema de la contaminación no afecta sólo a la ciudad que produce un exceso de contaminantes. La atmósfera que protege y alimenta la vida sobre la Tierra es, gracias a la energía proporcionada por el Sol, tremendamente activa, y lo que sucede en un punto del planeta afecta a los pocos días a todo el globo: si la causa es lo suficientemente intensa, el efecto será claramente detectable.

Por ejemplo, los incendios forestales que asolaron el estado de Victoria en Australia en 1939 produjeron una clara contaminación a más de 3.000 km de distancia; el polvo del Sahara ha sido detectado en las islas del Caribe; en el Antártico, se han detectado pesticidas –obviamente, han llegado a través de la atmósfera-, y algunos compuestos industriales estables han sido detectados en los tejidos de animales y pobladores del Ártico.

La única solución a medio y largo plazo para combatir y prevenir esta situación es reducir la emisión de gases tóxicos: una quema más completa de los combustibles fósiles –para lo que serán de gran ayuda los catalizadores instalados en los vehículos-, la contención de emisiones mediante la colocación de filtros, el reciclado de materiales y, a más largo plazo, la utilización de energías que no impliquen la emisión de contaminantes.

Pero el problema es más complejo y no se manifiesta sólo a gran escala y en la calle. En realidad, los
niveles más altos de exposición a sustancias perseguidas por las autoridades en el medio ambiente se producen muchas veces en las casas y en los locales. Por ejemplo, en dos ciudades que cuentan con una poderosa industria química, Bayonne y Elisabeth, en el estado norteamericano de Nueva Jersey, se demostró que 11 compuestos orgánicos volátiles son mucho más numerosos bajo techo que al aire libre. El benceno es un inductor de la leucemia –bajo exposiciones permanentes- y está presente en la gasolina, los cigarrillos y en muchos productos del hogar. Un estudio realizado en 1985 demostró que el 45% de la exposición total de los estadounidenses al benceno procedía de los humos del tabaco; un 36% de los vapores de gasolina y los pegamentos; un 16% de fuentes diversas como pinturas y gasolina almacenada, y sólo un 3%, de la contaminación industrial. En Estados Unidos, se calcula que todos los años unos 3.000 casos de cáncer son producidos por plaguicidas y compuestos orgánicos volátiles intradomésticos.

En el aire que respiramos se pueden encontrar, además de los gases mencionados al principio, una serie de compuestos:

-Clorofluorocarbonos –CFCs-: productos muy usados en la industria para refrigeración, aire
acondicionado y como propelente en los sprays. Son muy estables y permanecen inalterados hasta que alcanzan las capas superiores de la atmósfera, donde reaccionan con la capa de ozono y la destruyen.

-Dióxido de carbono-CO2- : activa la fotosíntesis de las plantas y es necesario para su metabolismo. Abunda en la atmósfera debido a las actividades naturales y humanas. Contribuye al efecto invernadero, puesto que la producción excede la capacidad de asimilación.

-Dióxido de sulfuro –SO2-: producto de la combustión incompleta y la fabricación de papel y de la fundición de metales. Productor de lluvia ácida.

-Lluvia ácida: es un tipo de contaminación que se produce cuando los productos químicos incorporados en la lluvia, la nieve o la niebla se combinan con óxidos de sulfuro y óxidos de nitrógeno, relacionados con dos fuertes ácidos: ácido sulfúrico y ácido nítrico. Cuando estos ácidos se forman en la atmósfera, el viento los lleva lejos de la fuente y caen en forma de lluvia o nieve. En áreas en donde el clima es seco, los ácidos pueden incorporarse al polvo o a los humos.

-Micropartículas: polvo, hollín y pequeños trozos de materiales sólidos presentes en la atmósfera. Surgen tanto de la combustión como de la mezcla y de la aplicación de fertilizantes y de pesticidas, construcción de carreteras o procesos industriales –fabricación de acero, explotaciones mineras…-. Pueden producir irritación de los ojos y del sistema respiratorio.

-Monóxido de carbono –CO-: gas tóxico producto de la quema incompleta de productos naturales y
sintéticos –por ejemplo, los cigarrillos-. Cuando el monóxido de carbono entra en la sangre, impide que ésta libere oxígeno a las células, por lo que puede provocar graves daños a la visión, pérdida de conciencia o, a grandes dosis, la muerte.

-Óxidos de nitrógeno –NOx-: producidos por la quema de gasolina y carbón. Forman las nubes de smog sobre las ciudades y son un componente de la lluvia ácida.

Leer Mas...

lunes, 25 de noviembre de 2013

¿Es el juego exclusivo de los mamiferos?


Parece ser que la respuesta es no. Un pájaro se pasa horas lanzando guijarros al aire, pero no sabemos si está pasando el rato o afinando su coordinación garra-ojo. El juego puede definirse como una conducta sin propósito de supervivencia, como una recompensa en sí misma practicada por un animal satisfecho y tranquilo.

Según esta definición, el mundo animal está lleno de luchas amistosas. La diversión está bien documentada en pájaros de cerebro grande, como los cuervos y los halcones, que se pelean entre sí y lanzan y capturan objetos por puro placer. Para otros animales, los datos son más difusos, a menudo basados en una sola observación, pero sugieren que el juego más allá de aves y mamíferos es un fenómeno posible. Un dragón de Komodo del zoo de Washington juega al tira y afloja con sus cuidadores, y las tortugas de caparazón blando de otros zoos empujan pelotas con su hocico y nadan atravesando aros. Los pulpos en estado salvaje se entretienen en el laboratorio agarrando juguetes o pasándoselos con los tentáculos. Otro estudio ha analizado los simulacros de lucha entre las avispas.

Así que el juego no es privativo de los animales inteligentes y de grandes cerebros.

Leer Mas...

¿Por qué aparecen las agujetas tras el esfuerzo físico?


Antes se creía que el causante de los dolores era el exceso de acidez. Las fibras musculares blancas, también llamadas pálidas, transforman los hidratos de carbono en ácido láctico y utilizan el oxígeno para poderlo transportar. El músculo no entrenado está compuesto básicamente por estas fibras blancas y no recibe el oxígeno suficiente para eliminar el ácido láctico. Y esto es lo que provoca el dolor; en este caso, las agujetas aparecen justo después de haber realizado el esfuerzo.

Hoy en día se parte del hecho de que las sobrecargas físicas llegan a producir unas ligeras fisuras en las fibras musculares. A través de estas fisuras puede penetrar el agua y se forman edemas, es decir, pequeñas hinchazones. Con ellas se estira la fibra muscular y aparecen las agujetas.

Leer Mas...

Los resortes del arte fotográfico – La imagen sobre papel




No han sido pocas las polémicas surgidas en torno al concepto de la fotografía como arte. Vista, en principio, más como una técnica aséptica que como una forma de expresión, el desarrollo de la fotografía ha ido labrando cada vez más el camino de la imagen captada por la cámara hasta llegar a situarla en el merecido puesto artístico que ocupa hoy en día.

Harto conocida es la frase que dice: “Una imagen vale más que mil palabras”. Lo cierto es que no le falta razón, pues si hay algo que supera las trabas de los idiomas y de la expresión verbal, algo que pueda ser considerado el lenguaje universal por excelencia, eso es el lenguaje de las imágenes.


Tal vez por ello no deba extrañar el hecho de que la fotografía, desde un principio, haya ido experimentando un progresivo desarrollo hasta llegar a ocupar el destacado lugar que tiene hoy en día, tanto como fuente documental como medio de expresión artística. Sobre todo es en este último sentido en el que más innovaciones se han producido en los últimos años, siempre motivadas por el afán experimental de la infinidad de profesionales y de aficionados que continuamente experimentan y juegan con sus cámaras, laboratorios y ordenadores para conseguir nuevos efectos visuales y expresivos.

Pero, en sus orígenes, las ambiciones de los pioneros de la fotografía fueron mucho más humiles: sencillamente trataban de captar una imagen real sobre un soporte de una forma permanente, rápida y lo más definida posible. Fue especialmente la idea de la permanencia de la imagen la que más quebraderos de cabeza produjo en un principio, y en torno a la cual se realizaron los primeros avances en el campo de la fotografía a finales del siglo XVIII y principios del XIX –aunque, si es por buscar antecedentes, podemos remontarnos hasta el año 350 a.C. en Grecia, cuando Aristóteles escribió “La problemata”, un libro en el que se describe una caja oscura, que sería el embrión de la cámara fotográfica.

En un rápido repaso por la infancia de este nuevo arte, vemos varios hechos especialmente destacados y trascendentes para su posterior desarrollo. En 1725, J.H.Schulze estableció la sensibilidad a la luz del nitrato de plata. Consiguió obtener imágenes haciendo que los rayos del Sol incidieran en un frasco que contenía una mezcla de yeso, ácido nítrico y plata, alrededor del cual había adherido estarcidos de papel opaco.

En 1816, J.N.Nièpce obtuvo el primer negativo, con fijación parcial, sobre una placa de cobre recubierta con betún de Judea y tras 8 horas de exposición. Él mismo consiguió, 10 años después, las primeras fotografías permanentes de la Naturaleza, obteniendo –con el procedimiento de betún en placas de peltre- una imagen directamente positiva.

En 1835, W.H.Fox Talbot consiguió el primer negativo sobre papel, sensibilizando éste con nitrato de plata y fósforo gálico, y fijándolo después con bromuro de potasio e hiposulfito de sosa.

L.J.M.Daguerre, asociado con Nièpce, consiguió en 1837 el primer daguerrotipo, es decir, una imagen permanente conseguida su fijación con sal común.

Una vez conseguidas estas herramientas básicas, el tiempo y el ingenio de los sucesivos
investigadores y científicos fueron afilando los todavía romos resortes del emergente mundo de la imagen fotográfica; la definición y la rapidez fueron mejorando con el desarrollo de las ópticas y de las películas, y, a partir de 1850, eran ya cientos los fotógrafos que contemplaban el mundo a través de un objetivo.

En 1888, Eastman Dry Plate & Film Company, introduce la cámara Kodak nº 1 para película en rollo. En 1924 surge la histórica cámara Leica, de E.Leitz. En 1947 se lanza la cámara Polaroid, con película en blanco y negro capaz de dar una fotografía instantánea por el método de transferencia por difusión reversible. Y en 1972, Polaroid introduce su cámara con película en color de fotografía instantánea por el método de transferencia por difusión integral.

La infinidad de posibilidades expresivas que ofrece la fotografía, su carácter maleable y camaleónico se debe a la posibilidad de poder jugar con los distintos –y no son pocos- resortes de sus diferentes vertientes: la física y la química o digital. Los materiales sensibles –la película y los papeles-, la luz, la cámara e, incluso, los mismos objetos que se van a fotografiar ofrecen múltiples posibilidades y variantes, pudiendo ser hábilmente manipulados para conseguir un efecto u otro. Ahí está el arte.

Sin ir más lejos, basta fijarse en los incontables modelos de cámaras fotográficas que existen en el mercado, cada una con sus particularidades. En rasgos generales, podemos decir que existen tres formatos básicos de cámara: el gran formato, que se utiliza, con trípode, para obtener negativos grandes a partir de los cuales poder sacar grandes ampliaciones; el medio formato, útil para conseguir ampliaciones más normales, y la cámara réflex –de 35 mm-, que es la típica cámara que utiliza generalmente todo el mundo.

A estos cuerpos de cámara se les pueden acoplar distintos objetivos, dependiendo, una vez más, de lo
que se quiera conseguir. Los hay que tienen un uso más general, pudiendo ser utilizados para realizar distintos tipos de fotografías, y los hay que son muy específicos para un uso determinado. Lo que sí es común a todos es que están formados por lentes simples negativas, que producen una imagen real –las positivas dan imágenes invertidas- y que vienen graduadas en milímetros, indicadores de su longitud focal.

De entre los distintos tipos de objetivos que existen, cabe destacar los siguientes: el ojo de pez, cuyo ángulo de visión oscila entre los 95 y los 220º, haciendo que la imagen salga siempre curvada por los bordes, como si estuviese reflejada en una cuchara o algo similar; el gran angular, con un ángulo de visión que abarca los 94 y los 60º, sin llegar a deformar la imagen como el ojo de pez; los objetivos normales, que tienen un ángulo de visión igual que el del ojo humano, y los teleobjetivos, que tienen un campo visual menor que el del ojo humano. También cabe hacer una clasificación de tipos de objetivos según su longitud focal; así, los cortos tienen una longitud focal de 70-120 mm; los medios, de 120 a 420 mm, y los largos, de 400 a 2.000 mm. Además de éstos, existe el conocido zoom, que es un objetivo de longitud variable y, por tanto, muy útil, aunque, por otro lado, pierde algo de calidad y de luminosidad.

Otro elemento fundamental del mundo de la fotografía es la luz. Natural o artificial, los efectos que pueden crear sobre el objeto que se va a fotografiar, según su incidencia y su intensidad, son tan variados que la convierten en una de las claves básicas para conseguir una buena foto. Las angulaciones de luz –cenital, lateral, frontal, contraluz…- juegan con las sombras que van a crear, con las formas que van a mostrar y las que van a esconder, y combinan sus efectos con los que produce la calidad de la luz. Ésta puede ser directa, que incide directamente sobre el objeto, dando unos resultados muy creativos, pero también unas sombras muy fuertes; difusa, pasando a través de un material translúcido, creando por ello ambientes más suaves; y reflejada, utilizando pantallas reflectoras que suelen ser de pórex blanco.

En el caso de la luz artificial –con focos o flash-, las composiciones de luz suelen constar
generalmente de una luz principal, una luz de relleno, una luz de efecto y una luz de fondo, combinadas todas en diversas angulaciones y calidades. La intensidad de estos distintos tipos de luz se puede medir con un aparato llamado fotómetro; según los valores que éste ofrezca, se colocan en la cámara la velocidad y el diafragma adecuados para conseguir una foto correctamente expuesta. Sin embargo, hay ocasiones en las que el fotógrafo puede que quiera realizar fotos subexpuestas o sobreexpuestas a propósito para conseguir unos resultados determinados y utilice las mediciones del fotómetro sólo a título orientativo, no como algo que va a seguir a rajatabla.

Al margen de este aspecto externo y tangible de los objetivos, las cámaras y la luz, existía en la fotografía clásica –la anterior a la digital- otro terreno paralelo, aunque más oscuro y misterioso, poblado, entre otros, por la magia de las sustancias químicas, los filtros y los materiales sensibles. Estos últimos –todos aquellos constituidos por un soporte y una emulsión-, integrados por haluros de plata son las películas de positivado.

Las películas tienen todas una sensibilidad determinada que viene indicada en el exterior del rollo como número de ASA, ISO o DIN –depende de la nomenclatura que use cada empresa fabricante-, que expresa la forma en que responde la película ante la luz. El ASA de la película también se refiere al contraste y a su poder resolutivo, es decir, al grado de detalle que va a ofrecer, aunque ambas son cosas que pueden modificarse durante su tratamiento en el laboratorio. Aquí, se empieza por revelar la película, para lo que es necesario tener luz actínica –roja- para que no se vele al sacarla del chasis.

Durante el proceso de revelado se van a utilizar básicamente tres químicos: el revelador, el paro y el
fijador, cada uno de ellos diluido en agua. El revelador está compuesto de metol, hidroquinona, un activador de los químicos y un antivelo para evitar que quede un tono sepia en el negativo. Una vez transcurrido el tiempo que la película debe estar en el revelador, se saca éste y se echa el paro en el tanque de revelado, con el que se detiene inmediatamente la acción del revelador. El paro está compuesto por ácido acético puro, que es el componente del vinagre, por lo que se puede utilizar este último como sustitutivo casero. Finalmente, la película ha de pasar por el fijador, compuesto por hiposulfito de sosa, que fija la imagen y prepara la película de forma que cuando reciba la luz no se vele. Una vez sacada del tanque, se lava la película con agua y se deja secar. Entonces, los negativos están listos para ser positivados.

Al igual que durante el procesado de la película, a la hora de sacar copias sobre papel hay que trabajar con luz actínica para que éste no se vele. Se utiliza una ampliadora, que tiene un cabezal en que se pone el negativo y un tablero sobre el que se coloca el papel; al encender la ampliadora, la luz de la bombilla que hay en el cabezal atraviesa el negativo, formando la imagen sobre el papel que se ha colocado debajo. Pero la imagen así conseguida es sólo una imagen latente: al apagar la ampliadora, el papel sigue estando en blanco. Para sacar la imagen que tiene “escondida” hay que pasar el papel por los distintos agentes químicos –igual que se hizo con la película-: revelador, paro y fijador, y, finalmente, lavar las copias con agua. Se pueden utilizar reveladores diversos según se quiera conseguir un mayor o menor contraste, y también se puede jugar con los distintos tipos de papel, que varían también en graduación de contraste y textura.

Este es el proceso básico que se desarrolla para obtener una fotografía, pero son muchas las pequeñas
variantes que se pueden dar para conseguir las modificaciones que el fotógrafo desee. Las técnicas de laboratorio y las modernas digitales permiten conseguir efectos sorprendentes como los producidos por la solarización –una veladura controlada de la imagen-, el bajorrelieve o el altocontraste. Uno de los elementos clave para realizar estas técnicas son las llamadas placas ortocromáticas, papel de película de sensibilidad muy baja -3 ASA- utilizado, entre otras cosas, para sacar diapositivas. Otras técnicas destacables son los rayogramas, consistentes en impresionar cuerpos translúcidos sobre un material sensible; las posterizaciones que se obtienen montando un negativo sobre otro, y los virados, que utilizando los químicos correspondientes, tiñen la imagen positivada del tono deseado.

Desde que el color, con sus infinitas tonalidades, llegó para teñir el mundo de la fotografía, se abrió toda una infinidad de nuevas posibilidades expresivas y técnicas, pero también una gran duda: ¿blanco y negro o color? ¿Cuál de los dos es mejor? Esta polémica, que con el tiempo ha llegado a ser un tópico, está ya hoy en día tan superada como la cuestión de si es o no la fotografía un arte, aunque no por ello deja de resurgir continuamente. Lo cierto es que, aunque en el mundo de la expresión artística todo vale y todas las leyes –de haberlas- son susceptibles de ser rotas continuamente por los innovadores, el blanco y negro, por un lado, y el color por otro, tienen una serie de parcelas asignadas en las que son, por decirlo de alguna manera, los reyes. Así, por ejemplo, para fotografía publicitaria se tiende a utilizar más el color al ser más llamativo, mientras que en la fotografía de desnudo artístico, el blanco y negro suele ser más habitual.

En lo referente a la composición de las películas, la diferencia esencial que hay entre las películas de
blanco y negro y las de color es que en ésta no hay depósito de plata metálica como en aquéllas. En blanco y negro, al fotografiar, se oxida esta plata metálica, formándose una imagen latente que, al recibir el revelador, se convierte en imagen visible o patente, que queda limpia de la plata no utilizada al ser arrastrada tras la aplicación del fijador. Esto no sucede en color, donde los negativos, aunque también llevan en su composición sales de plata, tienen además unos tintes, unas emulsiones formadas por copulantes de color. Cuando se hace una foto, la luz oxida primero la plata metálica, formando la base de la imagen, y luego, esa luz actúa sobre las distintas capas que forman la película y sobre los copulantes. Se forma una imagen latente, en color, y con la actuación del revelador se forma la imagen visible, al hacer que los copulantes liberen tintes de colores, consiguiendo que formen la imagen en color real. Finalmente, el blanqueador-fijador arrastra el resto de los copulantes, mostrando la imagen visible. Éste es el proceso denominado revelado cromógeno, y el proceso químico utilizado para desarrollarlo es denominado proceso C41 siendo actualmente utilizado de forma estándar por todos los fabricantes de material fotográfico.

Sin embargo, no siempre ha sido así: en sus comienzos, el color estaba todavía muy poco desarrollado técnicamente, y cada casa lo procesaba de una forma. El revelado era más complicado y la calidad era todavía bastante precaria, con tonalidades más bien saturadas y poco conseguidas. Actualmente, es tal el desarrollo que ha alcanzado esta parcela de la fotografía, por no hablar de la técnica digital, que la fotografía en color nada tiene que envidiar en cuanto a calidad al blanco y negro. Por eso, la única disyuntiva que puede surgir a estas alturas respecto a la película que se va a utilizar es aquélla dictada por el gusto y el buen entendimiento personal.

Al margen de la vertiente artística, no hay que olvidar que la cámara puede ponerse al servicio de muchos otros campos y finalidades, como, por ejemplo, la ciencia. La macrofotografía, con sus objetivos especiales y sus técnicas de aumento, puede obtener imágenes ampliadas de cosas que, en principio, son imperceptibles para el ojo humano. También en el campo comercial se recurre a esta modalidad de fotografía, sobre todo en la joyería, donde los objetos que se van a fotografiar son en ocasiones tan pequeños que ésta es la única forma de reproducirlos con una calidad aceptable. Sin embargo, estos problemas de calidad parece ser que hoy en día ya están superados gracias a la informática, aliada –o enemiga según algunos- de la fotografía.

Sobre lo que no hay duda es que su desarrollo es constante, que cada vez es mayor el reconocimiento que se le da como fuente de expresión, tal y como cabría esperar de un arte que, a fin de cuentas y como su misma etimología muestra, es la escritura de la luz: “foto” y “grafía”.

Leer Mas...

domingo, 24 de noviembre de 2013

El almacén de Iron Mountain



Iron Mountain Incorporated es una de las compañías líderes mundiales en gestión de datos y su almacén de alta seguridad más conocido se encuentra a más de sesenta metros de profundidad, en una antigua mina de Boyers (Pensilvania). Entre los materiales guardados figura la colección fotográfica Corbis, que pertenece a Bill Gates.
La compañía Iron Mountain fue fundada por Herman Knaust, un hombre de negocios que hizo fortuna cultivando y vendiendo champiñones. En 1936, pagó 9.000 dólares por una mina de hierro abandonada y rodeada por más de 40 hectáreas de tierra en Livingstone (Nueva York). Parece ser que Knaust estaba convencido de que ese era un lugar ideal para el cultivo del champiñón a gran escala. Pero en 1950 el mercado del champiñón cayó en picado y Knaust vio en ello una nueva oportunidad. La Segunda Guerra Mundial y la Guerra Fría habían evidenciado la necesidad de preservar los documentos oficiales en un lugar a salvo de ataques militares o de cualquier otro desastre. El en otro tiempo conocido como Rey del Champiñón rebautizó su mina y fundó la Iron Mountain Atomic Storage, Inc.

Por otra parte, el pueblo de Boyers, en el condado de Butler (Pensilvania), había sido una próspera comunidad minera hasta que agotó sus recursos, y desde 1954 varias empresas utilizaban sus antiguas minas de piedra caliza como almacenes. Tras una época de expansión durante las décadas de los ochenta y noventa del pasado siglo, Iron Mountain compró en 1998 una de las minas de Boyers al grupo National Underground Storage por poco menos de 40 millones de dólares. Por varios motivos, esta mina se convirtió en el buque insignia de la compañía.

Unas 52 hectáreas de la mina están dedicadas al almacenamiento con temperatura controlada, y entre sus clientes se cuentan desde la biblioteca fotográfica de Corbis hasta departamentos del Gobierno, pasando por productoras cinematográficas o archivos nacionales. Las instalaciones están totalmente protegidas de los elementos, son geológicamente estables y pueden resistir un bombardeo.

Cuando se acercan a Iron Mountain, los visitantes son recibidos por guardias armados que comprueban sus credenciales y registran los vehículos minuciosamente. Para entrar en el complejo hay que franquear unas grandes puertas de acero y las visitas deben ir acompañadas en todo momento por personal de la compañía. Los sistemas de seguridad incluyen una estrecha vigilancia en todo el recinto. Ni siquiera Bill Gates conseguiría adentrarse en Iron Mountain así como así.

Leer Mas...

sábado, 23 de noviembre de 2013

Parapsicología y Ciencias Ocultas: las otras "ciencias"




El ocultismo es un conjunto de prácticas e ideas, a veces contradictorias entre sí, que coinciden en postular la identidad entre el ser humano y el cosmos. Desde hace algo más de un siglo, la parapsicología ha sido el intento científico por desentrañar los mecanismos con los que la mente parece influir directamente en la materia, el tiempo y el espacio.

Según la filosofía ocultista, el universo y el individuo está íntimamente relacionados y se expresan mutuamente; uno refleja al otro. Según la Tabla Esmeralda, un famoso texto hermético: “Lo que está arriba es como lo que está abajo, y lo que está abajo es como lo que está arriba, a fin de que se cumpla el milagro de lo Uno”. Así que, si se quiere conocer el estado global de un individuo, para el ocultista lo lógico será estudiar el cosmos. Ese es el sentido de la astrología, que en la combinación de planetas y signos del zodiaco halla un lenguaje simbólico que no determina al individuo, sino que lo expresa. El mismo razonamiento subyace en la quiromancia: las líneas de la mano expresan la totalidad de la persona: pasado, presente y futuro.

Pero no sólo se puede observar pasivamente a la naturaleza, sino que se la puede interrogar, invitarla a que actúe. Se supone que se expresará plenamente en el azar interpretado con un sistema simbólico preestablecido: por ejemplo, las cartas del tarot o las monedas de I Ching, un sistema oracular chino que consiste en lanzar seis veces un grupo de tres monedas hasta formar un hexagrama. Cada hexagrama se corresponde con un texto que, en un lenguaje muy ambiguo, da una serie de indicaciones sobre el estado del sujeto y aconseja sobre la mejor decisión a tomar.

Las mancias

La adivinación occidental nace en las prácticas oraculares romanas y griegas. Se trata o bien de producir fenómenos azarosos, o bien de un adiestramiento del vidente, que aprende a entrar en estados alucinatorios. Este es el caso de la observación por la bola de cristal. La bola ha de estar completamente limpia y pulida, y el adivino pierde en ella su mirada hasta que aparecen una secuencia de imágenes más o menos definidas que se interpretan como respuesta a la pregunta formulada.

Una técnica parecida se usa en la catoptromancia –adivinación por medio de espejos: en un cuarto en penumbra el vidente se concentra en la llama de una vela reflejada y deja surgir las imágenes.

También el agua, preferentemente la de rocío, es utilizada para prever el futuro, y se sigue el mismo
procedimiento de pasividad alucinatoria. Pero el agua permite también las técnicas basadas en el azar: se echa un objeto en el recipiente y se responde a una pregunta según la cantidad y tipo de ondas que se forman en la superficie.

La piromancia consiste en intentar dar la respuesta mirando el fuego, buscando un sentido en las formas y colores de sus lamas.

Con las cenizas se practica otra técnica: se extienden y se escribe en ellas la pregunta, a continuación se sopla por encima y la respuesta dependerá de qué sílabas o letras no se hayan borrado.

Hay infinidad de mancias basadas en procesos casuales: adivinación por los posos del café, manchas de tinta, forma de caer unos alfileres, formación de figuras cuando la crea fundida se solidifica al entrar en contacto con el agua o la ovoscopia, que consiste en que la persona que quiere consultar algo lleva un huevo al vidente y éste, al cascarlo, podrá dar respuesta las preguntas de su cliente.

Quizás haya tantas mancias como videntes. No interesa tanto la técnica concreta, sino la idea de fondo: lo universal refleja lo particular; el azar, los hechos determinados por el destino; el momento expresa el futuro, y el espíritu está emparentado con la materia y puede afectarla, de la misma manera que la transformación de la materia puede transformar el espíritu: ésa era la aspiración de muchos alquimistas, que “torturando” la materia en sus laboratorios no buscaban el que llamaban oro vulgar, sino la transformación del espíritu del alquimista: la sabiduría.

La filosofía

El pensamiento ocultista parte del hermetismo, el gnosticismo cristiano y la cábala judía. El
hermetismo se basa en las revelaciones hechas por Hermes Trimegisto –en griego, “tres veces grande”-, una figura legendaria relacionada con el Hermes de los griegos, el Thoth de los egipcios y el Mercurio de los romanos, a quien se le atribuye la redacción de la Tabla Esmeralda.

El gnosticismo defendía que un dios inferior, el demiurgo –en griego, “artífice del mundo”- es el responsable de la creación de este mundo lleno de dolor y falsedad. Para liberarse sólo hay un medio: la gnosis –conocimiento en el sentido de “intuición” – directa del Dios bondadoso, y superior al malvado demiurgo.

La Cábala también pretende ser un acercamiento directo a Dios. En el momento de la creación, la Torá –los cinco primeros libros del Antiguo Testamento- estaba frente al creador como una serie de letras. Debido al pecado de Adán, las letras se unieron de una forma determinada, aunque podrían haberlo hecho de otra cualquiera y expresar otro sentido. Este sentido es el que busca el cabalista recombinando las letras de la Torá por diferentes métodos.

A través de la adivinación, la magia, la astrología y la alquimia, todas estas ideas estuvieron muy presentes, aunque de forma no oficial, en el pensamiento de Occidente: al propio Tomás de Aquino (1225-1273) se le atribuyen escritos alquimistas redactados, supuestamente, al final de su vida –la “Aurora consurgens”-. Paracelso (1490-1541) mezcló en sí al místico, al filósofo, al astrólogo, al alquimista y el médico que con sus diatribas en contra de la medicina oficial del momento iba escandalizando las universidades europeas. Hay quien la atribuye la fundación o renacimiento de la Fraternidad Rosacruz. Renacimiento porque sus miembros pretenden para su orden una existencia bien antigua: desde el siglo XV a. de C. De hecho, los rosacruces afirman ser los herederos del conocimiento oculto del antiguo Egipto. Otros atribuyen este renacimiento al alemán Christian Rosenkreutz (1378-1484, es decir, 106 años de vida). Pero todo esto parecen más orígenes míticos, pues los rosacruces no se manifestaron como tales antes del siglo XVII, y llevados por un intenso secretismo, no dejaron traslucir cuáles eran sus ideas ni quiénes sus miembros: “También nuestra sede, aunque cien mil personas la hayan visto de cerca, permanecerá eternamente inviolable, indestructible y oculta al mundo entero”, decían en uno de sus manifiestos.

De la anglorusa Helena Blavatsky (1831-1891) se asegura que era capaz, entre otras cosas, de
comunicarse telepáticamente, leer documentos ocultos, variar el peso de las cosas o hacer sonar voces. En 1872, fundó en Nueva York la Sociedad Teosófica. Escribió una extensa obra en la que buscaba una síntesis entre la cultura oriental y la occidental que llevara a una revelación del sentido de la existencia y las leyes de la evolución universal. Blavatsky resumió en tres puntos los objetivos de su sociedad: crear una Fraternidad Universal sin distinción de raza, sexo o credo; estudiar todos los textos sagrados de todas las religiones y, en concreto, reivindicar la importancia de las literaturas brahmánica, budista, taoísta, sufista y zoroastriana; y, por último, investigar la parte oculta de la naturaleza, especialmente los poderes psíquicos latentes del hombre.

Los espiritistas buscan estos mismos poderes, que atribuyen a los muertos. Parten de dos premisas: que el alma existe antes y después de la vida del cuerpo y que es posible la comunicación con esas almas. La creencia en la reencarnación les lleva a adoptar como ideal el perfeccionamiento infinito de los seres humanos e intentar demostrar experimentalmente la supervivencia del espíritu. Sus pruebas son los fenómenos que se dan durante las sesiones espiritistas: ruidos, levitaciones de muebles y personas, curación de enfermedades, aparición de objetos o, directamente, la voz del fallecido o su imagen flotando en la sala. Con la aparición de los primeros investigadores científicos de lo paranormal se demostró que muchos de los médiums más famosos eran en realidad hábiles ilusionistas. Aunque no todos.


La parapsicología

A mediados del siglo XIX, algunos médicos comenzaron a interesarse por estos fenómenos y también
por la hipnosis como psicoterapia, especialmente para casos de histeria. El hipnotismo dio lugar al psicoanálisis, que pronto sustituyó esta técnica por la asociación de ideas y al análisis de los sueños. Pero otros médicos continuaron experimentando fenómenos telepáticos bajo los efectos de la hipnosis, así como su relación con el desdoblamiento de la personalidad –trances hipnóticos y posesión mediúmnica-, lo que dio origen a técnicas como la regresión hipnótica, no ya a momentos de la infancia, sino a supuestas vidas anteriores del sujeto hipnotizado, que era capaz de recordar detalles de épocas lejanas y hablar idiomas ajenos a él hasta el momento.

Los parapsicólogos denominan a este fenómeno memoria extracerebral y hablan de casos resueltos y casos no resueltos. Un caso no resuelto se da cuando una persona, generalmente un niño, muestra los síntomas de recordar una época pasada y un lugar extraño, pero no se consigue verificar la realidad histórica de la persona que afirma haber sido. Un caso resuelto es aquel en el que se consigue casar los datos con los de una persona que vivió y murió.


La percepción extrasensorial

Dicen los parapsicólogos que la telepatía es el fenómeno que más frecuentemente se da en los seres humanos sin necesidad de desarrollar aptitudes especiales y de los más sencillos de reproducir en el laboratorio. Cuando la relación no es de sujeto a sujeto, sino de objeto a sujeto, se habla de clarividencia. El clarividente percibe objetos o acontecimientos lejanos: puede leer papeles ocultos en una caja fuerte, presenciar sucesos que ocurren a cientos de kilómetros de distancia o percibir colores y leer textos por simple contacto con su piel. Algunos clarividentes lo son sólo con objetos muy determinados, por ejemplo, pueden adivinar medicinas escondidas o describir al autor de una carta cuando tocan el sobre.

La precognición es un caso especial de percepción extrasensorial: el individuo recibe información por canales no sensoriales, pero además tiene otra particularidad especialmente inquietante: el salto en el tiempo. Uno de los experimentos realizados por los parapsicólogos ha recibido el nombre de “test de la silla”. Consiste en predecir con semanas de antelación quién se sentará en determinada silla de un sitio público. Afirman que en este tipo de pruebas los niños dan mejores resultados que los adultos y que una amplia cultura y una fuerte creatividad disminuyen la capacidad precognitiva.


Poltergeist

Uno de los fenómenos más complejos estudiados por los parapsicólogos son los poltergeist –en
alemán, “espíritu ruidoso”-; los fenómenos no se atribuyen al más allá, sino a una persona específica a la que se llama epicentro y que muestra poderes psicocinéticos –capacidad de mover objetos con la mente. El fenómeno más común es el ruido: muebles arrastrados, voces y golpes de gran intensidad. Luego, objetos de cualquier tamaño que se mueven: llaves que se salen de las cerraduras, vasos deslizados, libros y sillones que levitan…. Los poltergeist pueden durar apenas unos días o extenderse varios meses. Los parapsicólogos dicen que se deben a la estimulación de las capacidades psicocinéticas del epicentro debido a una crisis psicológica. Los individuos que actúan como epicentro suelen ser jóvenes, más frecuentemente muchachas, alrededor de los veinte años de edad, y no es raro que presenten graves trastornos psicológicos –neurosis, esquizofrenia paranoide- o bien que atraviesen crisis relacionadas con la pubertad.

Psicofonía, psicofotografía y cámara Kirlian

Las primeras psicofonías sucedieron accidentalmente en 1959: en las grabaciones que del canto de los pájaros hacía un ornitólogo apareció el fragmento de una frase: “cantos de esas avecillas”. Durante la grabación, nadie, aparte el ornitólogo, estaba presente. Además, algunos de los gorjeos, decían, no se correspondían con los pájaros de la región. Sucesivas grabaciones aportaron nuevos fenómenos de este tipo. Desde entonces, las psicofonías han sido una práctica preferente de los parapsicólogos aficionados –sólo hace falta una grabadora y mucha paciencia-. En estos registros aparecen ruidos y voces, aunque suele ser muy difícil distinguir qué dicen por la extrema debilidad de la señal, los ruidos ambientales y la reverberación que suele acompañarlas. Para unos, estas psicofonías son sonidos de las almas de los muertos para otros, son interferencias radiofónicas y para otros su origen está en la actividad del inconsciente de los vivos, que sería capaz de grabar en las cintas de misma manera que, dicen, algunos sujetos son capaces de impresionar placas fotográficas con el pensamiento.

El primer caso documentado de psicofotografía se dio en 1963. Ted Serios decía ser capaz, al
principio de la sesión, de velar las fotografías que se le hacían. Al cabo de una o dos horas –cuando, por cierto, había ingerido ya una buena cantidad de whisky- empezaba a grabar su rostro, pero desde el ángulo contrario al que era fotografiado –es decir, imprimía su propia perspectiva de la habitación, no la de la cámara-. También lograba imprimir en las placas imágenes inusuales de edificios famosos. Llegó a grabar cintas de vídeo en las que aparecía y desaparecía su rostro en una nebulosa. Incluso encerrado en una jaula de Faraday –una habitación en la que una persona queda aislada de todo tipo de radiación electromagnética-, Ted Serios fue capaz de impresionar placas situadas en el exterior. Serios dijo perder sus poderes en 1969, pero dejó cientos de fotografías supuestamente realizadas bajo control –el whisky sólo lo tomaba Ted, no los experimentadores- para evitar todo posible fraude. Al final, sometido a un estudio riguroso, Serios fue desenmascarado por magos como James Randi, que replicó el truco en directo en un programa de televisión explicando su funcionamiento.

A mediados de siglo, un investigador presentó unas fotos en las que se veía una mujer tumbada y, sobre ella, una nebulosa. Según el autor, era el alma de su esposa desprendiéndose del cuerpo en el momento de fallecimiento. Este investigador, Hippolyte Baraduc (1909), fue uno de los pioneros de la efluviografía, técnica que después desarrollaron Semyon Davidovich Kirlian (fallecido en 1978) y su esposa Valentina Khrisanova Kirlian. Su método de fotografía consistía en una placa de vidrio y un electrodo conectado a alta tensión. Con este aparato los objetos fotografiados –partes del cuerpo, hojas- aparecen rodeados de un halo que, para algunos es la fotografía, pero que en realidad no es más que el efecto corona debido a la alta tensión eléctrica. Las fotografías parecen revelar una relación entre los colores y los estados emocional y físico del individuo, pero eso no tiene que ver tanto con el aura como por la conjunción de otros factores, como las reacciones de ácido láctico, potasio y aminoácidos, la grasa, el sudor, las bacterias, el grado de humedad y otros contaminantes ionizados.

La parapsicología ha conseguido reunir observaciones y datos sobre hechos antes apartados del estudio científico. Ciertamente, ha conseguido separar muchos fraudes, pero ha confirmado otros y, sobre todo, no ha logrado una teoría general válida que explique sus mecanismos y en qué consisten las fuerzas en juego. Hay más hipótesis que fenómenos a explicar.

Los parapsicólogos se dividen en dos grupos: los materialistas, que defienden que los hechos paranormales son fruto de la aún mal conocida estructura cerebral, y loes espiritualistas, para quienes los procesos mentales se deben a un alma responsable de los fenómenos paranormales. Esta división se vio reforzada durante la Guerra Fría: los parapsicólogos soviéticos y afines adoptaron una postura materialista, y los estadounidenses y afines, una espiritualista. Hoy, muchos parapsicólogos ponen gran parte de sus esperanzas en que la física de con nuevos descubrimientos que permitan explicar estos hechos.

Leer Mas...