martes, 18 de diciembre de 2007

MECANISMOS NEURONALES DE APRENDIZAJE Y MEMORIA




El estudio, con participación del CSIC, aparece en ‘Cerebral Cortex’ Desvelan nuevos datos sobre los mecanismos neuronales del aprendizaje y la memoria

► Los autores revelan la participación del receptor metabotrópico mGluR1 en el proceso de aprendizaje

► La investigación, probada en ratones, se basa en experimentos similares a los realizados en perros por Ivan Pavlov

Madrid, 14 de diciembre, 2007
Un estudio con participación del Consejo Superior de Investigaciones Científicas (CSIC) ha descubierto que los receptores metabotrópicos de glutamato localizados en el hipocampo, claves en la comunicación entre las neuronas, participan también en el aprendizaje por asociación.
El trabajo, cuyas conclusiones aparecen publicadas en Cerebral Cortex, aporta nuevos datos para desentrañar los mecanismos subyacentes al aprendizaje y la memoria.

El neurocientífico del CSIC Alfonso Fairén, junto con Cristina Gil, investigadora de su grupo en el Instituto de Neurociencias (centro mixto del CSIC y la Universidad Miguel Hernández de Elche), en Alicante, han desarrollado este trabajo en colaboración con los investigadores de la Universidad Pablo de Olavide, en Sevilla, Agnès Gruart y José María Delgado García.

En concreto, los autores han descubierto que el receptor metabotrópico mGluR1 interviene en mecanismos relacionados con el aprendizaje en una determinada región del hipocampo. Se trata de un receptor de glutamato, la sustancia química que libera la mayoría de las neuronas al comunicarse entre sí, mediante unos diminutos contactos denominados sinapsis.

Los investigadores utilizaron ratones en los que se había eliminado el receptor mGluR1 mediante manipulación genética, desarrollados por la empresa GlaxoSmithKline.
Los científicos observaron cuál era su respuesta a un experimento de aprendizaje condicionado, similar a los ensayos que realizó con perros el médico ruso y Premio Nobel de Medicina Ivan Pavlov.

Fairén relata cuál fue el resultado: “Mientras que los ratones no manipulados aprendían sin dificultad y mostraban cambios en la eficiencia de los contactos entre neuronas durante el proceso de aprendizaje, los ratones alterados genéticamente no aprendían y sus sinapsis no presentaban cambios”.




PUZZLE DEL APRENDIZAJE Y LA MEMORIA

El investigador del CSIC resume las implicaciones del trabajo: “Existe multitud de genes involucrados en los mecanismos del aprendizaje y su estudio es de indudable importancia. Los resultados obtenidos en esta investigación avanzan en el conocimiento sobre una de las piezas necesarias para la construcción del puzzle de los procesos neuronales que forman el aprendizaje
y la memoria”.

El trabajo asimismo aporta nueva información sobre los receptores objetos de este estudio: “Hasta el momento, se conocía que los receptores metabotrópicos participan en múltiples funciones neuronales, como el desarrollo del sistema nervioso, la producción de nuevas neuronas o la regulación de la eficiencia sináptica”, apunta el investigador del CSIC.

Precisamente, los autores analizaron el papel de mGluR1 en la regulación de la eficiencia sináptica para comprobar si el receptor participaba en los procesos de memorización.
Fairén relata los antecedentes del proceso:

Agnès Gruart y José María Delgado descubrieron en 2006 que el aprendizaje
en ratones puede mejorar la eficiencia de las conexiones neuronales en el hipocampo en el ratón despierto.
A partir del protocolo determinado en ese estudio, quisimos comprobar los cambios de eficiencia de los contactos entre neuronas durante el proceso de aprendizaje de ratones sin mGluR1”.

Los datos del estudio, añade el investigador del CSIC, no sólo revelaron la intervención de mGluR1 en el proceso de aprendizaje asociativo, sino que además permitieron comprobar que los cambios de eficiencia sináptica producidos a causa del aprendizaje y los que son consecuencia de estimulación eléctrica repetitiva de la sinapsis son similares, lo que sugiere que losmecanismos biológicos subyacentes deben de estar relacionados entre sí.



Cristina Gil-Sanz, José M. Delgado-García, Alfonso Fairén y Agnès Gruart, Involvement of the
mGluR1 Receptor in Hippocampal Synaptic Plasticity and Associative Learning in Behaving
Mice Cerebral Cortex, 2007. doi:10.1093/cercor/bhm193
Tomado de la web del CSIC

sábado, 17 de noviembre de 2007

MAURITS CARNELIS ESCHER




Maurits Cornelis Escher nació en 1898 en Leeuwarden (Países Bajos), siendo el hijo más joven de un ingeniero hidráulico. Su profesor F.W. van der Haagen le enseñó la técnica de los grabados en linóleo y fue una gran influencia para el joven Escher.




No fue precisamente un estudiante brillante, y sólo llegó a destacar en las clases de dibujo. En 1919 y bajo presión paterna empieza los estudios de arquitectura en la Escuela de Arquitectura y Artes Decorativas de Haarlem, estudios que abandonó poco después para pasar como discípulo de un profesor de artes gráficas, Jessurum de Mesquitas. Adquirió unos buenos conocimientos básicos de dibujo, y destacó sobremanera en la técnica de grabado en madera, la cual llegó a dominar con gran perfección.




Entre 1922 y 1935 se traslada a Italia donde realiza diversos bocetos y grabados principalmente de temas paisajísticos. Abandona Italia debido al clima político de aquellas fechas, trasladándose a Suiza, y pasó algunos años en Suiza, cuyo clima le resultó muy desagradable y poco inspirador. Añora el sur de Italia y lo frecuenta repetidas veces.
También viaja a España, y en particular a Granada. Visita dos veces la Alhambra, la segunda vez de forma más detenida, copiando numerosos motivos ornamentales. Lo que aprendió allí tendría fuertes influencias en muchos de sus trabajos, especialmente en los relacionados con la partición regular del plano y el uso de patrones que rellenan el espacio sin dejar ningún hueco.




En 1941 se muda a Baarn (Países Bajos), después de una estancia difícil en Bélgica (estamos en plena 2ª Guerra Mundial). Parece que debido al habitual mal tiempo de esa región, donde los días soleados se consideran una bendición, es por lo que abandona los motivos paisajísticos como modelos y se centra más en su propia mente, encontrando en ella una potentísima fuente de inspiración.




Hasta 1951 vivió básicamente dependiendo económicamente de sus padres. A partir de entonces fue cuando comenzó a vender sus grabados y obtener un buen dinero por ellos. Esto le permitió vivir sus últimos años con una economía personal excelente. Generalmente hacía copias de las litografías y grabados por encargo. También hizo por encargo diseños de sellos, portadas de libros, y algunas esculturas en marfil y madera. En cierto modo le resulta gratificante y a la vez fácil, y se admiraba de tener en su taller una especie de «máquina de fabricar billetes» reproduciendo sus propias obras.
Normalmente no usaba elementos de obras anteriores en las nuevas nuevas, excepto en los encargos especiales. Hacía, por ejemplo, esculturas en madera basadas en algunos de sus dibujos, y para algunas peticiones especiales reciclaba parte de las ideas y elementos de obras anteriores.Quizás por ello en este período su producción sea tan fructífera y regular, y sólo se verá interrumpida por la operación que sufrió en 1962, consecuencia de su debilitada salud.



En 1969 con 71 años realiza su grabado "Serpientes" donde demuestra sus facultades a pesar de su avanzada edad.

En 1970 se traslada a la Casa Rosa Spier de Laren, al norte de Holanda, donde los artistas podían tener estudio propio. En esa ciudad fallece dos años más tarde, en 1972.





OBRA:


Grabados en madera, y también unos 2.000 dibujos y borradores. De muchos existen decenas de reproducciones, cientos e incluso miles de otros. Al final de su carrera destruyó algunas de las planchas para que no se realizaran más reproducciones de originales. También existen estudios y borradores de muchas de sus obras, en ocasiones también varias versiones de algunas de ellas. Muchas de su obras se vendieron masivamente poco después de su muerte y están esparcidas por el mundo. Un grupo importante está expuesto de forma permanente en el Museo Escher en La Haya, Holanda.




El análisis de sus obras, tal y como definió Bruno Ernst, uno de sus biógrafos, permite clasificarlas básicamente en tres temas y diversas categorías:

La estructura del espacio – incluyendo paisajes, compenetración de mundo y cuerpos matemáticos.

La estructura de la superficie – Metamorfosis, ciclos y aproximaciones al infinito.

La proyección del espacio tridimensional en el plano – Representación pictórica tradicional, perspectiva y figuras imposibles.



Tomado de WIKIPEDIA

domingo, 4 de noviembre de 2007

TEOREMA DE LA INCOMPLETITUD DE GÖDEL

Gödel, y Einstein, grandes amigos, dedujeron leyes y teoremas, que cambiaron la visión científica del mundo hasta ese momento.

En lógica matemática, los teoremas de la incompletitud de Gödel son dos célebres teoremas demostrados por Kurt Gödel en 1930.


Simplificando, el primer teorema afirma:

En cualquier formalización consistente de las matemáticas que sea lo bastante fuerte para definir el concepto de números naturales, se puede construir una afirmación que ni se puede demostrar ni se puede refutar dentro de ese sistema.
Este teorema es uno de los más famosos fuera de las matemáticas, y uno de los peor comprendidos. Es un teorema en lógica formal, y como tal es fácil malinterpretarlo. Hay multitud de afirmaciones que parecen similares a este primer teorema de incompletud de Gödel, pero que en realidad no son ciertas. Éstas se comentan en Malentendidos en torno a los teoremas de Gödel.

El segundo teorema de la incompletitud de Gödel, que se demuestra formalizando parte de la prueba del primer teorema dentro del propio sistema, afirma:

Ningún sistema consistente se puede usar para demostrarse a sí mismo.


Este resultado fue devastador para la aproximación filosófica a las matemáticas conocida como el programa de formalización Hilbert. David Hilbert propuso que la consistencia de los sistemas más complejos, tales como el análisis real, se podía probar en términos de sistemas más sencillos.




Finalmente, la consistencia de todas las matemáticas se podría reducir a la aritmética básica. El segundo teorema de la incompletud de Gödel demuestra que la aritmética básica no se puede usar para demostrar su propia consistencia, y por lo tanto tampoco puede demostrar la consistencia de nada más fuerte.



Significado de los teoremas de Gödel


Los teoremas de Gödel son teoremas en lógica de primer orden, y deben entenderse en ese contexto. En lógica formal, tanto las afirmaciones matemáticas como las demostraciones se escriben en un lenguaje simbólico en el que se puede comprobar mecánicamente la validez de las pruebas. De este modo no puede haber ninguna duda de que un teorema se deduce de nuestra lista inicial de axiomas. En teoría, este tipo de pruebas se puede verificar con un ordenador, y de hecho hay programas que lo hacen (se llama razonamiento automatizado).



Para poder realizar este proceso se necesita saber cuáles son estos axiomas. Se puede partir de un conjunto finito de axiomas, como en la geometría euclídea, o más en general se puede permitir un número infinito de axiomas con el requisito de que dada una afirmación se pueda verificar mecánicamente si ésta es uno de los axiomas. Aunque pueda sonar extraño el uso de un número infinito de axiomas, esto es precisamente lo que se hace habitualmente con los números naturales, los axiomas de Peano.


El primer teorema de la incompletitud de Gödel demuestra que cualquier sistema que permita definir los números naturales es necesariamente incompleto: contiene afirmaciones que ni se pueden demostrar ni refutar.





La existencia de un sistema incompleto no es en sí particularmente sorprendente. Por ejemplo, si se elimina el postulado del paralelismo de la geometría euclídea se obtiene un sistema incompleto. Un sistema incompleto puede significar simplemente que no se han descubierto todos los axiomas necesarios.



Lo que mostró Gödel es que en la mayoría de los casos, como en la teoría de números o en análisis real, nunca se puede descubrir el conjunto completo de axiomas. Cada vez que se añada un nuevo axioma siempre habrá otro que quede fuera de alcance.



También se puede añadir un conjunto infinito de axiomas. Por ejemplo, todas las afirmaciones verdaderas sobre los números naturales, pero esa lista no será un conjunto recursivo. Dada una afirmación cualquiera, no habrá forma de saber si es un axioma en el sistema o no. Dada una prueba no habrá en general una manera de verificar que esa prueba es válida.



El teorema de Gödel tiene otra interpretación en el contexto de la informática. En lógica de primer orden, los teoremas son recursivamente enumerables: se puede construir un programa de ordenador que terminará por dar una demostración válida. Sin embargo, no cumplen la propiedad más fuerte de ser un conjunto recursivo: no se puede construir un programa que dada una afirmación cualquiera determine si ésta es cierta o no.




Muchos lógicos piensan que los teoremas de incompletitud de Gödel asestaron un mazazo fatal al programa de formalización de Hilbert que apuntaba a un formalismo matemático universal. La postura aceptada generalmente es que fue el segundo teorema el que asestó este golpe. Algunos sin embargo piensan que fue el primero, e incluso hay quien piensa que ninguno de ellos lo hizo.




TOMADO DE WIKIPEDIA

jueves, 25 de octubre de 2007

ATMÓSFERAS PLANETARIAS



Agustín Sánchez-Lavega. Doctor en Ciencias Físicas y catedrático de Física Aplicada de la Escuela Superior de Ingenieros Universidad del País Vasco (UPV).

“Ciertamente, creo que encontrar un planeta tipo Tierra en alguna de las estrellas cercanas es cosa de unos pocos años”.

Considerado uno de los expertos mundiales en atmósferas planetarias, su actividad científica se ha centrado en el estudio de las atmósferas de Júpiter y Saturno.
Los resultados de sus investigaciones han sido portada de la prestigiosa revista Nature en dos ocasiones: en 1990, cuando su grupo detectó con el Hubble una enorme tormenta en Saturno, y en 2003, al alertar acerca del extraño comportamiento de los potentísimos vientos que se dan en la atmósfera de este planeta.
Recientemente ha abordado una posible clasificación de la dinámica atmosférica de los planetas extrasolares. Su equipo participa en la misión 'Venus Express', la tercera de la ESA a otro mundo después de la 'Mars Express' y de la 'Huygens', sonda que se posó en Titán, una de las lunas de Saturno, en 2005. Importante, también, es su papel de divulgador, acercando a la sociedad cuantas novedades se producen en las Ciencias Planetarias y fundamentalmente en la dinámica de sus atmósferas, mediante artículos en prensa, conferencia y entrevistas.




¿El Sistema Solar es todavía una caja de sorpresas?

Absolutamente. Cada nueva misión espacial nos sorprende, incluso sobre objetivos que creíamos conocer bien como pueden ser Venus, Marte, Júpiter y Saturno. Si a esto añadimos que apenas conocemos de cerca la variedad de asteroides, los objetos mas lejanos del cinturón de Júpiter, Plutón, … Tenemos tanto que explorar.



¿Dónde están los límites de la exploración espacial, hasta dónde podemos llegar?

No creo que existan límites. Pensemos en nuestro planeta, donde vivimos. Es objeto continuo de estudio, su interior, sus orígenes, su atmósfera (pasada y presente),... ¿Como vamos a olvidarnos de explorar todos los demás objetos del sistema solar con la misma intensidad? El paso siguiente será la traída de muestras de otros mundos a la Tierra y, cuando la tecnología lo permita, su visita por el hombre.

Usted es experto en atmósferas planetarias, Titán es un satélite que tiene atmósfera. En cambio hay planetas, como Mercurio, que no la tienen. ¿Cuáles son las consecuencias de tener o no tener atmósfera?

La consecuencia más importante de que un planeta tenga atmósfera es que da posibilidades a la aparición de vida, si sus condiciones son apropiadas. Aunque obviamente esto no es garantía (basta con ver nuestro sistema solar). Se requieren muchas otras cualidades por parte del planeta y de su entorno.




¿Qué información nos pueden aportar las atmósferas de Saturno y Júpiter?

El conocimiento de las atmósferas de estos planetas (y de todos los demás en general), nos permite tener una amplia visión, comparativa, de nuestra propia atmósfera. Es como la vida. Solo tenemos un ejemplo, la terrestre.
Figuremos lo que avanzaríamos si la conociésemos en otros entornos. Las atmósferas planetarias son laboratorios naturales en las que podemos mejorar y contrastar nuestras teorías (nunca podríamos tener una atmósfera gaseosa sobre un cuerpo esférico en un laboratorio). Júpiter y Saturno tienen furiosas corrientes en chorro, tormentas gigantescas, ciclones y anticiclones inmensos, … Podemos ver si nuestras teorías sobre esos fenómenos funcionan en las condiciones que se dan allí y así mejorar nuestros propios modelos terrestres.

En la actualidad hay 133 planetas o candidatos a planetas extrapolares que se han descubierto. ¿Hay algún planeta de éstos al que se le haya detectado atmósfera?

Si, hay al menos cuatro de los que conocemos propiedades de sus atmósferas. En los veintitantos en los que se ha podido medir la masa y el radio, sabemos por su densidad media, que son gaseosos. Y en los demás aunque no tenemos el radio, podemos inferir por su masa que también son gaseosos.




Titán, el satélite del planeta Saturno, le llevó a usted y a Ricardo Hueso a las páginas de Nature. ¿Cuál fue su descubrimiento?
Elaboramos por primera vez un modelo de cómo podían producirse tormentas de metano y cuanta precipitación podían generar. De esta forma propusimos una explicación a la existencia de lagos de metano (líquido) en el satélite, algo que escasamente un mes después, confirmó el radar de la nave Cassini al sobrevolar de cerca este mundo.

¿Podríamos encontrarnos, a medida que avanzan las investigaciones y con la tecnología actual, un planeta tipo Tierra?

Ciertamente, creo que encontrar un planeta tipo Tierra en alguna de las estrellas cercanas es cosa de unos pocos años. Cuando los nuevos telescopios espaciales entren en órbita en los próximos 10 a 20 años, tendremos constancia de la presencia de planetas terrestres. De hecho ya se ha descubierto una “Super Tierra”, un planeta a mitad de camino entre la Tierra y Neptuno.




Usted y su equipo participan en diversos proyectos de la Agencia Europea del Espacio (ESA), y usted también forma parte de su consejo asesor para la exploración del Sistema Solar ¿ hacia donde se dirige Europa en la “carrera espacial”?

Hasta donde yo sé hay muchos frentes abiertos. En ciencia, la ESA tiene en este momento un programa denominado “Visiones Cósmicas” a realizar entre 2015 y 2025 y con el cual se pretende desarrollar varias misiones de exploración, del Sistema Solar y de Astrofísica en general. Son varios los comités que habrán de seleccionar de entre todas las propuestas presentadas. Lástima que muchas de ellas, por falta de presupuesto, no podrán llevarse adelante.

¿En qué medida está presente la ciencia en su vida diaria?

Creo que está presente en todas las personas, no solo en mi mismo. Vivimos en una sociedad científico-tecnológica de la que no podemos abstraernos, salvo casos ideológicos extremos. Yo convivo cada día con la ciencia, tanto con mis alumnos en la Universidad como con la investigación que comparto con los miembros de mi equipo.



Resto de la entrevista en la página web del MUSEO DE LA CIENCIA DE VALLADOLID, de donde está tomado el artículo

sábado, 13 de octubre de 2007

BIOGEOGRAFÍA








La superficie de la Tierra no es uniforme, ni en toda ella existen las mismas características. El espacio isotrópico que utilizan, o suponen, los esquemas teóricos de localización es tan solo una construcción matemática del espacio.

Para empezar existen en el planeta tres medios diferentes en los que se desarrolla la vida: la tierra, el agua y el aire.
Son tres medios radicalmente distintos, en los que la adaptación de las especies al mismo les da características especiales y singulares. Pero aún más, dentro de cada uno de estos medios, y en función de sus irregularidades geográficas, se individualizan espacios con características diferentes, en los que se desarrollan formas endémicas de vida. Un endemismo es una especie exclusiva de un lugar. Estas formas, con ser abundantes, no son las únicas. En cada uno de estos espacios se desarrollan multitud de especies que viven entre dos medios. Además, hay especies, que interactuando unas con otras, cierran ciclos en los que se traspasa energía y materia de un sistema a otro, como el ciclo del sol o la cadena trófica.

Cada uno de estos espacios en los que se desarrolla la vida de una forma equilibrada, entre animales, plantas, suelo y clima, se llama ecosistema.
En él existen todos los intercambios necesarios para el mantenimiento de todas las especies. Pero cada ecosistema no está aislado de los que tiene a su alrededor, sino que por el contrario existen competencias entre ellos, formando zonas mixtas de transición, en las que las especies de diversos ecosistemas compiten por el espacio. Incluso, aunque los tres medios que existen en la Tierra parecen radicalmente distintos, tierra, aire y agua, no son independientes, ya que interactúan unos con otros para proporcionar oxígeno, agua, detritos y otros elementos que se intercambian entre los tres medios, haciendo que se modifiquen sus flujos de circulación, e incluso su aspecto y su relieve.

Los ecosistemas en los que se cumplen todas las transferencias necesarias para su mantenimiento no tienen porqué ser permanentes, sino que se modifican con mayor o menor rapidez a lo largo del tiempo.
Las condiciones climáticas, edáficas y de competencia por el medio entre las especies, pueden cambiar.
El equilibrio se mantiene entre unos umbrales máximos y mínimos, traspasados los cuales comienzan a actuar unos procesos nuevos, hacia el establecimiento de otro ecosistema diferente.
Este umbral no es el mismo para todas las especies de una biocenosis, pero será la especie dominante, o la que necesite un mejor estado del ecosistema, la que nos advierta sobre la posibilidad de un cambio irreversible. Este cambio es más frecuente, y delicado, en las zonas de transición entre ecosistemas. Los factores que influyen en la diversidad de la naturaleza, y cuyos umbrales son decisivos para establecer el equilibrio ecológico son: el suelo, el clima y la asociación entre especies, o biocenosis. También tendremos que tener en cuenta las modificaciones antrópicas de la biocenosis.
Tomado de la web: Página de Geografía

domingo, 30 de septiembre de 2007

ESTRATIGRAFÍA




La estratigrafía es la rama de la geología que trata del estudio e interpretación de las rocas sedimentarias estratificadas, y de la identificación, descripción, secuencia, tanto vertical como horizontal; cartografía y correlación de las unidades estratificadas de rocas.

Generalidades




Estratificación es la disposición en capas paralelas de las rocas sedimentarias.


Estrato es cada una de las capas de que consta una formación de rocas estratificadas.


Techo del estrato es su superficie superior.

Muro del estrato es su superficie inferior.

Secuencia estratigráfica es una sucesión de estratos.

Serie estratigráfica es una sucesión de estratos con continuidad en el tiempo y separada de otras series por una discontinuidad estratigráfica.
Laguna estratigráfica es un período de tiempo en el que no se produce estratificación.


Datación de los estratos


Relativa


Ordena los estratos y acontecimientos en una secuencia según su antigüedad.

Se apoya en los principios básicos de la estratigrafía:

Principio de la horizontalidad original: Los estratos se depositan de forma horizontal y permanecen horizontales si no actúa ninguna fuerza sobre ellos.

Principio de la continuidad lateral: un estrato tiene la misma edad a lo largo de toda su extensión.

Principio de la superposición: Si sobre una secuencia estratigráfica no se ha ejercido ninguna fuerza, el estrato más antiguo se sitúa en la parte inferior y el más moderno, en la superior.

Principio del uniformismo: Las leyes que rigen los procesos geológicos han sido las mismas en toda la historia de la Tierra.

Principio del actualismo: Los procesos geológicos actuales son los mismos que actuaban en el pasado y producen los mismos efectos que entonces.

Principio de la sucesión faunística o de la correlación: Los estratos que se depositaron en diferentes épocas geológicas contienen distintos fósiles. Ejemplo: los trilobites corresponden a la era primaria; los ammonites, a la secundaria; y los nummulites, a la terciaria.

Principio de la sucesión de eventos: Todo acontecimiento geológico es posterior a las rocas y procesos afectados por él.


Absoluta
Permite hallar la edad de un estrato o acontecimiento geológico determinado, por los métodos:

Biológicos: analizan ritmos biológicos que siguen intervalos regulares de tiempo en su desarrollo(los anillos de los árboles y las estrías de los corales).



Sedimentológicos: Analizan los depósitos de sedimentos que siguen inervalos regulares de tiempo. Ejemplo: las varvas glaciares son sedimentos en el fondo de los lagos glaciares. En invierno se deposita un sedimento delgado y oscuro; y en verano, uno grueso y claro. Así, cada pareja de capas corresponde a un año.


Radiométricos: se basan en el período de semidesintegración de los elementos radiactivos ; éstos transforman en dicho período la mitad de su masa en elementos no radiactivos. Así, conocido el período de semidesintegración de un elemento radiactivo contenido en un estrato y el porcentaje del elemento radiactivo que se ha desintegrado, se puede datar el estrato o el acontecimiento.


Accidentes en los cortes estratigráficos










Inversión estratigráfica


Consiste el la formación de un pliegue inclinado hasta tal punto que, en alguna parte del corte estratigráfico, los estratos más antiguos se encuentran dispuestos sobre los más modernos.


Discontinuidad estratigráfica



Es la separación entre dos series estratigráficas, debida a la existencia de una laguna estratigráfica. Hay varios tipos:


Discordancia angular: la serie antigua se encuentra plegada, de modo que forma un ángulo con la serie moderna.

Discordancia erosiva o disconformidad: la serie antigua se encuentra erosionada en su parte superior, y sobre ella se ha depositado la serie moderna, con lo que las dos series están separadas por una superficie irregular.

Inconformidad: La serie estratigráfica está depositada sobre un material no estratificado (rocas metamórficas o ígneas).

Paraconformidad:: la separación entre las dos series estratigráficas es horizontal y, por lo tanto, no se distingue de la separación normal entre dos estratos.


Bibliografía recomendada

DABRIO GONZÁLEZ, C. J. y HERNANDO COSTA, S. (2003): Estratigrafía
VERA TORRES, J.A.(1994): Estratigrafía. Principios y métodos.


Tomado de WIKIPEDIA

sábado, 15 de septiembre de 2007

LA FÍSICA DE PARTÍCULAS



Frank Wilczek (15 de mayo de 1951) es un físico norteamericano de origen polaco e italiano.


Junto con David Gross y David Politzer recibió el Premio Nobel de Física 2004 por el descubrimiento de la libertad asintótica en la teoría de la interacción fuerte.






En 1973, Wilczek, un estudiante graduado trabajando con David Gross en la Universidad de Princeton, descubrió la libertad asintótica que afirma que mientras más próximos estén los quarks menor es la interacción fuerte entre ellos; cuando los quarks están extremadamente próximos la interacción nuclear entre ellos es tan débil que se comportan casi como partículas libres.

La libertad asintótica, descubierta independientemente casi al mismo tiempo por David Politzer, fue importante para el descubrimiento de la cromodinámica cuántica.







Wilczek ayudó al conocimiento y desarrollo de aniones, axiones, libertad asintótica y otros aspectos del campo de la teoría cuántica en general y ha investigado en física de materia condensada, astrofísica y física de partículas.

Sus actuales investigaciones incluyen:

Partículas físicas puras

Comportamiento de la materia: temperaturas ultra-elevadas, densidad y estructura de fase

Aplicaciones de la física de partículas a la cosmología

Aplicaciones de técnicas de teoría cuántica de campos a la física de materia condensada
Teoría cuántica de los agujeros negros.






Nacido en Mineola, New York, Wilczek fue educado en las escuelas públicas de Queens. Recibió su título de Ciencias Matemáticas en la Universidad de Chicago en 1970, un Master de Artes en Matemática en la Universidad de Princeton en 1972 y su doctorado en Física en la Universidad de Princeton en 1974. Es profesor de física en Centro MIT de Física Teórica. Trabajó en el Instituto de Estudios Avanzados en Princeton y en el Instituto Kavli para Física Teórica en Santa Barbara, California.






Tomado de Wikipedia

domingo, 26 de agosto de 2007

BLADE RUNNER, 25 AÑOS DESPUÉS



El futuro según 'Blade Runner'Hace 25 años se estrenaba en España la cinta más influyente de la ciencia ficción, una sombría premonición del caos urbano

O. L. BELATEGUI/El Norte de Castilla 22-ago-2007



Estrenada en España justo ayer hace veinticinco años, 'Blade Runner' se estrelló en taquilla, pero no tardó en convertirse en una película de culto. El público de entonces esperaba una cinta de acción futurista, en la estela de 'La guerra de las galaxias'; el protagonista, Harrison Ford -alias Han Solo e Indiana Jones-, prometía aventura escapista. Ni la crítica ni el público vislumbraron el sustrato filosófico del filme más influyente de la ciencia ficción.

Y es que 'Blade Runner' proyecta su apocalíptica sombra sobre el diseño, la arquitectura, el cine y el cómic posteriores. Ridley Scott supo rodearse de talentos visionarios que dibujaron un futuro que ya es presente. El director de 'Alien' y 'Gladiator' no ha vuelto a hacer una película mejor.
La novela de Philip K. Dick publicada en 1968 '¿Sueñan los androides con ovejas eléctricas?' le sirvió para dibujar un Los Ángeles superpoblado, que en el 2019 aparece como una megalópolis putrefacta, construida a base de rascacielos piramidales y coches que vuelan sobre calzadas húmedas. Un 'melting pot' humano entre neones intermitentes. Una vívida y aterradora premonición de nuestras ciudades bajo la síntesis de tecnología avanzada y decadencia social.




Ninguna otra película ha provocado tantos análisis; Google detecta casi tres millones de páginas web que hablan de 'Blade Runner'. Ridley Scott, que padeció un rodaje de pesadilla en lucha contra el estudio, los técnicos y su estrella principal, se ha ocupado de mantener viva la atención con nuevos montajes del filme. Warner anuncia para diciembre el lanzamiento mundial de 'Blade Runner. The Final Cut'. El 'montaje final' -el quinto desde 1982- añade escenas y pule efectos especiales. En su edición de lujo, un maletín de aluminio como el del cazarreplicantes Rick Deckard contendrá cinco DVD con todas las versiones, un sinfín de extras, miniaturas, fotografías, una carta firmada por Scott y hasta el celebérrimo unicornio de papel que tantas disquisiciones ha provocado.






Ese unicornio se encuentra a la misma altura filosófica que el monolito de Kubrick en '2001'. En el mundo imaginado por Dick, los androides (robots con apariencia humana) se llaman replicantes y son ilegales. Una Policía especial tiene derecho a 'retirarlos', aterrador eufemismo de exterminarlos: son los 'blade runner', un término cortesía del escritor William Burroughs. La gracia reside en que los androides, pese a su apariencia punk, resultan más humanos que los humanos. Buscan identidad y afecto como la criatura de Frankenstein, sumidos en una patética e inútil plegaria a su creador para que les alargue la vida. Deckard descubrirá en su cacería que su presa no son los robots insensibles que imaginaba. ¿O es él también un replicante?



Pero 'Blade Runner' posee virtudes que van más allá de lo filosófico y lo ético. Se convirtió en piedra angular de un nuevo movimiento literario, el ciberpunk, y reanimó la carrera de Philip K. Dick. Su diseño de producción, densamente conceptualizado, marcó la estética de películas, anuncios, videoclips y series de televisión. ¿Cuántas veces hemos visto desde entonces interiores llenos de humo y cortantes haces de luz? Una de las primeras influencias visuales de Scott fue el retrato de la soledad que presenta el pintor Edward Hopper en su cuadro 'Nighthhawks'. Los paisajes alucinantes y retorcidos de la revista de cómics 'Heavy Metal' le condujeron a reclutar a los dibujantes Syd Mead y Moebius. El técnico en efectos especiales Douglas Trumbull, responsable de los ballets espaciales de '2001', y el músico Vangelis se sumaron a una conjunción de talentos irrepetible.






Juntos crearon un entorno futurista basado en un concepto ideado por Scott, 'retrofitting' o retroutilización: actualizar maquinarias y edificios añadiéndoles elementos nuevos. Los vehículos, viviendas, calles y bares no lucen asépticos como en el cine de ciencia ficción de hasta entonces. Se llegaron a diseñar y construir los interruptores de la luz, las tarjetas de crédito, los vasos, las portadas de revistas expuestas en los quioscos. Paraguas con luz, pantallas planas de televisión, fotografías digitales, la 'interlingua' que hablan los protagonistas. «Un mundo de detritus culturales, donde lo atávico convive con la más avanzada tecnología», según el diseñador Juli Capella.







Ironías del destino, Syd Mead escogió como punto de partida de sus diseños urbanos las torres gemelas del World Trade Center. Ya no existen, igual que marcas comerciales que aparecen en el metraje, como Atari y Cuisine Art. El tiempo, el gran tema de 'Blade Runner', según Fernando Savater, no ha envejecido lo más mínimo esta sombría epopeya. Y la muerte del androide Roy Batty, una de la más hermosas de la historia del cine, conmueve veinticinco años después. «Al final, cuando expira el tiempo, vuelve la constancia de lo irrepetible», reflexiona Savater. «'Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia' Bienvenido a la humanidad, hermano replicante».



Tomado de la web: HOTELKAFKA