viernes

EL MARGEN DE FERMAT


Pese a que son consideradas como un martirio por la mayor parte de las personas (que aún recuerdan su sufrimiento con ellas cuando eran estudiantes), las matemáticas tienen un verdadero encanto oculto, una atracción misteriosa que no en vano ha llevado a miles de hombres y mujeres a la locura.

No es para menos. El mundo matemático presenta unas particularidades tales que quien entra en sus dominios ha de abandonar aquellos de la vida real. Seguramente los matemáticos fueron los primeros en responder al estereotipo del “genio loco” (tan común en la actualidad): muchos de los matemáticos más prestigiosos se caracterizaban por su particular excentricidad.
La historia de Fermat

Pierre de Fermat no fue la excepción. Caracterizado por un estilo de vida sencillo, prosaico, era un fanático de la cultura grecorromana, versado en gran cantidad de obras literarias, poéticas y científicas. Su fascinación por la ciencia lo llevó a rechazar la fama y cualquier tipo de reconocimiento público: como le dijo a Descartes en una de sus cartas, él buscaba la verdad y no le interesaba distraerse con asuntos tan mundanos como el prestigio.

Vivió en el siglo XVII, en la Francia del Rey Luis XIV. Por su obra se le conoce como el padre de la teoría de los números. No profundizaré aquí en el significado de esto, baste saber conque fue pionero en estos campos y desarrolló, entre otras, los conceptos de números perfectos, números amigos, números de Fermat, entre muchos otros.

El Último Teorema

Antes de morir, Fermat se encontraba (como siempre) dedicado a sus análisis. En un momento de lucidez elaboró el que sería conocido como El Último Teorema de Fermat, en el que postuló lo siguiente: Es imposible encontrar la forma de convertir un cubo en la suma de dos cubos, una potencia cuarta en la suma de dos potencias cuartas, o en general cualquier potencia más alta que el cuadrado, en la suma de dos potencias de la misma clase.

Trataré de explicar este teorema de la manera más sencilla posible. Pensemos en la igualdad 32 + 42 = 52: esto se cumple pues 9 + 16 = 25. Lo que Fermat postuló es que esta igualdad solo existe para el cuadrado, es decir, no existen tres números con los que se pueda hacer esto si se elevan al cubo, a la cuatro o a cualquier potencia mayor a dos. En términos matemáticos, an + bn = cn solo funciona si “n” es igual a 2, pues si es mayor, es imposible lograr la igualdad.

Basta de teorías. Este Teorema resultó fascinante para los matemáticos de su tiempo, pero una cosa es postular algo y otra, demostrarlo. Fermat había anotado su último teorema en el margen de uno de sus libros de Arithmetica de Diofano de Alejandría, y por su desinterés en la fama no se habría molestado en publicarlo. No sería hasta después de su muerte que se descubriera la nota, con un pequeño comentario que decía:

“…he descubierto una demostración maravillosa de esta afirmación. Pero este margen es demasiado angosto para contenerla”

¡Vaya osadía! Matemáticos de todos los orígenes maldecirían a Pierre de Fermat por más de tres siglos debido a ella. El hombre, convencido de su genialidad, consideró que no necesitaba probar el teorema, que ya lo haría después, en fin, no sabemos qué pasaba por su cabeza… pero sí sabemos que su teorema se convirtió en uno de los problemas más famosos de las matemáticas de todos los tiempos. Suponemos que Fermat murió antes de escribir su prueba, o que la demostración se perdió en algún momento.
Una explicación que nadie pudo encontrar

Luego de Fermat vendrían muchas de las mentes más brillantes de la Historia. Euler, Gauss, Cauchy, Lagrange, todos ellos matemáticos geniales que dedicaron años, décadas a buscar esta solución. Ninguno de ellos fue capaz de demostrar el teorema, ninguno pudo lograr lo que, supuestamente, habría logrado Fermat. Fue tal el misterio que se cuenta que Euler, presa de la desesperación, pidió a un amigo que revisara de arriba abajo la casa de Fermat en busca de la demostración. Nunca se halló nada, pero a medida que avanzaba el conocimiento quedaba más y más claro que Fermat tenía razón.

Al final, el teorema vino a convertirse en una especie de leyenda, en un monstruo de las matemáticas al que nadie era capaz de enfrentarse. Les tomaría a los matemáticos 350 años descifrar los secretos del Último Teorema de Fermat: el honor correspondería a Andrew Wiles, un matemático británico que fue capaz de demostrarlo tras pasar 8 años trabajando en ello. Lo que hizo fue demostrar un nuevo teorema que, a su vez, permitía demostrar el Teorema de Fermat.
Por fin se resuelve el Teorema

Wiles trabajó en secreto, pero por alguna razón corrió la voz de que en una serie de conferencias de la Universidad de Cambridge el hombre iba a demostrar este teorema. Esto causó que su última presentación estuviera completamente abarrotada. El matemático terminó su presentación diciendo “y esto demuestra el último teorema de Fermat. Creo que lo dejaré aquí”. Lo siguiente fue seguramente la ovación más estruendosa que ha recibido cualquier matemático en los últimos 200 años. Esto ocurrió hace 22 años, en 1993: la justificación tenía más de 100 páginas.

Queda la pregunta de si Fermat realmente tenía una respuesta. ¿Ocurriría, acaso, que se confundió y fue incapaz de probarlo posteriormente? ¿Se trataba de una broma? ¿O realmente fue capaz de demostrarlo y por pereza o confianza decidió no anotar su demostración?

No sabemos qué sucedió con Fermat, pero sabemos que su teorema resultó ser completamente cierto, lo que indica que, quizás, al final de cuentas sí tenía una demostración. Lo cierto es que su Último Teorema es prácticamente una leyenda de las matemáticas. ¿Conoces alguna historia semejante en otra ciencia?

jueves

ADIOS A LA LUNA


¿Qué ocurriría si la luna desapareciera de repente?
Lo primero que notaríamos es que las noches serían mucho más oscuras ya que no existirían las fases lunares (recuerda que la fase de la “luna llena”, debido a la reflexión del sol, ilumina parcialmente nuestro planeta).También se verían suprimidos los eclipses de luna y de sol.

Sin embargo, en principio, esto no tendría que ser del todo malo ya que podríamos observar las estrellas en su máximo esplendor sin tener que experimentar los problemas de la contaminación acústica.

Si la luna desapareciera, las mareas de la tierra también experimentarían algunos cambios muy importantes.La luna ejerce una cierta presión gravitatoria sobre nuestro planeta; aunque el sol también consigue crear cierta gravitación, está demasiado lejos. Si la luna desapareciera, las mareas serían mucho más flojas, el agua se estancaría, las orillas de los mares perderían su sistema de drenaje y estarían mucho más sucias.Aumentaría el nivel del mar en diferentes costas, y se reduciría en otras. En general, cambiaría completamente la actuación de las mareas tal y como las conocemos.

Si no existiera la luna, la presión terrestre se ralentiza haría; de esta manera, el eje de rotación de la tierra empezaría a perder estabilidad. Sería como una especie de peonza que empezaría a bambolearse como cuando está a punto de precipitarse contra el suelo: esto podría hacer que su eje variase entre los 0 y los 90°.Y esto también supondría una catástrofe porque podríamos llegar a tener veranos con elevadas temperaturas que llegarían a superar los 100°, o inviernos donde las temperaturas podrían bajar más de 80°.

También se producirían vientos extremos con velocidades que podrían llegar a alcanzar más de 300 km/h. Toda esta combinación de temperaturas extremas y vientos a gran velocidad, tendrían asociados otros fenómenos meteorológicos también caóticos.

Si la luna desaparece, también tendría algunos efectos en la vida de la tierra. Como ya hemos comentado, la luna emite la luz del sol que se proyecta en ella. De esta manera, esa luz dejaría de desaparecería y afectaría drásticamente a los ritmos biológicos de toda una gran cantidad de especies, tanto animales, como vegetales. No se nos puede olvidar que muchos animales marinos que tienen unas pautas establecidas gracias a las corrientes marítimas: por ejemplo, les ayudan a conseguir el alimento, o a resguardarse. Con el cambio que produciría la luna, sus condiciones de vida quedarían alteradas.Se extinguirían muchas plantas y animales, por lo que afectaría a las cadenas tróficas de cualquier ser vivo. Si el eje de la rotación terrestre terminará apuntando hacia el sol, la vida sería imposible salvo en ciertas zonas como, quizá, en el Ecuador. En general, una gran parte de la tierra estaría ardiendo, mientras que la otra estaría helada.

¿Y si la tierra nunca hubiera tenido luna?

Realmente, en un principio no había luna en la tierra ya que esta se formaría 100 millones de años después de nuestro planeta. Esto ocurriría cuando se produciría un violento impacto un enorme cuerpo contra nuestro planeta que se conocería como Theia. Una pequeña parte de la tierra sería arrancada y se pondría en órbita hasta formar la luna.
Si la tierra no hubiera tenido luna, entonces la rotación terrestre sería de ocho horas. Los vientos de la tierra podrían llegar a alcanzar entre 150-200 km de horas y es muy posible que jamás se hubieran dado las condiciones necesarias para que la vida pudiera llegar a prosperar.

Sin embargo, si aceptamos que, de alguna manera, la vida pudiera sido la misma, entonces no tendríamos los calendarios lunares que se basaron en la luna y que nos ayudaron a dominar algunas disciplinas como la casa, la agricultura, así como a construir poco a poco nuestra civilización.

No obstante, no tenemos nada que temer porque es improbable que pueda llegar a desaparecer de repente.Es más, se cree que, dentro de 5000 millones de años, en cuanto el sol se encuentre en sus últimos momentos de vida, la luna empezará a frenar poco a poco para acercarse progresivamente a la tierra. En el final, se fundirán ambos cuerpos celestes creando un final muy poético que no sabemos si alguien lo podrá contemplar.

domingo

HISTORIA DEL UNIVERSO EN DOS MINUTOS


¿Qué había antes del Universo? La pregunta es del todo incorrecta si admitimos que el tiempo también empezó a contar con el Universo. Si no existía el tiempo, tampoco había un "antes".Los científicos intentan explicar el origen del Universo con diversas teorías, apoyadas en observaciones y unos cálculos matemáticos que resulten coherentes. Las más aceptadas son la del Big Bang y la teoría Inflacionaria, que se complementan entre si.

Se ha comprobado que las galaxias se alejan, todavía hoy, las unas de las otras. Si pasamos la película al revés, ¿dónde llegaremos? Llegaremos a un punto o momento en que todo el Universo observable estaba comprimido en un punto infinitamente pequeño, denso y caliente. Este estado casi incomprensible existió sólo un instante del primer segundo del tiempo. La teoría del Big Bang o gran explosión, supone que, hace entre 13.700 y 13.900 millones de años, toda la materia del Universo estaba concentrada en una zona extraordinariamente pequeña del espacio, un único punto, y explotó. La materia salió impulsada con gran energía en todas direcciones.

Los choques que inevitablemente se produjeron y un cierto desorden hicieron que la materia se agrupara y se concentrase más en algunos lugares del espacio, y se formaron las primeras estrellas y las primeras galaxias. Desde entonces, el Universo continúa en constante movimiento y evolución.Esta teoría sobre el origen del Universo se basa en observaciones rigurosas y es matemáticamente correcta desde un instante después de la explosión, pero no tiene una explicación admisible para el momento cero del origen del Universo, llamado "singularidad".

La teoría inflacionaria de Alan Guth intenta explicar el origen y los primeros instantes del Universo. Se basa en estudios sobre campos gravitatorios fortísimos, como los que hay cerca de un agujero negro.La teoría inflacionaria supone que una fuerza única se dividió en las cuatro que ahora conocemos, produciendo el origen al Universo.El empuje inicial duró un tiempo prácticamente inapreciable, pero la explosión fue tan violenta que, a pesar de que la atracción de la gravedad frena las galaxias, el Universo todavía crece, se expande.

Momento           Suceso
Big Bang Densidad infinita, volumen cero.
10 e-43 segs. Fuerzas no diferenciadas
10 e-34 segs. Sopa de partículas elementales
10 e-10 segs. Se forman protones y neutrones
1 seg. 10.000.000.000 º. Universo tamaño Sol
3 minutos 1.000.000.000 º. Nucleos de átomos
30 minutos 300.000.000 º. Plasma
300.000 años Átomos. Universo transparente
1.000.000 años Gérmenes de galaxias
100 millones de años Primeras galaxias
1.000 millones de años Estrellas. El resto, se enfría
5.000 millones de años Formación de la Vía Láctea
10.000 millones de años Sistema Solar y Tierra

No se puede imaginar el Big Bang como la explosión de un punto de materia en el vacío, porque en este punto se concentraban toda la materia, la energía, el espacio y el tiempo. No había ni "fuera" ni "antes". El espacio y el tiempo también se expanden con el Universo.

miércoles

SOBRE NUMEROS


Una paradoja es una declaración en apariencia verdadera que conlleva a una autocontradicción lógica o a una situación que contradice el sentido común. Dicho de otro modo, una paradoja es 'lo opuesto a lo que uno considera cierto'. La identificación de paradojas basadas en conceptos en apariencia razonables y simples ha impulsado importantes avances en la ciencia, filosofía y las matemáticas.

Entre los temas recurrentes en las paradojas se encuentra la auto-referencia directa e indirecta, la infinitud, definiciones circulares y confusión de niveles de razonamiento.

La etimología de la palabra paradoja proviene de comienzos del período renacentista europeo o los acelerados avances científicos de Eurasia luego del 1500. Las primeras formas de la palabra aparecieron como la palabra del latín paradoxum, pero es encontrada también en textos griegos como paradoxon. Se encuentra compuesta por el prefijo para-, que significa "contrario a" o "alterado", en conjunción con el sufijo doxa, que significa "opinión". La paradoja del mentiroso y otras paradojas similares ya se estudiaron en la edad media bajo el título insolubilia.

No todas las paradojas son iguales. Por ejemplo, la paradoja del cumpleaños puede ser definida mejor como una sorpresa que como una paradoja, mientras que la resolución de la paradoja de Curry es aún un tema importante de debate.

En este vídeo, obtenemos una aparente paradoja numérica al demostrar que uno no es igual a uno. Naturalmente,  existe un fallo en la demostración.

EL GATO TRISTE Y AZUL


Cuando se habla de el "gato de Schrödinger" se está haciendo referencia a una paradoja que surge de un célebre experimento imaginario propuesto por Erwin Schrödinger en el año 1937 para ilustrar las diferencias entre interacción y medida en el campo de la mecánica cuántica.

El experimento mental consiste en imaginar a un gato metido dentro de una caja que también contiene un curioso y peligroso dispositivo. Este dispositivo está formado por una ampolla de vidrio que contiene un veneno muy volátil y por un martillo sujeto sobre la ampolla de forma que si cae sobre ella la rompe y se escapa el veneno con lo que el gato moriría. El martillo está conectado a un mecanismo detector de partículas alfa; si llega una partícula alfa el martillo cae rompiendo la ampolla con lo que el gato muere, por el contrario, si no llega no ocurre nada y el gato continua vivo.

Cuando todo el dispositivo está preparado, se realiza el experimento. Al lado del detector se sitúa un átomo radiactivo con unas determinadas características: tiene un 50% de probabilidades de emitir una partícula alfa en una hora. Evidentemente, al cabo de una hora habrá ocurrido uno de los dos sucesos posibles: el átomo ha emitido una partícula alfa o no la ha emitido (la probabilidad de que ocurra una cosa o la otra es la misma). Como resultado de la interacción, en el interior de la caja, el gato está vivo o está muerto. Pero no podemos saberlo si no la abrimos para comprobarlo.

Si lo que ocurre en el interior de la caja lo intentamos describir aplicando las leyes de la mecánica cuántica, llegamos a una conclusión muy extraña. El gato vendrá descrito por una función de onda extremadamente compleja resultado de la superposición de dos estados combinados al cincuenta por ciento: "gato vivo" y "gato muerto". Es decir, aplicando el formalismo cuántico, el gato estaría a la vez vivo y muerto; se trataría de dos estados indistinguibles.

La única forma de averiguar qué ha ocurrido con el gato es realizar una medida: abrir la caja y mirar dentro. En unos casos nos encontraremos al gato vivo y en otros muerto. Pero, ¿qué ha ocurrido? Al realizar la medida, el observador interactúa con el sistema y lo altera, rompe la superposición de estados y el sistema se decanta por uno de sus dos estados posibles.

El sentido común nos indica que el gato no puede estar vivo y muerto a la vez. Pero la mecánica cuántica dice que mientras nadie mire en el interior de la caja el gato se encuentra en una superposición de los dos estados: vivo y muerto.

Esta superposición de estados es una consecuencia de la naturaleza ondulatoria de la materia y su aplicación a la descripción mecanocuántica de los sistemas físicos, lo que permite explicar el comportamiento de las partículas elementales y de los átomos. La aplicación a sistemas macroscópicos como el gato o, incluso, si así se prefiere, cualquier profesor de física, nos llevaría a la paradoja que nos propone Schrödinger.

En el vídeo, el complejo mecanismo de la caja se sustituye por un sótano y una bomba.

martes

DEL QUARK AL MULTIVERSO


Por supuesto, decir que un objeto está a 13.700 millones de años-luz de distancia está muy bien, pero ¿podemos entender realmente la escala del Universo? Es posible apreciar plenamente la distancia entre, digamos, Londres y Nueva York, o incluso la distancia entre la Tierra y la Luna -aproximadamente 400.000 kilómetros-, que es aproximadamente diez veces la circunferencia de la Tierra, y muchas personas han recorrido una distancia mayor que ésta durante su vida. Pero ¿cómo se entiende realmente 150 millones de kilómetros, la distancia al Sol? Y cuando consideramos la estrella más cercana, a 4,2 años-luz (aproximadamente 40 billones de kilómetros), nos sentimos completamente incapaces... Las galaxias están enormemente más lejanas que esto: incluso las vecinas más próximas a la Vía Láctea, tales como la galaxia Andrómeda, están a más de 2 millones de años-luz.

En el otro extremo de la escala, visualizar el tamaño de un átomo, que no puede verse individualmente con ningún microscopio ordinario, es igualmente difícil. Se ha dicho que, a escala, un ser humano está a mitad de camino entre un átomo y una estrella. Es interesante que éste sea también el régimen en el que la física se hace más complicada; a escala atómica tenemos la física cuántica; a escala grande, la relatividad. Es entre estos extremos donde nuestra falta de comprensión de cómo combinar estas teorías se hace realmente manifiesta. El científico de Oxford Roger Penrose ha escrito con convicción sobre su creencia que, sea lo que sea lo que nos falta para nuestra comprensión de la física fundamental, nos falta también para la comprensión de nuestra consciencia.

También es útil preguntar cuántos átomos hay en el Universo. Una estimación ha dado con un número total tan grande como 10^79, o en otras palabras, un 1 seguido de 79 ceros.

Tradicionalmente hemos visto los átomos como constituidos de tres partículas fundamentales: el protón (que lleva una unidad de carga eléctrica positiva), el neutrón (sin ninguna carga) y el mucho menos masivo electrón (que lleva una unidad de carga negativa). Tanto los protones como los neutrones están formados por quarks, las partículas más pequeñas conocidas hasta ahora. Dicho sea de paso, no es nada fácil definir lo que es la carga eléctrica en el nivel atómico. Bastará pensar en la carga como una propiedad que pueden tener las partículas, de la misma forma que tienen un tamaño y una masa. La carga se da siempre en porciones de tamaño fijo que llamamos carga unidad.

Clásicamente se considera que estas partículas se organizan como un sistema solar en miniatura, con los electrones en órbita en torno a un núcleo compuesto central, que contiene protones y neutrones. Este núcleo porta una carga eléctrica positiva, que está equilibrada exactamente con la carga combinada de los electrones orbitales. En nuestro Sistema Solar planetario, la fuerza de la gravedad mantiene a los planetas en sus órbitas alrededor del Sol central, pero en el átomo es la atracción entre el electrón cargado negativamente y el núcleo positivo la que mantiene a los electrones en sus órbitas.

Desde el primer tiempo de Planck en adelante, este Universo inconcebiblemente pequeño e inconcebiblemente caliente empezó a expandirse y con ello también a enfriarse. El Universo era un océano de quarks, cada uno de los cuales tenía una enorme cantidad de energía, moviéndose a enorme velocidad. Como resultado, no podía haber átomos ni moléculas del tipo que conocemos hoy, porque éstas son estructuras complicadas, completamente incapaces de sobrevivir a la irrupción de muy altas temperaturas; los quarks eran simplemente demasiado energéticos para ser capturados y quedar confinados dentro de protones o neutrones. En lugar de ello, eran libres de pasearse por el Universo niño hasta que chocaban con sus vecinos. Además de quarks, esta primitiva sopa de partículas subatómicas contenía también antiquarks: gemelos idénticos pero con cargas eléctricas opuestas.

Un Universo que ha sufrido inflación es como esta última esfera. Puesto que se ha inflado hasta un tamaño tan enorme, nuestro Universo observable es sólo una proporción minúscula de él y sólo podemos medir sus propiedades locales. Podemos concluir, correctamente, que el Universo que podemos ver tiene una geometría plana. En un Universo tan inmenso no podemos saber nada sobre su geometría más allá del alcance de nuestras observaciones. Independientemente de cuál de las muchas geometrías posibles tenga el Universo, la inflación nos dice por qué nuestras medidas indican que es plano.

Tras el final de la inflación, el Universo siguió expandiéndose y enfriándose a un ritmo menor. Alrededor de tres segundos después del Big Bang, la temperatura había caído hasta aproximadamente 1.000 millones de grados Kelvin. Alrededor de tres cuartas partes del material en el Universo era hidrógeno, y casi todo lo demás era helio (recordemos que el átomo de helio tiene dos electrones que orbitan en torno a un núcleo compuesto de dos protones y dos neutrones).

Este es un extraordinario viaje, desde el quark al Universo y de éste al Multiverso, una teoría que cada vez tiene más aceptación entre la comunidad científica.  

viernes

LA ECUACION DE DIRAC


Sin entrar en detalles matemáticos, la ecuación cuántica relativista para la función de onda de un electrón fue introducida por P.A.M. Dirac en 1928. Esta ecuación es lineal, como la ecuación cuántica de Schrödinger para una partícula no relativista. La invarianza Lorentz de la función de onda descrita por dicha ecuación requiere que la función de onda sea un “vector” con 4 componentes, que se denomina espinor (tetraespinor). 

Por ello, la ecuación de Dirac son 4 ecuaciones en derivadas parciales acopladas y sus coeficientes son matrices constantes de 4×4 (llamadas matrices de Dirac). Una transformación de Lorentz aplicada a la función de onda equivale a hacer un cambio de base en dichas matrices. La forma más simple de dichas matrices, introducida por el propio Dirac, las representa utilizando matrices de Pauli, matrices 2×2 que Pauli usó para describir el espín del electrón, es decir, como matrices de 2×2 a bloques de 2×2. De esta forma se escribe la ecuación de Dirac como un sistema de 2 ecuaciones acopladas para 2 funciones de onda con 2 componentes (llamadas biespinores).

Fijado la masa en reposo (m) y el momento (p, masa por velocidad) del electrón, la ecuación de Dirac tiene dos soluciones, una con energía positiva y otra con energía negativa, ya que se cumple la ecuación relativista de la energía E² = (m c²)² + c²p². La ecuación de Dirac no se puede interpretar como la ecuación de la función de onda de una única partícula, como sí puede hacerse con la ecuación de Schrödinger, ya que si la energía (E) es suficientemente grande se producen pares electrón-positón (el positón es la antipartícula del electrón) y deja de haber una única partícula. Por ello, para estudiar los electrones a alta energía se utiliza la teoría cuántica de campos, la así llamada segunda cuantización, que considera que la función de onda solución de la ecuación de Dirac representa un conjunto de una o muchas partículas, describe un campo cuántico. En dicha teoría las soluciones de energía negativa para el electrón se interpretan como soluciones de energía positiva para el positón gracias a la operación de conjugación de carga y todo funciona a las mil maravillas.

El zitterbewegung es un efecto que se observa si insistimos en interpretar la ecuación de Dirac como una ecuación para la función de onda de una sola partícula. En dicho caso no podemos descartar las soluciones con energía negativa como si no existieran y utilizar sólo las soluciones con energía positiva. Hay que tener en cuenta ambos tipos de soluciones. Si definimos un operador de posición de un electrón como se hace en mecánica cuántica no relativista, el operador que corresponde para la velocidad (derivada con el tiempo de la posición) conduce a un resultado paradójico. Es un operador cuyos únicos autovalores son ±c (el signo depende del signo de la energía de la solución que escojamos), es decir, la velocidad del electrón sería siempre igual a la velocidad de la luz, aunque sabemos que una partícula masiva no puede alcanzar nunca dicha velocidad. Sería como si el electrón tuviera masa en reposo nula. Obviamente, una contradicción, un sinsentido físico. Para definir correctamente un operador velocidad del electrón debemos tener en cuenta ambas componentes de la función de onda, tanto las de energía positiva como negativa. No sólo el operador velocidad, cualquier otro operador físico correcto (o consistente) tiene que tener en cuenta ambas componentes. 

La manera estándar de hacerlo es simetrizando dicho operador. El operador, como una matriz, se descompone en una suma de una parte simétrica y una parte antisimétrica y se elige la parte simétrica como la que representa de forma correcta la física. Dicha componente simétrica del operador equivale a aplicar el operador a cierta combinación lineal de las componentes de energía positiva y negativa, por ello se dice que dichas componentes interfieren entre sí incluso para un electrón interpretado como partícula libre.

La expresión correcta para el operador velocidad de un electrón (la parte simétrica de la derivada respecto al tiempo del operador posición) tiene los autovalores correctos ±c²p/E. El signo depende del signo de la energía de la solución que se tome. Para la función de onda con energía positiva este es el resultado que todo el mundo esperaría para que la mecánica relativista clásica se obtenga como límite de la versión cuántica. Sin embargo, para la función de onda con energía negativa obtenemos un resultado extraño (paradójico), la velocidad tiene el signo opuesto al momento, como si esta función describiera una partícula con masa negativa. ¿Podemos descartar las soluciones negativas por ser no físicas y quitárnoslas de un plumazo? No, no podemos. 

En mecánica cuántica no relativista una partícula libre se representa por un paquete de ondas y la posición (trayectoria) clásica de dicha partícula corresponde a la trayectoria del valor esperado para el operador de posición cuántico. Si hacemos lo mismo con el electrón en mecánica cuántica relativista se obtiene que las soluciones con energía negativa influyen en el valor esperado para el operador de posición cuántico, añadiendo un término oscilatorio (de muy alta frecuencia) que se interpreta como resultado de la interferencia entre las funciones de onda con energía positiva y las que la tienen negativa. Este movimiento zigzagueante o tembloroso de la partícula libre alrededor de la posición media esperada es el zitterbewegung descubierto por Schrödinger en 1930 al estudiar la ecuación de Dirac.

miércoles

CORRECTO...O NO


El término paradoja viene del griego (para y doxos) y significa "más allá de lo creíble". En la actualidad la palabra "paradoja" tiene numerosos significados:

1) Afirmación que parece falsa, aunque en realidad es verdadera.
2) Afirmación que parece verdadera, pero en realidad es falsa.
3) Cadena de razonamientos aparentemente impecables, que conducen sin embargo a contradicciones lógicas. (Las paradojas de esta clase suelen llamarse falacias.)
4) Declaración cuya veracidad o falsedad es indecible.
5) Verdad que se vuelve patas arriba para llamar la atención.

Las paradojas matemáticas, como las científicas, pueden ser mucho más que amenidades, y llevarnos hasta nociones muy profundas. A los primeros pensadores griegos les resultaba tan paradógico como insoportable que la diagonal de un cuadrado de lado unidad no pudiera ser medida exactamente por finas que se hicieran las graduaciones de la regla. Este hecho perturbador sirvió para abrir el vasto dominio de los números irracionales. Los matemáticos del siglo pasado encontraban enormemente paradógico que todos los miembros de un conjunto infinito puedan ponerse en correspondencia biunívoca con los miembros de algún subconjunto del dado, mientras por otra parte podían existir conjuntos infinitos entre los cuales es imposible establecer una correspondencia biunívoca. Tales paradojas condujeron a desarrollar la moderna teoría de conjuntos, que a su vez ha ejercido profunda influencia sobre la filosofía de la ciencia.

Mucho podemos aprender de las paradojas. Al igual que los buenos trucos de ilusionismo, nos causan tanto asombro que inmediatamente queremos saber como se han hecho. Los ilusionistas no revelan jamás como hacen lo que hacen, pero los matemáticos no tienen necesidad de guardar el secreto.

Las paradojas no sólo plantean cuestiones, sino que también pueden responderlas.

sábado

EL ARBOL DE LA VIDA


En 1859 se inicia el Evolucionismo cuando Darwin publica el libro “El Origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida”. Este libro es el inicio de la teoría de la evolución por medio de la selección natural. Lo que significa que el medioambiente donde viven los seres vivos ofrece recursos limitados. Los organismos compiten por ellos y los que consigan adaptarse mejor al medio lograrán más recursos y se reproducirán más y mejor.

Con su publicación, la teoría de la evolución produjo un gran impacto en la sociedad de su tiempo. La teoría de Darwin generó gran polémica en diversos ámbitos sociales. Su teoría propone un origen no sobrenatural de la vida y las especies, y considera que la especie humana está sometida a las mismas leyes que el resto de los animales , incluyendo la selección natural. El 27 de diciembre de 1831 se inició un viaje alrededor del mundo, el del HMS Beagle, a bordo del cual iba un naturalista y geólogo llamado Charles R. Darwin (12 de febrero de 1809 – 19 de abril de 1882) con el objeto de estudiar la historia natural de los diferentes países que visitara.

Las observaciones realizadas en aquel viaje de cinco años de duración, la experimentación e investigación realizada con posterioridad sobre la transmutación de las especies, la lectura del ensayo sobre la población de Malthus (este afirmaba que si no se controlaba, la población humana crecería en progresión geométrica y pronto excedería los suministros de alimentos, dando lugar a la catástrofe de su propio nombre, la catástrofe de Malthus), le permitieron visualizar la lucha por la existencia que se da en todas partes. A partir de observaciones de los hábitos de animales y plantas, las variaciones favorables tenderían a ser preservadas, mientras que las desfavorables serían destruidas. El resultado de esto sería la formación de nuevas especies. Esta conexión de visiones le permitió concebir su teoría de la selección natural en 1838.

Andaba Darwin por el año 1858 con sus investigaciones, sus dudas, algunos dirían que buscando el último decimal que refrendara sus hipótesis, cuando un joven impetuoso e impaciente, como de sí mismo llegaría a decir, llamado Alfred Russel Wallace, le envió una carta, un manuscrito en la que, para su asombro, le esbozaba las mismas ideas.Esto debió suponer un acicate para Darwin, uno se le puede imaginar (…veintiún años dándole a la sesera y ahora llega este jovenzuelo…), aquí debieron de llegar las prisas de última hora.

El 1 de julio de 1858, Darwin y Wallace presentaron de forma simultánea en la Sociedad Lineana de Londres sendos artículos sobre la teoría. Un año después, en 1859, Darwin publicó su gran libro, donde se recogían sus estudios , hipótesis, etc., la que sería su obra fundamental, “On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life” (El Origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida), con este título uno se puede imaginar a los londinenses yendo a la librería a comprarla o en los cafés (.¿te has leído…); alguien con sentido común debió pensar que este título era demasiado largo (6ª edición) y que era más practico acortarlo a El Origen de las Epecies, y así es como la conocemos la mayoría del público. En España no tuvimos que pasar por este sufrimiento ya que fue la sexta edición la que se tradujo al español en 1877.

Charles Robert Darwin postuló que todas las especies de seres vivos han evolucionado con el tiempo a partir de un antepasado común, la teoría del origen común. Y la diversidad que se observa en la naturaleza se debe a las modificaciones acumuladas por la evolución a lo largo de las sucesivas generaciones mediante un proceso denominado selección natural.

Una buena parte de la comunidad científica acepto esta visión de la evolución, dado que daba coherencia al conocimiento existente sobre el mundo vivo y las teorías sobre la evolución existentes con anterioridad. También por parte del público hubo aceptación en vida de Darwin, aunque se generaron grandes controversias en ambos ámbitos que llegan hasta hoy. El libro generó un debate científico, filosófico y religioso de primer orden. Acalorados debates que se reflejaron en la prensa popular. Se tradujo a multitud de idiomas en los primeros años, lo que lo convirtió en un libro científico fundamental.

En los años 1930 se presentó la tesis de la síntesis evolutiva moderna, la cual integra la teoría de la evolución por selección natural, la herencia mendeliana, la mutación genética aleatoria como fuente de variación y los modelos matemáticos de la genética de poblaciones.

Aunque el tema del origen del hombre no está recogido en el libro del Origen de las especies, la mención de Darwin de que ayudaría a entender mejor la evolución de la especie humana, tuvo una reacción en el ámbito popular, en los periódicos y revistas de la época través de caricaturas y sátiras, solo superada por la publicación años antes de los Vestigios (Vestiges of the Natural History of Creation) de Robert Chambers publicado en 1844) donde ya se abordaba el parentesco entre el hombre y el mono. El vínculo genealógico entre el hombre y otros primates enfrentó a la comunidad científica. En 1871 Darwin publica "El Origen del hombre".

En el marco religioso, las reacciones no fueron unívocas. Hoy sigue siendo la teoría de la evolución darwiniana un ámbito de discusión en parte de la comunidad cristiana, una parte de esta comunidad la rechaza al verla incompatible con el relato de la Creación narrado en la Biblia, en el Libro de Génesis; mientras que otra parte, más liberal, la ha incorporado a sus creencias, incluso la ve compatible con el hecho de que exista un creador y toma la selección natural como un instrumento del diseño divino.


martes

UN TAXI ESPECIAL


Ramanujan nació en Erode (India) a finales del S.XIX en el seno de una familia muy humilde. Lo más curioso de Ramanujan es que está considerado como uno de los matemáticos más importantes e influyentes del S.XX habiendo obtenido sus conocimientos matemáticos de manera autodidacta.

Sus únicas fuentes fueron durante muchos años un libro de trigonometría y otro libro en el que se enunciaban sin demostración 6000 teoremas de distintas ramas de las matemáticas. Gracias a este último libro, se dedicó a demostrar esos resultados y a buscar nuevos resultados que conectaran dichos teoremas.

Llegado un cierto momento, mandó sus trabajos a varios matemáticos de renombre de su época, y tan solo recibió respuesta del inglés Godfrey Hardy. Como hemos comentando antes, Ramanujan no recibió una formación académica como tal, entonces su notación y su manera de expresarse eran únicamente suyas, por lo que descifrar sus trabajos se hacía realmente complicado para otra persona. Pero este hecho, no desanimó a Hardy que vio en él el mayor talento matemático que jamás había visto en nadie, y decidió llevarlo a Cambridge para trabajar con él.

Ramanujan llegó a Inglaterra en 1914, y volvió a la India en 1919 debido a que estaba enfermo de tuberculosis, falleciendo poco después a los 32 años de edad.

Durante su enfermedad, tuvo que visitar el hospital en muchas ocasiones debido a su mal estado de salud. Una de las veces que estuvo ingresado, Hardy fue a visitarlo, y quizás por hablar de algo o simplemente por picarlo para ver qué decía, Hardy comentó:
– He venido en un taxi con un número muy aburrido, el 1729.
A lo que Ramanujan respondió:
– ¡No! 1729 es un número muy interesante, es el número más pequeño que podemos descomponer de dos formas diferentes como suma de dos cubos


Es curioso como hay personas que son capaces de encontrar genialidades de la nada, y nuestro protagonista es uno de ellos. Esta anécdota dio origen a lo que hoy en día, gracias al taxi que cogió Hardy, se llaman los números taxicab que se representan como Ta(n), y que son aquellos que cumplen ser el número más pequeño que se puede descomponer de n maneras distintas como la suma de dos cubos (siendo n un valor natural cualquiera).

lunes

LA DOBLE RENDIJA


El experimento de la rendija doble fue diseñado por Thomas Young en 1801 como un experimentum crucis para determinar la naturaleza corpuscular u ondulatoria de la luz. Desde entonces, la idea general del experimento se sigue utilizando para manifestar las propiedades ondulatorias de las radiaciones. El esquema general del experimento consiste en una fuente emisora de la radiación que se quiere investigar, una pantalla opaca con dos orificios y una segunda pantalla o sensor en donde se puede registrar la llegada de los objetos provenientes de la fuente.

Si los objetos emitidos por la fuente se comportan como partículas discretas, al llegar a la primera pantalla, podrán pasar por uno u otro de los orificios para luego impactar en la segunda pantalla. Así, la acumulación de impactos sucesivos tendrá un máximo frente a cada orificioo bien un máximo central, dependiendo de la distancia entre rendijas. Se obtiene el mismo resultado que si se realiza el experimento abriendo primero sólo una de las rendijas y luego sólo la otra. Por otro lado, si el comportamiento es ondulatorio, la fuente generará un frente de onda como el formado en un cuerpo de agua al arrojar una piedra. Al llegar a la primera pantalla, sólo seguirán su camino las porciones del frente de onda que coincidan con los orificios. Por tratarse de rendijas estrechas, cada uno de los orificios se convertirá en un emisor puntual de frentes de onda. Ahora, al encontrarse dos frentes de onda, se produce el fenómeno de interferencia en el cual, dependiendo de la fase relativa en el punto de encuentro, la suma de las dos contribuciones puede ser constructiva o destructiva. Allí donde sea totalmente destructiva i.e. en donde las dos contribuciones se cancelen completamente entre sí, la amplitud observada será nula.

Como cada punto fuera de la línea central de la segunda pantalla se encuentra a diferente distancia de cada rendija, la fase relativa entre las dos ondas al impactar será también diferente en cada uno de ellos debido a la diferencia de camino recorrido. En algunos puntos los dos frentes llegarán completamente en fase y se sumarán y en otros llegarán completamente en contrafase y se cancelarán, pasando en las demás posiciones por todos los valores intermedios. Esto resultará en la formación de un patrón de franjas en la pantalla o sensor.

Pero el experimento tiene una segunda parte que surgiría a partir del advenimiento de la Mecánica Cuántica y que constituye posiblemente la manifestación más cabal de un fenómeno puramente cuántico. En resumen, los experimentos muestran que, al incidir con radiación coherente (tanto electromagnética como objetos con masa en reposo) contra la pantalla con dos rendijas (que debe cumplir ciertas condiciones geométricas relacionadas con las propiedades de la radiación estudiada), se generará un patrón de interferencia en la pantalla detectora, aún si la fuente emite la radiación de a un cuanto irreducible a la vez. Pero si se coloca un detector en las rendijas para determinar por donde pasa la radiación, el patrón de interferencia desaparece y se obtiene un máximo frente a cada rendija. Además del comportamiento dual onda-partícula de la radiación, se pone de manifiesto el efecto de la medición: el observador modifica irremediablemente el comportamiento del sistema y la teoría que pretenda describir esta fenomenología debe tener esto en cuenta.

domingo

EL NUMERO DE CHAMPERNOWNE


El número de Champernowne: 0,1234567891011121314151617181920212223.......................

Este número se obtiene concatenando todos los números naturales. Se sabe que es normal en base 10, pero no se sabe si lo es o no en otras bases.

Un número normal es un número real cuyos dígitos, en cualquier base, siguen una distribución uniforme, esto es, todos los dígitos son igualmente probables, todas las parejas de dígitos son igualmente probables, todas las ternas son igualmente probables…Cuando queremos referirnos a una base concreta b diremos que el número es cuestión es normal en base b. El concepto de número normal fue introducido por Émile Borel en 1909.

A la vista de esta definición podemos sacar varias cosas:

1.- En un número normal podemos encontrar todos los patrones posibles entre números; por ejemplo, si nos ceñimos a base 10, un número normal en base 10 contendrá en algún lugar de su expansión decimal a cualquier número natural que podamos pensar.
2.- Todo número normal debe ser necesariamente irracional, ya que si un número es racional tendrá un período y eso impide que haya equiprobabilidad.
3.- No todo número irracional es normal, ya que hay números irracionales en los cuales no aparece cualquier patrón de número naturales. Por ejemplo, la constante de Liouville 0.110001000000000000000001000

es un número irracional pero, evidentemente, no presenta todos los patrones posibles.

Después de la definición y de las observaciones iniciales viene la pregunta: ¿existen números normales? Y en ese caso, ¿cuántos hay? Vamos con las respuestas:

Sí, existen números normales. De hecho, casi todos los números reales son normales. El casi todos significa que el conjunto de los números reales no normales tiene medida de Lebesgue cero. Este resultado también fue demostrado por Borel, aunque su demostración es no constructiva. Fue Waclaw Sierpinski quien dio el primer ejemplo de número normal (no he podido encontrar de qué número se trata; si alguien lo sabe que lo comente). Por tanto hay muchísimos números normales. Sería lógico pensar entonces que es sencillo encontrarlos…nada más lejos de la realidad. Se conocen algunos, de otros se conjetura que lo son, hay más conjeturas sobre ellos, pero ni mucho menos es sencillo comprobar que un número irracional es o no es normal.

sábado

LOS CUATRO NIVELES DEL MULTIVERSO


Multiverso de Nivel I

Una predicción genérica de la inflación cósmica es un universo ergódico infinito, el cual, por su infinitud, debe contener volúmenes de Hubble que contemplen todas las condiciones iniciales. Un universo infinito debería englobar un número infinito de volúmenes de Hubble, todos ellos con leyes y constantes físicas iguales a las nuestras. Sin embargo, casi todos ellos serán diferentes de nuestro volumen de Hubble en cuanto a configuraciones tales como la distribución de la materia en el volumen. Según las teorías actuales, algunos procesos ocurridos tras el Big Bang repartieron la materia con cierto grado de aleatoriedad, dando lugar a todas las distintas configuraciones cuya probabilidad es distinta de cero.Nuestro universo, con una distribución casi uniforme de materia y fluctuaciones iniciales de densidad de 1/100.000, podría ser un representante típico —al menos entre los que contienen observadores. Siendo infinito el número de tales volúmenes, algunos de ellos son muy similares e incluso iguales al nuestro. Así, más allá de nuestro horizonte cosmológico, existirá un volumen de Hubble idéntico al nuestro. Tegmark estima que un volumen exactamente igual al nuestro estaría situado aproximadamente a una distancia de 10(10115) m, un número más grande que un gúgolplex.

Multiverso de Nivel II

En la teoría de la inflación caótica eterna, una variante de la teoría de inflación cósmica, el multiverso en conjunto se estira y continuará haciéndolo para siempre; sin embargo, algunas regiones del espacio dejan de dilatarse, formándose burbujas diferenciadas, semejantes a las bolsas de gas que se forman en un pan que se está cociendo. Tales burbujas son universos embrionarios de Nivel I de tamaño infinito llenos de materia depositada por la energía del campo que provocó la inflación; Linde y Vanchurin han calculado que el número total de éstas pued ser de 10(1010.000.000). La distancia que nos separa de la burbuja más cercana es «infinita», en el sentido de que no se puede llegar a ella ni aún viajando a la velocidad de la luz; el espacio existente entre nuestra burbuja y las burbujas circundantes se expande más deprisa de lo que se puede viajar a través él. Sin embargo, se ha propuesto que universos adyacentes al nuestro podrían dejar una huella observable en la radiación de fondo de microondas, lo cual abriría la posibilidad de probar experimentalmente esta teoría.A diferencia del multiverso de Nivel I, en el multiverso de Nivel II las distintas burbujas (universos) varían no sólo en sus condiciones iniciales sino en aspectos tan relevantes como las dimensiones del espacio-tiempo, las cualidades de las partículas elementales y los valores que toman las constantes físicas. Las diversas burbujas pueden experimentar diferentes rupturas espontáneas de la simetría, lo que se traduce en universos de propiedades dispares.En este sentido, cabe señalar que la teoría de cuerdas sugiere que en nuestro universo alguna vez coexistieron nueve dimensiones espaciales semejantes; sin embargo, en un momento dado, tres de ellas participaron en la expansión cósmica, siendo éstas las que reconocemos actualmente. Las otras seis no son observables, bien por su tamaño microscópico, o bien porque toda la materia está confinada en una superficie tridimensional denominada «brana» —véase la teoría M— dentro de un espacio de más dimensiones. Se piensa que la simetría original entre dimensiones se rompió, pudiendo otras burbujas (otros universos) haber experimentado rupturas de simetría distintas. Otra manera de llegar a un multiverso de Nivel II es a través de un ciclo de nacimiento y muerte de universos. Esta idea, propuesta por Richard Tolman en la década de 1930, implica la existencia de una segunda «brana» tridimensional paralela desplazada a una dimensión superior. En este sentido, no cabe hablar de un universo separado del nuestro, ya que ambos universos interaccionarían entre sí. Este nivel también incluye la teoría del universo oscilante de John Archivald Wheeler así como la teoría de universos fecundos de Lee Smolin.

Multiverso de Nivel III

La teoría de universos múltiples de Hugh Everett (IMM) es una de las varias interpretaciones dominantes en la mecánica cuántica. La mecánica cuántica afirma que ciertas observaciones no pueden ser predichas de forma absoluta; en cambio, hay una variedad de posibles observaciones, cada una de ellas con una probabilidad diferente. Según la IMM, cada una de estas observaciones posibles equivale a un universo diferente; los procesos aleatorios cuánticos provocan la ramificación del universo en múltiples copias, una para cada posible universo.Esta interpretación concibe un enorme número de universos paralelos; dichos universos se encuentran «en otra parte» distinta del espacio ordinario. No obstante, estos «mundos paralelos» hacen notar su presencia en ciertos experimentos de laboratorio tales como la interferencia de ondas y los de computación cuántica. Supongamos que lanzamos un dado y se obtiene un resultado al azar; la mecánica cuántica determina que salen todos los valores a la vez, pudiéndose decir que todos los valores posibles aparecen en los diferentes universos. Nosotros, al estar situados en uno de estos universos, sólo podemos percibir una fracción de la realidad cuántica completa.Tegmark sostiene que, para un volumen de Hubble, un multiverso del Nivel III no contiene más posibilidades que un multiverso de Nivel I-II. Todos los mundos diferentes con las mismas constantes físicas creados por ramificaciones en un multiverso de Nivel III pueden ser encontrados en algún volumen de Hubble en un multiverso de Nivel I.Por otra parte, una consecuencia interesante de un multiverso de Nivel III es como afecta éste a la naturaleza del tiempo. Mientras que tradicionalmente se considera que el tiempo es una manera de describir los cambios, la existencia de mundos paralelos que abarcan todas las posibles configuraciones de la materia, permite redefinir el tiempo como una manera de secuenciar estos diversos universos. Los universos en sí son estáticos, siendo el cambio una mera ilusión. La interpretación de historias múltiples de Richard Feynman y la interpretación de muchas mentes de H. Dieter Zeh están relacionadas con la idea de «muchos mundos».

Multiverso de Nivel IV

El multiverso de Nivel IV considera que todas las estructuras matemáticas también existen físicamente. Esta hipótesis puede vincularse a una forma radical de platonismo que afirma que las estructuras matemáticas del mundo de las ideas de Platón tienen su correspondencia en el mundo físico. Considerando que nuestro universo es en sí matemático, cabe preguntarse por qué sólo ha de existir una única estructura matemática para describir un universo.En consecuencia, este nivel postula la existencia de todos los universos que pueden ser definidos por estructuras matemáticas. Residiendo fuera del espacio y del tiempo, la mayoría de ellos se encuentran vacíos de observadores. De esta manera, mientras en los multiversos de Nivel I, Nivel II y Nivel III las condicionales iniciales y constantes físicas varían permaneciendo invariables las leyes fundamentales, en el multiverso de Nivel IV éstas últimas también cambian.De acuerdo a Tegmark, "las matemáticas abstractas son tan generales que cualquier teoría del todo que pueda ser definida en términos puramente formales, también es una estructura matemática". Argumenta que "cualquier universo imaginable puede ser descrito en el Nivel IV, cerrando la jerarquía de multiversos, por lo que no puede haber un multiverso de Nivel V".

viernes

EL PRINCIPIO


Al principio de los tiempos, todo el Universo estaba concentrado en una singularidad, un punto de densidad infinita que repentinamente estalló en ese instante inicial, saltando toda la materia, energía y espacio despedidos en todas direcciones. A medida que pasa el tiempo, la Física nos dice que las galaxias van a sentir el tirón gravitatorio unas de otras, y esto debería hacer que poco a poco se vayan frenando. Cuánto se van a frenar dependerá de cuánta masa haya en el Universo. Si hay mucha, la gravedad terminará por dominar, la expansión se detendrá y el Universo volverá a caer sobre sí mismo. Si hay poca, la atracción será incapaz de frenar la expansión y el Universo continuará expandiéndose por toda la eternidad, aunque a menor velocidad. La distinción es trascendental, con implicaciones hasta en el plano espiritual.

La revelación de que la densidad del Universo es exactamente la crítica (con tanta precisión como somos capaces de medir), sacudió el mundo de la Física. Y es que, aunque sea en el plano subconsciente, se hace difícil no evocar la imagen de un creador para explicar tal coincidencia cósmica. La situación de crisis existencial se resolvió poco después, para alivio de muchos, con la llegada de la teoría de la inflación.

Por ponerlo en términos muy simples, esta teoría nos dice que durante la primera fracción de segundo (técnicamente, desde los 10-36 hasta los 10-32 segundos), el Universo sufrió una expansión tan brutalmente violenta, que el término «explosión» se queda muy corto para describir lo que ocurrió. La expansión en esa época fue acelerada exponencialmente, que es una forma que hay en Física de decir enormemente rápida. La cuestión es que a este disparatado crecimiento del espacio, infinitamente más rápido que la luz, se le llama inflación. Es un poco contraintuitivo porque, en lenguaje cotidiano, el verbo inflar nos suena mucho más suave y benigno que explotar. Es bien conocido que los físicos no son muy buenos para poner nombres a las cosas. No entendemos bien cómo y por qué ocurrió la inflación salvo que parece estar relacionado con lo que se llama «gran unificación», la época en la que las tres fuerzas fundamentales de la naturaleza eran una, grande y única.

Las observaciones nos muestran que desde hace 5,000 millones de años (un tercio de su vida), el Universo ha dejado de frenarse y ¡ha comenzado a acelerar! Este resultado fue obtenido por dos grupos independientemente y ambos recibieron el Premio Nobel en 2011. Fue tan sorprendente que ninguno de los dos grupos se atrevió a publicarlo hasta que se enteraron de los resultados del otro. Para explicar el fenómeno, los teóricos han tenido que postular la existencia de una «energía oscura», que sería omnipresente en todo el espacio vacío.

jueves

LA MATERIA INVISIBLE


En el universo, las apariencias engañan. Todas las estrellas, galaxias y nebulosas vistas por los telescopios suponen sólo el cuatro por ciento del contenido del universo. Los científicos no saben con certeza cuál es la naturaleza del resto. Una gran parte del universo está compuesta de la llamada “materia oscura,” que no emite energía detectable, como la luz visible, rayos X u ondas de radio. Sin embargo, se revela mediante su gravedad, como cuando se nota que hay un imán debajo de la mesa porque atrae alfileres o clips.

El misterio de la materia oscura tiene más de 70 años. En 1933, Fritz Zwicky estudió los movimientos de las galaxias en el cúmulo de Coma y descubrió que las galaxias estaban moviéndose demasiado deprisa. El cúmulo se estaría dispersando, a no ser que fuera mucho más masivo de lo que parecía. Un año antes, Jan Oort había estudiado los movimientos de las estrellas en la Vía Láctea y, basándose en argumentos parecidos, había concluido que en nuestra galaxia hay más materia de la que se ve a simple vista.

Parte de la materia oscura consiste en materia ordinaria o “bariónica” (materia consistente en protones y neutrones) que no emite energía. Entre los posibles candidatos tenemos las tenues nubes de gas, los remanentes de estrellas muertas y los agujeros negros primordiales. Pero esto es sólo la punta del iceberg de la materia oscura: la cantidad de materia oscura extraña –nuevos tipos de partículas elementales- puede ser hasta diez veces mayor.

La mayoría de las búsquedas de materia oscura se han centrado en el halo de nuestra galaxia –una esfera en torno al disco principal, como el halo que se muestra en azul alrededor de la galaxia vista de perfil NGC 4361 (véase la parte superior derecha de la figura). Supongamos que alberga una gran cantidad de materia oscura que consta de átomos normales (llamada materia oscura “bariónica”). Esta materia puede estar atrapada en cuerpos pequeños y fríos, como estrellas muertas, enanas marrones frías (parte inferior derecha, en rojo), falsos planetas, o quizás incluso pequeños agujeros negros. Estos objetos hipotéticos se denominan MACHOs, acrónimo en inglés de Objetos Compactos y Masivos del Halo.

La naturaleza de la materia oscura “no bariónica” –materia oscura no compuesta de átomos normales- es más misteriosa. Puede consistir en partículas que rara vez, o nunca, interactúan con la materia normal, excepto a través de la gravedad. Los astrónomos llaman a esta materia oscura no bariónica WIMPs, acrónimo en inglés de Partículas masivas de Interacción Débil.

miércoles

DISTINTOS AHORAS

Si dos observadores perciben un suceso, sus percepciones tienen semejanzas y diferencias. Las diferencias pueden ser psicológicas, fisiológicas y físicas; pero las que interesan son las físicas, porque estas diferencias seguirán existiendo aunque ambos observadores fueran reemplazados por instrumentos, ya que éstos registran los acontecimientos físicos de la naturaleza sin las variables psicológicas y fisiológicas que pueden obstaculizar la percepción.

El descubrimiento de que el tiempo depende del movimiento fue asombroso. Si dos relojes marcan la misma hora y uno de ellos se mueve muy rápido con respecto al otro, si se comparan al día siguiente no marcarán la misma hora.

Una prueba directa de la dilatación del tiempo es la observación de los rayos cósmicos, cuyas partículas que vienen del espacio exterior viajan muy velozmente a través de la atmósfera terrestre y algunas de ellas se desintegran durante el vuelo. Se puede observar, que cuanto más velozmente se mueve una partícula más tiempo tarda en desintegrarse.

Einstein consideraba que el mundo físico es real, porque si fuera un sueño no podríamos formular leyes físicas comunes a todos los sueños de los distintos hombres. Esta íntima conexión entre las percepciones simultáneas de todos los hombres es lo que nos lleva a creer en la existencia de algo real externo a las percepciones.

Ni el espacio ni el tiempo se pueden considerar objetivos por separado; lo objetivo es lo que llamamos espacio-tiempo.

La velocidad de la luz es siempre constante, alrededor de 300.000 km.por segundo, y en la Tierra es la misma en todas direcciones.

Para entender esto tenemos el ejemplo de la escalera mecánica. Si una escalera mecánica se moviera a la velocidad de la luz se podría llegar arriba en el mismo momento, tanto caminando como estando parados en uno de los escalones; porque ningún objeto material puede desplazarse más rápido que la luz, que es un límite inalcanzable.

Cada cuerpo tiene su propio tiempo y no existe un tiempo cósmico universal absoluto.

En la Tierra, los seres humanos se encuentran próximos entre sí, por eso sus tiempos coinciden, pero por ejemplo, para los electrones de los laboratorios que se mueven a mucha velocidad a distancias proporcionalmente astronómicas, sus tiempos son completamente diferentes.

Si abandonamos la idea del tiempo cósmico, ¿qué es lo que marcan los relojes?: su propio tiempo.

Las distancias en el espacio,lo mismo que los períodos de tiempo, no son hechos físicos objetivos sino que dependen de un observador.

Antes de la teoría de la relatividad, el espacio y el tiempo eran concebidos como unidades de medida independientes y el espacio tenía tres dimensiones. Ahora, si se altera la forma de medir la posición en el espacio se puede alterar también el intervalo–tiempo entre dos hechos; y si se altera la forma de medir el tiempo se puede alterar también la distancia del espacio entre dos acontecimientos.

De este modo, espacio y tiempo ya no son independientes ni tampoco lo son las tres dimensiones del espacio.

Ahora, necesitamos las cuatro dimensiones para determinar la posición de un hecho, la dimensión del tiempo y las tres dimensiones del espacio.

martes

LA MISTERIOSA TEORIA "M"


La teoría de cuerdas es, desde luego, una de las explicaciones más musicales de la naturaleza que se haya ofrecido, pero no está hecha para el oído no educado. Por lo pronto, en la versión moderna existen 10 dimensiones del espacio y el tiempo, en vez de las tres del espacio y una del tiempo que parece haber en el mundo real. Las otras seis dimensiones, dicen ahora los físicos de esta área, están enrolladas en conformaciones submicroscópicas. Un ejemplo simple, dicen, es una manguera de jardín. Desde lejos es una simple línea sobre la hierba, pero de cerca tiene una sección circular. Una hormiga que esté sobre la manguera puede rodearla, así como circular a lo largo de ella. Para ver el mundo tal como lo ve la teoría de cuerdas uno sólo tiene que imaginarse una pelota muy, muy pequeña de seis dimensiones en cualquier punto del espaciotiempo.

En 1995, Witten fue más allá y elaboró la teoría M, según la cual el universo tiene 11 dimensiones: 10 en el espacio y una en el tiempo, y consiste no sólo de cuerdas sino también de membranas más extensas de diversas dimensiones, llamadas branas. Esta nueva teoría ha liberado la imaginación de los cosmólogos. Nuestro universo, sugieren algunos teóricos, puede ser una membrana cuatridimensional que flota en un espacio de un mayor número de dimensiones, como una burbuja en un acuario, quizás cerca de otras membranas -universos paralelos-. Puede que las colisiones y otras interacciones entre las membranas iniciaran el Big Bang (o Gran Explosión que hizo que nuestro reloj cósmico empezara a funcionar), o produjeran la energía oscura que ahora parece que está acelerando la expansión del universo, dicen. Uno de los mayores triunfos de la teoría de cuerdas es el estudio de los agujeros negros. En la teoría de la relatividad general de Einstein, estos objetos son pozos sin fondo en el espaciotiempo, que se tragan todo, incluso la luz, que se acerca demasiado, pero en la teoría de cuerdas son una maraña densa de cuerdas y membranas.

Mediante un prodigioso cálculo, dos científicos de Harvard consiguieron en 1995 calcular el contenido de información de un agujero negro, igualando el famoso resultado obtenido por Stephen Hawking de forma más indirecta en 1973. Este cálculo es considerado por muchos como el resultado más importante hasta la fecha de la teoría de cuerdas, dice Greene. También fue un éxito, dicen Greene y otros, el descubrimiento de que la forma o topología del espacio no es fija, sino que puede cambiar, de acuerdo con la teoría de cuerdas. El espacio puede incluso rasgarse. Pero los logros no son uniformes. Por ejemplo, hasta ahora la teoría de cuerdas ha tenido poco que decir sobre lo que pudo pasar en el instante del Big Bang. Además, la teoría parece tener demasiadas soluciones. Uno de los mayores sueños que los físicos tenían para la llamada teoría del todo es que especificaría una receta única de la naturaleza, una en la que Dios no tuviera posibilidad de elección, como dijo una vez Einstein, sobre detalles tales como el número de dimensiones o las masas relativas de las partículas elementales.

Recientemente, sin embargo, los teorícos han estimado que podría haber al menos 10100 soluciones diferentes a las ecuaciones de cuerdas, que corresponden a las diferentes formas de plegar las dimensiones extra y rellenarlas con campos, es decir billones de billones de billones... de diferentes universos posibles. Algunos teóricos se aferran al sueño de Einstein, confiando en que emergerá una respuesta única a las ecuaciones de cuerdas cuando por fin puedan desentrañar lo que la física del siglo XXI está tratando de decirles sobre el mundo. Pero ese día está todavía lejano. "No sabemos cual es el principio básico de la teoría de cuerdas", dice Witten.

lunes

DIOS Y HAWKING


La pregunta sobre la creación ha atormentado al hombre desde que tiene memoria, y tradicionalmente los pueblos la han atribuido a una acción divina. Hoy la ciencia ha refinado la teoría del Big Bang y la gran explosión que dio origen al universo está más que confirmada. Gracias a los últimos avances es posible entender exactamente qué fue lo que pasó microsegundos después, es decir, cómo se formaron las galaxias y los planetas. Pero aún no hay una respuesta definitiva sobre qué sucedió antes, qué provocó ese estallido y cuál es su razón de ser. Durante siglos científicos y filósofos han intentado desentrañar esos complejos interrogantes. El cosmólogo británico Stephen Hawking es una de las mentes que más tiempo y energía le han dedicado al tema. Sus planteamientos e historia de vida lo han convertido en una estrella y a donde quiera que vaya la gente hace lo imposible por tomarse una selfie a su lado, y cada frase que pronuncia es un titular seguro. Como invitado de honor del festival de astrofísica Starmus en la isla de Tenerife, sus palabras volvieron a causar polémica al reafirmar sin contemplaciones que Dios no existe. “En el pasado, antes de que entendiéramos la ciencia, era lógico pensar que Dios creó el universo. Pero ahora la ciencia ofrece una explicación más convincente”, dijo al periódico español El Mundo.

En su obra más famosa, Breve historia del tiempo, publicada en 1988, Hawking sugirió que el hombre solo conocería “la mente de Dios” cuando lograra entender la teoría de todas las cosas, que busca unificar de manera coherente las fuerzas que gobiernan el universo. Hasta entonces el astrofísico más célebre del mundo se consideraba agnóstico, pues aunque no podía demostrar científicamente la existencia de un ser superior, tampoco cerraba la puerta a esa posibilidad: el concepto de lo divino superaba su conocimiento. En 2010, sin embargo, mandó esa idea al traste en el libro El gran diseño, donde declaró que el universo surgió de la nada, de forma espontánea, como consecuencia inevitable de las leyes de la física. En pocas palabras, Dios no es necesario para explicar el origen de todo. Ahora ha confirmado su postura radical: “Lo que quise decir cuando aseguré que conoceríamos ‘la mente de Dios’ era que comprenderíamos todo lo que Dios sería capaz de entender si acaso existiera. Pero no hay ningún Dios. Soy ateo. La religión cree en los milagros, pero estos no son compatibles con la ciencia”, concluye. 

Tras referirse a la historia del debate teológico sobre el origen del Universo, Hawking repasó brevemente las principales explicaciones cosmológicas, incluyendo la teoría del estado estacionario de Fred Hoyle y Thomas Gold, una idea que considera la hipótesis de que no haya principio ni final y que las galaxias continúan formándose a partir de la creación espontánea de materia. Hawking aseguró que esta teoría, al igual que muchas otras, no se sostienen, tal y como demuestran observaciones recientes llevadas a cabo con telescopios y otros instrumentos científicos. Tras un breve repaso a la física relativista y a la cosmología, Hawking rechazó también la idea de un Universo que se expande y se contrae periódicamente, en una sucesión interminable de “Big Bangs” y Big Crunchs”. Ya en la década de los 80, dijo, probó junto a Roger Penrose que el Universo no podría “rebotar” después de una contracción, tal y como sostiene dicha teoría. Por lo tanto, el tiempo (y el Universo) comenzó en un momento de “singularidad”, y es más que probable que algo así sólo sucediera una vez. “La edad del Universo -dijo Hawking- que ahora se cifra en casi 13.800 millones de años, se ajusta a este modelo, de la misma forma que también encaja el número y la madurez de las galaxias que podemos observar”. En otro momento de su charla, Hawking recordó que en 1980, más o menos en la época en que él publicó un estudio sobre el instante en que nació el Universo, el Papa Juan Pablo II advirtió a la comunidad científica de que no estudiara el momento de la creación, ya que ése era un momento sagrado. “Estoy contento -bromeó- de no haber sido arrojado a la Inquisición”. Para terminar, el científico se refirió a la denominada “Teoría M”, que se basa en parte en las ideas lanzadas hace años por un investigador del Caltech, Richard Feynmann.

Para Hawking, esta teoría es la única “gran idea” que coincide y puede explicar realmente el Universo que observamos. La Teoría M postula que no uno, sino múltiples universos se crearon de la nada, con todas las posibles historias y todos los posibles estados de existencia. Pero solo en unos pocos de estos estados la vida es posible, y en un número aún menor de ellos puede existir algo similar a la Humanidad. Bromeando de nuevo, Hawking aseguró que “se siente afortunado” de vivir precisamente en este estado de la existencia. Esa sentencia no deja de ser paradójica, pues para muchos él mismo es la prueba de que los milagros existen. A los 21 años le diagnosticaron esclerosis lateral amiotrófica, una enfermedad neurodegenerativa que provoca una parálisis muscular progresiva, la misma que causó el furor del Ice ‘bucket challenge’. Los médicos le dieron entre dos y tres años de vida, pero Hawking desafió los pronósticos. Hoy solo puede mover los ojos y las mejillas. Con estas controla un ordenador que le permiten comunicarse mediante un sintetizador de voz. Con acento robótico insiste en que la ciencia es la respuesta a todo. “Creo que sí conseguiremos entender el origen y la estructura del universo. De hecho, ahora mismo estamos cerca de lograr este objetivo”, añade.

Hawking se refiere al reciente hallazgo de ondas gravitacionales generadas durante la creación del cosmos que ratifica la idea de la inflación. Según esta, después del Big Bang el universo se expandió a una velocidad mayor que la luz y en ese proceso se pudieron haber creado otros universos, como si se tratara de una olla de agua hirviendo donde aparecen y se chocan cientos de burbujas. Esa postura, más conocida como la teoría de los multiversos, da luces sobre qué pasó antes de la gran explosión. El británico es optimista, pues para él, “no hay ningún aspecto de la realidad fuera del alcance de la mente humana”.

domingo

ANTES DEL TIEMPO


Los físicos suelen cuestionar cada descubrimiento o teoría que presenta un colega. Pero uno de los puntos en que todos suelen estar de acuerdo es en el origen de nuestro Universo. La teoría más aceptada dice que hace unos 13.700 millones de años tuvo lugar un evento extraordinario, al que llamamos Big Bang (Gran Explosión) que no solo originó toda la materia que hoy observamos sino también las leyes físicas que rigen su existencia, incluidos el espacio y el tiempo. El hecho de que haya sido el propio Big Bang el que originó el tiempo hace que, si la teoria actual fuese 100% correcta, no tenga mucho sentido hablar de eventos que hayan ocurrido antes que esta super explosión.

Sin embargo, imágenes tomadas por el satélite WMAP (Wilkinson Microwave Anisotropy Probe) y analizadas por el prestigioso físico Roger Penrose -si aún no leíste sus libros “La Nueva Mente del Emperador” (1991) o “Lo grande, lo pequeño y la mente humana” (1999)no tienes idea de lo que te estás perdiendo- podrían evidenciar la existencia de un Universo anterior al que hoy ocupamos. No se trata de un descubrimiento menor. En absoluto. Si la hipótesis de Penrose es correcta, los extraños “círculos concéntricos” que aparecen sobre el fondo cósmico de microondas y fotografiados por el WMAP serian la prueba de que en realidad ni el espacio ni el tiempo comenzaron con “el” Big Bang, sino que el Universo efectúa un ciclo -probablemente infinito- de “rebotes”, cada ciclo comenzando con un nuevo Big Bang. Penrose, basándose en estas imágenes, sostiene que lo que actualmente percibimos como “nuestro universo” no es más que uno de los muchos ciclos por los que transita El Universo. Solo se trata de uno de muchos, no es el primero, ni será el último. Por supuesto, al conocer la noticia más de cuatro físicos se han metido de cabeza dentro de un frasco de tranquilizantes, ya que este nuevo concepto demuele los cimientos del modelo cosmológico del Universo inflacionario al que casi toda la comunidad científica subscribe.

Por supuesto, Penrose ha pasado bastante tiempo analizando los datos disponibles antes de lanzar semejante bombazo. Además de las imágenes del WMAP, el físico se ha planteado, por ejemplo, si realmente el estado de entropía existente antes de la existencia del Universo actual era el adecuado para que tuviese lugar el Big Bang. La primer consecuencia que tiene el modelo propuesto por Penrose es que, tarde o temprano, el Universo dejará de expandirse y colapsará sobre si mismo, en un “Big Crunch” cósmico para luego volver a explotar, dando lugar a un nuevo ciclo. En realidad, la idea no es nueva -los físicos discutieron durante décadas sobre si algún día el universo colapsaría sobre si mismo o no- pero hasta ahora no había pruebas que corroboraran esa teoría.

El fondo cósmico de microondas, compuesto por los “residuos” electromagnéticos del propio Big Bang y detectable en cualquier dirección del espacio hacia la que apuntemos un telescopio, podría ser la primer prueba irrefutable de que el Universo inflacionario no existe. os “círculos” fotografiados por WMAP y analizados a lo largo de 7 años por el mismo Penrose junto a su colega Vahe Gurzadyan, corresponden a regiones del Universo que son más “frías” que el resto. Estos científicos afirman que a través de esas regiones estamos atisbando los restos del Universo que existió en el ciclo anterior. Dejando de lado las fórmulas y teorías avanzadas, si el Big Bang hubiese tenido las características que describe el modelo actual, ese fondo debería tener una temperatura muy uniforme, algo que estos círculos desmienten categóricamente. Si no hay algún error en WMAP o en el razonamiento de Penrose y Gurzadyan, el destino del Universo será algo muy diferente a lo que creíamos hasta hoy.

sábado

DEL CALOR Y EL TRABAJO


Se denomina termodinámica a la parte de la física encargada del estudio de fenómenos vinculados con el calor. Se ocupa especialmente de las propiedades macroscópicas de la materia, de las formas de energía, haciendo hincapié en la temperatura. También estudia los intercambios de energía térmica entre distintos sistemas como asimismo las consecuencias a nivel químico de tales intercambios y las consecuencias a nivel mecánico; esto es importante para comprender como la energía calórica se transforma en energía mecánica y viceversa; justamente, esta disciplina debe su desarrollo a la necesidad de optimizar la eficiencia propia de las máquinas de vapor y nos explica por qué ni estas ni ninguna otra máquina puede ser eficiente completamente.

La termodinámica estudia sistemas en equilibrio. Esto significa que as distintas propiedades a considerar en un sistema, como por ejemplo la presión, el volumen, la masa, permanecen constantes. El punto de partida para adentrarse en la disciplina es el conocimiento de sus leyes: la ley cero de la termodinámica o de equilibrio térmico, la primera ley de la termodinámica o principio de conservación de la energía, la segunda ley de la termodinámica relativa al trabajo y al calor y la tercera ley de la termodinámica acerca de la imposibilidad de llegar al cero absoluto.

La ley cero establece que si un sistema A y otro B tienen la misma temperatura y B tiene la misma temperatura que un sistema C, entonces A y C también tienen la misma temperatura.

La primera Ley de la termodinámica sostiene que la energía no puede crearse ni destruirse, solo puede transformarse; así, el calor es una forma de energía que puede convertirse en trabajo mecánico.

Por su parte, la segunda ley de la termodinámica señala que solo es posible la realización de un trabajo a partir del paso del calor de un cuerpo con menor temperatura a uno de mayor temperatura; esta ley además da una explicación del por qué existe una parte de la energía que no puede convertirse en trabajo.

Finalmente, la tercera ley de la termodinámica establece que el cero absoluto es imposible de conseguirse con un número finito de pasos, aunque es posible acercársele indefinidamente. La termodinámica es una de las disciplinas de mayor importancia en el desarrollo de la ciencia; su celebridad se debió en parte a las inquietudes que despertó la revolución industrial. No obstante, es oportuno destacar que sus leyes son válidas únicamente para sistemas macroscópicos pero improcedentes a nivel cuántico.


viernes

TRANSMISION DEL CALOR


Es el proceso por el que se intercambia energía en forma de calor entre distintos cuerpos, o entre diferentes partes de un mismo cuerpo que están en distinto nivel energético. El calor se transfiere mediante convección,radiación o conducción. Aunque estos tres procesos pueden tener lugar simultáneamente, puede ocurrir que uno de los mecanismos predomine sobre los otros dos. La conducción requiere contacto físico entre los cuerpos que intercambian calor, pero en la radiación no hace falta que los cuerpos estén en contacto ni que haya materia entre ellos. La convección se produce a través del movimiento de un líquido o un gas en contacto con un cuerpo de temperatura diferente. Por ejemplo, el calor se transmite a través de la pared de una casa fundamentalmente por conducción, el agua de una cacerola situada sobre un quemador de gas se calienta en gran medida por convección, y la Tierra recibe calor del Sol casi exclusivamente por radiación.

1) Conducción. En los sólidos, la única forma de transferencia de calor es la conducción. Si se calienta un extremo de una varilla metálica, de forma que aumente su temperatura, el calor se transmite hasta el extremo más frío por conducción. No se comprende en su totalidad el mecanismo exacto de la conducción de calor en los sólidos, pero se cree que se debe, en parte, al movimiento de los electrones libres que transportan energía cuando existe una diferencia de temperatura. Esta teoría explica por qué los buenos conductores eléctricos también tienden a ser buenos conductores del calor. Fórmulas y leyes El flujo de calor conducido a través de un cuerpo por unidad de sección transversal es proporcional al gradiente de temperatura que existe en el cuerpo (con el signo cambiado). Campo de temperatura: T = T(x;y;z;t) t: tiempo Campo estacionario: T = T(x;y;z) Gradiente térmico: ∇T = ∂T.i /∂x + ∂T.j /∂y + ∂T.k /∂z = ∂T/∂A | n/m.a i,j, k, n: versores La variación de temperatura por unidad de longitud se denomina gradiente de temperatura: ΔT/L. Intensidad de flujo de calor: Φ = ΔQ/ΔA.Δt [J/m².s] =[watt/m²] [cal/cm².h] Flujo: H = ΔQ/Δt [J/s] =[watt] [cal/h] Flujo lineal: H = k.A.ΔT/L [J/s] =[watt] [cal/h] Flujo radial: H = 2.π.k.L.ΔT/ln (r2/r1) [J/s] =[watt] [cal/h] Flujo esférico: H = 4.π.k.r1.r2.ΔT/(r2- r1) [J/s] =[watt] [cal/h] H: flujo de calor [J/s]. k: conductividad térmica del material [J/s.m.°C]. A: sección de conducción. L: longitud desde el punto de más calor al de menos calor. a) Régimen estacionario: Φ = - λ .∇T b) Régimen estacionario y flujo en una sola dirección: ΔQ = - λ .ΔA.ΔT.Δt.Δl c) Régimen no estacionario: ∇²T = ∂T²/∂x² + ∂T²/∂y2 + ∂T2/∂z2 = ∂T/ α .∂t α = λ /ce.Δ Procedimiento general: i - se resuelve (c), obteniendo T. ii - con (a) se calcula Φ. iii - con Φ se calcula H. El factor de proporcionalidad se denomina conductividad térmica del material. Los materiales como el oro, la plata o el cobre tienen conductividades térmicas elevadas y conducen bien el calor, mientras que materiales como el vidrio o el amianto tienen conductividades cientos e incluso miles de veces menores; conducen muy mal el calor, y se conocen como aislantes. En ingeniería resulta necesario conocer la velocidad de conducción del calor a través de un sólido en el que existe una diferencia de temperatura conocida.

2) Convección. Si existe una diferencia de temperatura en el interior de un líquido o un gas, es casi seguro que se producirá un movimiento del fluido. Este movimiento transfiere calor de una parte del fluido a otra por un proceso llamado convección. El movimiento del fluido puede ser natural o forzado. Si se calienta un líquido o un gas, su densidad (masa por unidad de volumen) suele disminuir. Si el líquido o gas se encuentra en el campo gravitatorio, el fluido más caliente y menos denso asciende, mientras que el fluido más frío y más denso desciende. Este tipo de movimiento, debido exclusivamente a la no uniformidad de la temperatura del fluido, se denomina convección natural. La convección forzada se logra sometiendo el fluido a un gradiente de presiones, con lo que se fuerza su movimiento de acuerdo a las leyes de la hidrodinámica. H = h.A.ΔT [J/s] =[watt] [cal/h] H: flujo de calor [J/s]. h: coeficiente de convección [cal/s.cm².°C]. A: superficie de contacto. Supongamos, por ejemplo, que calentamos desde abajo una cacerola llena de agua. El líquido más próximo al fondo se calienta por el calor que se ha transmitido por conducción a través de la cacerola. Al expandirse, su densidad disminuye y como resultado de ello el agua caliente asciende y parte del fluido más frío baja hacia el fondo, con lo que se inicia un movimiento de circulación. El líquido más frío vuelve a calentarse por conducción, mientras que el líquido más caliente situado arriba pierde parte de su calor por radiación y lo cede al aire situado por encima. De forma similar, en una cámara vertical llena de gas, como la cámara de aire situada entre los dos paneles de una ventana con doble vidrio, el aire situado junto al panel exterior (que está más frío) desciende, mientras que al aire cercano al panel interior (más caliente) asciende, lo que produce un movimiento de circulación. El calentamiento de una habitación mediante un radiador no depende tanto de la radiación como de las corrientes naturales de convección. Debido a la convección, los radiadores deben colocarse cerca del suelo (y los aparatos de aire acondicionado cerca del techo) para que la eficiencia sea máxima. De la misma forma, la convección natural es responsable del tiraje de las chimeneas. La convección también determina el movimiento de las grandes masas de aire sobre la superficie terrestre, la acción de los vientos, la formación de nubes, las corrientes oceánicas y la transferencia de calor desde el interior del Sol hasta su superficie.

3) Radiación. La radiación presenta una diferencia fundamental respecto a la conducción y la convección: las sustancias que intercambian calor no tienen que estar en contacto, sino que pueden estar separadas por un vacío, o bien que no exista materia entre ellas. La radiación es un término que se aplica genéricamente a toda clase de fenómenos relacionados con ondas electromagnéticas. Algunos fenómenos de la radiación pueden describirse mediante la teoría de ondas, pero la única explicación general satisfactoria de la radiación electromagnética es la teoría cuántica. H = A.e. σ .T4 [J/s] =[watt] [cal/h] H: flujo de calor [J/s]. A: superficie que emite o recibe. e: poder emisor, número no dimensional, que esta entre 0 y 1. σ : constante de radiación (σ = 5,6699.10-8.W/m².K4). Albert Einstein sugirió que la radiación presenta a veces un comportamiento cuantizado: en el efecto fotoeléctrico,la radiación se comporta como minúsculos proyectiles llamados fotones y no como ondas. La naturaleza cuántica de la energía radiante la había postulado anteriormente Max Planck. La expresión matemática de esta ley, llamada ley de Planck, relaciona la intensidad de la energía radiante que emite un cuerpo en una longitud de onda determinada con la temperatura del cuerpo. Para cada temperatura y cada longitud de onda existe un máximo de energía radiante. Sólo un cuerpo ideal (cuerpo negro) emite radiación ajustándose exactamente a la ley de Planck.

Los cuerpos reales emiten con una intensidad algo menor. La contribución de todas las longitudes de onda a la energía radiante emitida se denomina poder emisor del cuerpo, y corresponde a la cantidad de energía emitida por unidad de superficie del cuerpo y por unidad de tiempo. Como puede demostrarse a partir de la ley de Planck, el poder emisor de una superficie es proporcional a la cuarta potencia de su temperatura absoluta. H = A.e. σ .T4 El factor de proporcionalidad (σ) se denomina constante (de radiación) de Stefan-Boltzmann. Según la ley de Planck, todas las sustancias emiten energía radiante sólo por tener una temperatura superior al cero absoluto. Cuanto mayor es la temperatura, mayor es la cantidad de energía emitida. Además de emitir radiación, todas las sustancias son capaces de absorberla. Por eso, aunque un cubito de hielo emite energía radiante de forma continua, se funde si se ilumina con una lámpara incandescente porque absorbe una cantidad de calor mayor de la que emite. Las superficies opacas pueden absorber o reflejar la radiación incidente. Generalmente, las superficies mates y rugosas absorben más calor que las superficies brillantes y pulidas, y las superficies brillantes reflejan más energía radiante que las superficies mates. Además, las sustancias que absorben mucha radiación también son buenos emisores (superficie negra ideal o cuerpo negro ⇒e = 1); las que reflejan mucha radiación y absorben poco son malos emisores (e = 0). Por eso,los utensilios de cocina suelen tener fondos mates para una buena absorción y paredes pulidas para una emisión mínima,con lo que maximizan la transferencia total de calor al contenido de la cazuela.

Algunas sustancias, entre ellas muchos gases y el vidrio, son capaces de transmitir grandes cantidades de radiación. Se observa experimentalmente que las propiedades de absorción, reflexión y transmisión de una sustancia dependen de la longitud de onda de la radiación incidente. El vidrio, por ejemplo, transmite grandes cantidades de radiación ultravioleta, de baja longitud de onda, pero es un mal transmisor de los rayos infrarrojos, de alta longitud de onda. Una consecuencia de la ley de Planck es que la longitud de onda a la que un cuerpo emite la cantidad máxima de energía radiante disminuye con la temperatura. La ley de desplazamiento de Wien, que afirma que la longitud de onda que corresponde a la máxima energía, multiplicada por la temperatura absoluta del cuerpo, es igual a una constante, 2.878 micrómetros-Kelvin. Este hecho, junto con las propiedades de transmisión del vidrio antes mencionadas, explica el calentamiento de los invernaderos. La energía radiante del Sol, máxima en las longitudes de onda visibles, se transmite a través del vidrio y entra en el invernadero. En cambio, la energía emitida por los cuerpos del interior del invernadero, predominantemente de longitudes de onda mayores, correspondientes al infrarrojo, no se transmiten al exterior a través del vidrio. Así, aunque la temperatura del aire en el exterior del invernadero sea baja, la temperatura que hay dentro es mucho más alta porque se produce una considerable transferencia de calor neta hacia su interior. Además de los procesos de transmisión de calor que aumentan o disminuyen las temperaturas de los cuerpos afectados, la transmisión de calor también puede producir cambios de fase, como la fusión del hielo o la ebullición del agua.