BUSCADOR

VISITAS

ARCHIVOS DEL BLOG

Mostrando entradas con la etiqueta Física. Mostrar todas las entradas
Mostrando entradas con la etiqueta Física. Mostrar todas las entradas

miércoles

INFINITAMENTE UNO


El infinito, esa palabra que parece contenerlo todo y nada a la vez, se extiende más allá de cualquier frontera del pensamiento. Es un concepto que desafía los límites de la razón humana, una idea que no se deja atrapar por las reglas numéricas ni por las proporciones del mundo tangible. Cuando se lo contempla como número, el infinito se convierte en una presencia inquietante, una cifra imposible que habita en los márgenes del entendimiento, como un horizonte que se aleja cada vez que uno intenta alcanzarlo.

Imagina una recta numérica. Empieza con el cero, avanza por el uno, el dos, el tres, y así sucesivamente. No hay fin. Cada número tiene un sucesor, y por más que se cuenten, siempre habrá otro esperando al final de la fila. Allí, en esa imposibilidad de terminar, vive el infinito. No como un número que pueda ocupar un lugar preciso, sino como una promesa perpetua de continuación. Es el punto al que nunca se llega, aunque todos los números se dirijan hacia él.

Pero el infinito no solo se encuentra al final del camino. También habita en el interior de las cosas, en la densidad secreta de los intervalos. Entre el uno y el dos, por ejemplo, existen infinitos números. Entre el cero y el uno, infinitos más. Cada fracción puede dividirse en otra, y esa en otra, y así sucesivamente, hasta que el pensamiento se rinde ante el vértigo. El infinito se ríe de las divisiones, porque no hay límite en la fragmentación. Si el todo puede dividirse sin cesar, entonces lo diminuto es tan inabarcable como lo inmenso.

El infinito como número es una paradoja: una cantidad sin medida. No puede sumarse ni restarse de la misma forma que los otros. Si a un número infinito le añadimos uno, sigue siendo infinito. Si le restamos mil, también lo es. Si lo multiplicamos por dos, no cambia. Y sin embargo, hay infinitos que superan a otros infinitos, como si el concepto mismo se desplegara en una jerarquía de lo inconmensurable. Así, existen infinitos que abarcan más que otros, conjuntos que contienen infinitas partes dentro de un infinito mayor, como si el propio infinito tuviera niveles, profundidades, grados de eternidad.

En el ámbito del pensamiento, el infinito es una frontera y un abismo. Representa aquello que no puede ser comprendido completamente, pero cuya existencia resulta inevitable. Es el eco de una pregunta sin respuesta, un espejo que devuelve al pensamiento su propio límite. El ser humano, con su mente finita, intenta dar forma a lo que no tiene forma, poner cifra a lo que no puede contarse. Así, el infinito no solo es un número: es una sombra del pensamiento, una evidencia de su propia insuficiencia.

En cierto modo, el infinito es una metáfora de la existencia. Vivimos dentro de límites —del cuerpo, del tiempo, de la comprensión—, pero sentimos que algo se extiende más allá de ellos. El deseo, la curiosidad, la imaginación: todos apuntan hacia lo infinito. Cuando miramos el cielo nocturno, cuando contemplamos la vastedad del mar, o cuando intentamos concebir la eternidad, tocamos, aunque sea por un instante, la orilla de ese concepto. Y en ese contacto, breve e inasible, el infinito se vuelve real, no como número, sino como experiencia.

En el terreno de los números, el infinito no se comporta como una entidad aritmética, sino como un símbolo de expansión. Representa la idea de que no hay final ni totalidad definitiva. Si todo número tiene un sucesor, entonces el infinito es la afirmación de que no existe el último número. Es, en esencia, el reconocimiento de que el proceso de contar no puede completarse jamás. En este sentido, el infinito no es una cantidad, sino un movimiento perpetuo, una dirección sin destino.

También puede verse al infinito como una forma de libertad matemática. Dentro de él, todas las reglas se disuelven y el pensamiento se aventura en lo indeterminado. Allí no hay comienzos ni finales, no hay primera ni última cifra. Solo hay continuidad, flujo, posibilidad. Es el lugar donde la mente se enfrenta con su propio límite y, paradójicamente, se siente más libre que nunca.

Así, el infinito como número no existe realmente en el sentido común del término. No puede escribirse ni imaginarse por completo. Es una noción que flota entre lo matemático y lo filosófico, entre el cálculo y el asombro. Sin embargo, su no existencia es precisamente lo que le da poder: el infinito no necesita ser para influir. Es una presencia ausente, una magnitud que ordena y desordena al mismo tiempo.

Pensar en el infinito es pensar en lo eterno, en lo ilimitado, en lo que escapa a toda definición. Es reconocer que hay cosas que no pueden reducirse a una fórmula. Que hay ideas tan vastas que, al intentar encerrarlas en palabras, se derraman por los bordes del lenguaje. En ese derrame, en esa imposibilidad de capturarlo por completo, el infinito se revela: no como un número en una lista interminable, sino como la huella misma de lo que nunca termina

LOS PENTAQUARKS


En los pasillos silenciosos del CERN, bajo tierra, en ese inmenso anillo de imanes y vacío donde el tiempo parece medirse no por minutos sino por colisiones, hay una historia que no empieza en el siglo XXI, sino muchas décadas antes, cuando los físicos todavía trataban de entender qué había dentro de los protones y neutrones. En aquel entonces, la palabra “quark” sonaba más a un invento poético que a una pieza real del universo, una idea casi atrevida para explicar lo que no se podía ver. Con el tiempo, esa intuición se convirtió en certeza, y la cromodinámica cuántica, esa complicada teoría que describe cómo los quarks se abrazan gracias a los gluones, fue dibujando un mapa detallado de lo que pasa dentro de cada hadrón.

La teoría siempre fue generosa en posibilidades. No había ninguna ley que dijera que los quarks tenían que agruparse de tres en tres, como en un protón o un neutrón, o de dos en dos, como en los mesones. La matemática permitía combinaciones más complejas: cuatro quarks y un antiquark, seis quarks, incluso estados híbridos en los que los gluones no solo servían de pegamento, sino que participaban como parte de la partícula misma. Pero la teoría, sin experimentos que la confirmen, es como un mapa sin territorio: útil para soñar, insuficiente para caminar.

Durante años hubo rumores, picos en los datos que podían ser algo, señales esquivas que aparecían en experimentos japoneses o estadounidenses y luego se desvanecían bajo la sospecha de errores estadísticos. El “pentaquark” era casi una leyenda urbana de la física: posible, deseado, pero sin huella firme. Hasta que el LHCb, uno de los detectores más especializados del Gran Colisionador de Hadrones, decidió mirar con la paciencia de un cazador.

La presa no era fácil. Un pentaquark no vive lo suficiente como para posar para un retrato; existe durante una fracción de segundo antes de desintegrarse en partículas más simples. Para detectarlo, hay que analizar millones y millones de colisiones, buscar en las montañas de datos patrones minúsculos, correlaciones entre energías y direcciones, como si se tratara de reconstruir la forma de una gota de agua viendo únicamente las ondas que dejó al caer. Fue así, en 2015, que el CERN anunció lo que durante décadas había escapado: una señal clara, inconfundible, de un estado formado por cinco quarks.

La noticia recorrió el mundo científico con una mezcla de alivio y excitación. No era solo que se había encontrado una nueva partícula; era la confirmación de que la QCD tenía razón al permitir estructuras más exóticas, y que nuestra comprensión de la materia todavía estaba incompleta. Los pentaquarks que se detectaron parecían tener una configuración que incluía quarks charm y anti-charm, un indicio de que estos estados podían ser más complejos que los protones de la vida diaria, quizá más parecidos a una molécula que a un núcleo compacto.

Pero lo más fascinante no es solo que existan, sino lo que podrían significar. Si entendemos cómo se mantienen unidos cinco quarks, podríamos tener pistas sobre el comportamiento de la materia en condiciones extremas, como las que se dan en el corazón de una estrella de neutrones, donde la presión es tan brutal que los protones y neutrones se funden en un océano de quarks. Podría incluso ayudarnos a pensar en la materia que llenó el universo en los primeros microsegundos después del Big Bang, cuando la temperatura y la densidad eran inimaginables.

Los físicos del CERN no se conformaron con el primer hallazgo. Año tras año, el LHCb ha refinado sus mediciones, descubriendo nuevas variantes de pentaquarks, midiendo sus masas con más precisión, observando diferentes modos de desintegración. Cada nueva observación es como abrir una ventana a un rincón del zoológico subatómico que antes estaba cerrado. La próxima década será aún más ambiciosa: el LHC está en proceso de aumentar su luminosidad, lo que significa más colisiones, más datos y, con suerte, más descubrimientos. No sería extraño que aparecieran pentaquarks con quarks bottom, o combinaciones aún más raras. Tal vez se detecten estados tan extraños que no encajen en ninguna categoría previa.

El futuro de estos hallazgos no se limita a la física de partículas. En algún lugar, la materia oscura —ese enigma que compone la mayor parte del universo y que aún no podemos detectar directamente— podría tener pistas relacionadas con estados de quarks exóticos. No porque los pentaquarks sean la materia oscura, sino porque entender la QCD en su forma más extrema podría darnos las herramientas conceptuales para buscarla mejor.

Cuando cae la noche en Ginebra y los turistas ya se han ido, el LHC sigue funcionando, invisible bajo los campos y las colinas. Dentro, protones giran casi a la velocidad de la luz, chocan, se rompen en sus piezas más pequeñas y se reorganizan en formas que nadie ha visto antes. Entre esos destellos, quizá se formen nuevos pentaquarks que todavía no sabemos reconocer. Y en las pantallas de los físicos, entre líneas y gráficos que para otros serían ruido, aparece la señal leve de que algo imposible acaba de suceder. Ahí, en ese instante, la física da un paso más, y la historia de los pentaquarks continúa 

martes

ALGO SOBRE EL CERN


El Gran Colisionador de hadrones lleva 15 años haciendo chocar partículas en busca de respuestas a los misterios más profundos del cosmos. Ahora, los científicos han comenzado a abrir una puerta trasera hacia una realidad que existe más allá del alcance del colisionador más poderoso del mundo. 

Esta puerta oculta conduce al zeptouniverso, una dimensión que existe a distancias de una sextillonésima parte de un metro. Una distancia increíblemente pequeña que es equivalente a la que separa un pelo del borde del universo observable. 

Según explica Harry Cliff, físico de partículas en la Universidad de Cambridge, el panorama actual de la física de partículas presenta una paradoja desconcertante. “El modelo estándar es lo más cercano que tenemos a una teoría del todo, ya que describe todas las partículas y fuerzas fundamentales conocidas, con la excepción de la gravedad. Ha superado todas las pruebas experimentales a las que lo hemos sometido, con una precisión exasperante. 

Exasperante, porque sabemos que el Modelo Estándar es incompleto”, asegura el investigador que también trabaja en el experimento LHCb, el enorme detector de partículas enterrado a cien metros bajo tierra en el CERN, situado cerca de Ginebra. El Modelo Estándar no puede explicar la materia oscura, esa sustancia invisible cuya atracción gravitacional da forma al cosmos. 

Tampoco ofrece respuesta a los patrones que vemos en las partículas fundamentales. Y además, sugiere que toda la materia debería haber sido aniquilada con su imagen especular, la antimateria, en el primer microsegundo del Big Bang. 

Es aquí donde entra en escena Andrzej Buras, un investigador alemán de 78 años, físico teórico de la Universidad Técnica de Múnich. Buras está detrás de la idea de que podemos abrir una puerta trasera a un reino que hay más allá del alcance del LHC. Este científico casi octogenario no está dispuesto a esperar décadas a que fabriquen un sucesor más potente del LHC y ha puesto en marcha un plan alternativo que ha empezado a dar sus frutos.

Una realidad paralela microscópica
La misión que se ha impuesto Buras es llegar al zeptouniverso, donde sospecha que se esconden las partículas nuevas que tanto buscan. Para hacerlo, el investigador propone usar los colisionadores de partículas como microscopios supersónicos que puedan sondear los componentes fundamentales de la realidad a escalas de distancia extremadamente cortas. “En el ámbito de las partículas existe una relación inversa entre la energía y la distancia. La teoría cuántica nos muestra que los electrones o los protones, por ejemplo, se comportan simultáneamente como ondas”, explica Cliff. “Cuando las partículas se aceleran a altas energías, sus longitudes de onda se acortan cada vez más, lo que significa que se convierten en sondas que nos permiten ver a escalas mucho más pequeñas que un átomo”.

Además, las partículas muy masivas que existen a escalas de distancia más pequeñas pueden influir en el comportamiento de las partículas más ligeras a escalas más grandes. “Las partículas no son en sí mismas fundamentales, sino vibraciones en campos cuánticos siempre presentes, objetos invisibles y fluidos que llenan todo el universo”, dice el investigador. “Aunque una nueva partícula sea demasiado pequeña para que el LHC la detecte, su campo cuántico puede seguir ejerciendo una influencia persistente a distancias mayores, afectando al comportamiento de partículas de mayor tamaño. Esto significa, que las mediciones precisas de las partículas que producimos habitualmente en los aceleradores existentes pueden revelar la influencia de nuevas partículas que se encuentran más allá de nuestro campo de visión directo”.

Primeras señales desde el zeptouniverso
Buras ha trabajado con Elena Venturini, ahora en la Escuela Internacional de Estudios Avanzados de Trieste, Italia, para elaborar una lista de objetivos para analizar con este microscópico supersónico que denominan los magníficos siete. Son todas desintegraciones extremadamente raras de partículas que contienen tipos exóticos de quark (quarks extraños o quarks bottom), un componente fundamental de la materia que no se encuentra aislado en la naturaleza. Estas desintegraciones son particularmente raras porque pasar de la partícula inicial a los productos de desintegración en el Modelo Estándar requiere una mezcla complicada de varias partículas intermedias extremadamente masivas. 

Sin embargo, si se consigue, los resultados tienen el potencial para permitirnos observar nueva física durante esta misma década. "La idea es bastante sencilla", según Cliff. "En primer lugar, los teóricos hacen predicciones precisas sobre la frecuencia con la que debería producirse una de estas desintegraciones raras, según el Modelo Estándar. 

A continuación, los experimentadores realizan las mediciones más precisas posibles de esas tasas de desintegración utilizando datos del LHC y otros aceleradores. Cualquier discrepancia significativa entre la teoría y el experimento es una prueba indirecta de la existencia de nuevas partículas". El nuevo método ya ha comenzado a arrojar resultados. El experimento NA62 del CERN, que funciona desde 2015, anunció en septiembre del año pasado la primera observación de una desintegración increíblemente rara que ocurre aproximadamente una vez por cada 10 mil millones de kaones (un tipo de partícula subatómica formada por un quark y un antiquark). 

No solo es la desintegración de partículas más rara que jamás hayamos visto, sino que la tasa de desintegración medida fue también alrededor de un 50% más alta que la predicción del Modelo Estándar.
La carrera contra el tiempo
Cliff ha hablado recientemente con Buras y el veterano científico alemán le expresó su frustración. Aunque se mantiene en buena salud por ahora, sabe que el tiempo juega en su contra. El experimento NA62 continuará recolectando datos por un par de años más, pero luego el espacio que ocupa deberá ser liberado para un nuevo experimento recientemente aprobado. Además, el Experimento de Kaones de Alta Intensidad que podría haber extendido el trabajo de NA62 no fue aprobado por el CERN. Las esperanzas ahora se centran en el experimento KOTO en J-PARC, Japón, donde los físicos están realizando una búsqueda paralela de una segunda desintegración rara de kaones. Aunque todavía no han visto resultados, esperan más datos pronto. 

También hay prevista una segunda actualización del LHCb que aumentará la velocidad a la que se registran los datos en un orden de magnitud. Una vez que esté en marcha en la década de 2030, esta nueva del experimento debería asegurar que realmente podamos cumplir con la visión de Buras de una expedición adecuada al zeptouniverso. “El coste y la escala del próximo colisionador eclipsarán incluso al LHC, superando los límites de lo que se puede lograr en un solo proyecto científico”, concluye Cliff. “Por lo tanto, algunas señales claras de que realmente nos espera una nueva física en el zeptouniverso harían aún más convincente la necesidad de un colisionador que pueda investigarla directamente”.

domingo

ALGO DE NADA


Antes de que existieran las galaxias, las estrellas o incluso la luz, hubo algo. O mejor dicho, no hubo nada. No hablamos de un lugar. Ni de un momento. Hablamos de un estado de existencia donde las reglas del universo simplemente no se aplicaban. El espacio no tenía forma. El tiempo no avanzaba. Era un vacío tan absoluto que nuestras palabras apenas pueden rozar lo que significa. Y sin embargo, de esa nada, algo surgió.

En una fracción de segundo, el universo se expandió a una velocidad inconcebible. Energía, materia, el propio espacio. Todo emergió de un punto. O tal vez de algo aún más extraño. En 1929, Edwin Hubble descubrió que las galaxias se alejan unas de otras. Esa fue la primera prueba clara de que el universo está en expansión. Pero eso nos lleva a una pregunta aún más profunda. ¿Por qué comenzó todo? ¿Qué desencadenó el nacimiento del universo? La idea de la nada es mucho más compleja de lo que parece. Durante milenios, filósofos y científicos han debatido su significado.

Porque cuando decimos nada, ¿a qué nos referimos realmente? En filosofía, la nada suele definirse como una ausencia absoluta. Sin ser, sin propiedades, sin existencia de ningún tipo. Una idea tan radical que resulta difícil de imaginar.

Para Aristóteles, por ejemplo, un vacío real era imposible. La naturaleza aborrece el vacío, decía. Él creía que todo espacio debía estar ocupado por algo, aunque fuera una sustancia invisible.

La idea de que algo pueda surgir de la nada simplemente no encajaba con su visión del mundo. Muchos sistemas filosóficos antiguos compartían esta noción. El universo no se crea de la nada, sino que surge por transformación o emanación de algo ya existente. Siglos después, el filósofo Leibniz planteó la pregunta más profunda. ¿Por qué hay algo en lugar de nada? Si la nada absoluta parece más simple, más natural, ¿por qué existe el universo? ¿Qué explica que haya algo en lugar de la ausencia total? Durante siglos, incluso en la ciencia, el vacío se entendía como la ausencia de materia. Un escenario donde no había partículas, pero donde el espacio seguía existiendo como un escenario vacío.

Todo comenzó a cambiar en el siglo XVII, con experimentos como el barómetro de Torricelli, que demostró que era posible crear un espacio sin aire, un vacío real. Pascal y Boyle también aportaron pruebas experimentales que derribaron la vieja idea aristotélica de que todo debía estar lleno. Pero incluso entonces, el vacío era solo un lugar donde no había cosas. En el siglo XIX surgió la idea del éter luminífero, una sustancia invisible que supuestamente llenaba todo el espacio y servía de medio para que la luz se propagara. Pero esa teoría fue descartada con la llegada de la relatividad. Einstein demostró que el éter no era necesario. El espacio mismo podía curvarse, expandirse, contraerse. Ya no era un simple fondo, era dinámico, con propiedades físicas reales. A comienzos del siglo XX, la mecánica cuántica cambió todo.

Según el principio de incertidumbre de Heisenberg, es imposible que un campo cuántico esté completamente en reposo. Incluso en el vacío más vacío posible existen fluctuaciones. Pares de partículas surgen espontáneamente y desaparecen en fracciones de segundo. 
No podemos verlas directamente, pero sus efectos se pueden medir. Un ejemplo claro es el efecto Casimir, donde dos placas metálicas muy cercanas en un vacío experimentan una fuerza que las empuja una contra otra. Esa fuerza proviene de la diferencia en las fluctuaciones cuánticas entre el espacio dentro y fuera de las placas. Así descubrimos que el vacío cuántico no está vacío. Es una sopa burbujeante de energía, con partículas virtuales surgiendo y desapareciendo. En física moderna, cada tipo de partícula no es más que una vibración en un campo cuántico.

Por ejemplo, el electrón es una vibración del campo del electrón. El fotón, del campo electromagnético. Y hay un campo llamado campo de Higgs que llena todo el universo. 
Este campo tiene una energía mínima distinta de cero, incluso cuando no hay partículas. Gracias a él, algunas partículas adquieren masa. Así que incluso en su estado vacío, el campo de Higgs sigue estando ahí. Entonces, ¿qué es la nada para la ciencia? No es la ausencia absoluta de todo. Es un estado mínimo de energía, de campos, de potencial. Lo que los físicos llaman nada, en realidad, es algo.

Un estado vacío desde nuestro punto de vista, pero lleno de actividad cuántica desde el punto de vista del universo. Según el modelo cosmológico más aceptado, el universo nació de un estado extremadamente caliente y denso hace unos 13.800 millones de años. Ese punto inicial, una singularidad, no era una explosión en el espacio, sino la expansión del propio espacio. 
El universo no explotó en algo. Era ese algo y simplemente comenzó a expandirse. Pero esta idea nos deja frente a una gran pregunta. ¿Qué había antes del Big Bang? La respuesta no es sencilla. Si el espacio y el tiempo nacieron con el Big Bang, entonces no hay un antes, al menos no en el sentido clásico. Pero los científicos no se rinden fácilmente ante el misterio.

Algunas teorías proponen que el Big Bang no fue el inicio absoluto, sino una transición. Por ejemplo, los modelos cíclicos sugieren que el universo se expande, luego se contrae y vuelve a expandirse en un ciclo eterno. Lo que hoy llamamos Big Bang sería solo un rebote, un nuevo comienzo tras un colapso anterior. Otras teorías, como la gravedad cuántica de bucles, sugieren que el universo nunca llegó a un punto de densidad infinita. En lugar de una singularidad, habría existido un rebote cuántico desde un estado anterior comprimido. Otra hipótesis poderosa es la inflación cósmica. En sus primeros instantes, el universo se habría expandido a una velocidad exponencial, multiplicando su tamaño billones de veces en una fracción de segundo. Esta inflación podría haber sido causada por un campo inflacionario, y el Big Bang sería simplemente la transición de ese campo hacia un estado más estable. Pero algunos modelos inflacionarios también abren la puerta a algo más grande, un multiverso.

En él, nuestro universo sería solo una burbuja dentro de un mar cósmico de burbujas, cada una con sus propias leyes físicas. Y lo que llamamos nada antes del Big Bang, en realidad sería un vacío cuántico altamente energético, capaz de generar universos por fluctuaciones. ¿La nada o una realidad más profunda? Ya sea un rebote, una burbuja inflacionaria o una transición desde una dimensión más alta como proponen algunas versiones de la teoría de cuerdas, la conclusión es clara. 
Lo que la ciencia llama nada antes del Big Bang siempre ha sido algo. Campos. Energía. Geometrías cuánticas. Dimensiones invisibles. La verdadera nada, una ausencia total de ser, quizás ni siquiera sea posible.

Apenas una fracción de segundo después del Big Bang, ocurrió algo extraordinario. El universo se expandió a una velocidad inimaginable, multiplicando su tamaño billones de veces en menos de un parpadeo. A esto se le llama inflación cósmica y fue una idea propuesta en los años 80 por el físico Alan Guth. Sirvió para resolver varios misterios. ¿Por qué el universo es tan homogéneo en todas direcciones? ¿Por qué su geometría es tan plana? ¿Por qué no vemos ciertos tipos de partículas exóticas? La inflación estiró el espacio tan rápidamente que cualquier irregularidad inicial desapareció. Y al finalizar, el campo inflacionario liberó una enorme cantidad de energía, dando origen a la materia y la radiación que hoy observamos. Tras la inflación, el universo era una sopa extremadamente caliente y densa, llena de partículas elementales, quarks, gluones, electrones, neutrinos, fotones. A medida que se expandía, se enfriaba. Cuando la temperatura bajó lo suficiente, los quarks se combinaron para formar protones y neutrones.

Más tarde, esos protones y neutrones se fusionaron, formando los primeros núcleos de hidrógeno, helio y trazas de litio. Este proceso, conocido como nucleosíntesis primordial, ocurrió en los primeros 3 a 20 minutos tras el Big Bang. Durante cientos de miles de años, el universo fue opaco. ¿Por qué? Porque los electrones aún no se habían unido a los núcleos atómicos. Todo estaba en forma de plasma. Una nube de partículas cargadas y fotones que chocaban constantemente. 
La luz no podía viajar libremente. Era como estar dentro de una niebla espesa. Unos 380.000 años después del Big Bang, la temperatura descendió hasta los 3.000 grados Kelvin.

Fue entonces cuando los electrones se unieron a los núcleos, formando átomos neutros. La niebla se disipó. La luz pudo moverse libremente. Esa luz es la radiación cósmica de fondo de microondas, el eco fósil del Big Bang, y todavía la podemos detectar hoy como un tenue resplandor de unos 2,7 grados sobre el cero absoluto que llena todo el cielo. Esta radiación es uno de los pilares de la cosmología moderna. Nos muestra cómo era el universo cuando tenía menos de medio millón de años. Después de liberar la radiación cósmica de fondo, el universo entró en una etapa conocida como las eras oscuras. No había estrellas. No había luz.

Sólo una expansión silenciosa de gas de hidrógeno y helio. Pero en algunas regiones, pequeñas fluctuaciones de densidad, esas pequeñas arrugas, sembradas por la inflación, comenzaron a colapsar por la gravedad. Con el tiempo, la materia se agrupó. Las nubes de gas se comprimieron hasta que en sus núcleos la temperatura fue tan alta que comenzó la fusión nuclear. Así nacieron las primeras estrellas, conocidas como estrellas de población 3. Fueron gigantes, efímeras, y con su luz rompieron la oscuridad. También sembraron el universo con elementos más pesados como carbono, oxígeno y hierro, necesarios para la vida. A medida que pasaron millones de años, las estrellas comenzaron a agruparse en galaxias. Y estas galaxias, a su vez, formaron cúmulos y supercúmulos, organizados en una vasta red tridimensional, el tejido cósmico. Pero nada de esto hubiera sido posible sin una misteriosa aliada, la materia oscura.

No la podemos ver, no emite ni refleja luz, pero sí deja huellas. Su gravedad mantiene unidas a las galaxias y acelera su formación. De hecho, solo el 5% del universo es materia normal. 
El 27% es materia oscura y el resto, algo aún más extraño. En 1998, los astrónomos descubrieron que la expansión del universo no se está frenando. Se está acelerando. La responsable es la energía oscura, una fuerza repulsiva que actúa como una especie de antigravedad. Representa el 68% del universo y aún no sabemos qué es exactamente. Si la energía oscura sigue dominando, el universo podría continuar expandiéndose por siempre. 
Las galaxias se alejarán unas de otras hasta que ya no podamos verlas. Las estrellas se apagarán. Los agujeros negros se evaporarán. Y en billones de años, el universo será frío, oscuro y silencioso. Un final tan misterioso como su origen. Hemos recorrido la historia del universo desde antes de su nacimiento, explorando el significado de ese concepto tan esquivo, la nada.

Y, sin embargo, en cada intento por entenderla, nos encontramos con algo. Campos cuánticos. Energía del vacío. Geometrías ocultas. Fluctuaciones. Incluso el vacío más extremo de la física moderna no es la ausencia total, sino una red de posibilidades latentes. Quizás la nada absoluta no sólo es inalcanzable. Quizás no puede existir. Cuando los científicos hablan de que el universo surgió de la nada, no se refieren a una nada absoluta. Hablan de un estado mínimo de energía, de un campo cuántico inestable, de una geometría que aún no había despertado. La filosofía, por su parte, nos recuerda la dimensión más profunda de esta pregunta. ¿Por qué hay algo en lugar de nada? No se trata sólo de entender cómo comenzó el universo.

Se trata de comprender qué significa existir en un universo que, según todas las probabilidades, podría no haber existido jamás. La mayor maravilla no es que el universo exista. Es que nosotros existimos para preguntarnos por él.

viernes

GRANDIOSO UNIVERSO

Extrapolando a todo el cosmos observable, los astrónomos estiman que nuestro Universo tiene un diámetro de 93.000 millones de años luz. A principios de la década de 2000, el telescopio espacial Hubble demostró que el ritmo de expansión actual se acercaba a los 75 kilómetros por segundo por megapársec (un millón de pársecs). A finales de los años 90, descubrimos que la expansión no se estaba ralentizando en absoluto. Al contrario, se aceleraba y nada en la física conocida podía explicarlo.  El cosmos es aproximadamente un 5 % de materia ordinaria, un 27 % de materia oscura y un 68 % de energía oscura, esa otra forma misteriosa de masa/energía. Esto es un hecho, al menos por ahora.

El modelo estándar de la cosmología supone que vivimos en un universo plano que, gracias a la energía oscura, se dilataría eternamente. De acuerdo con la teoría de cuerdas,  se estima que existen alrededor de 11 dimensiones distintas, cada una de las cuales contendría de 10 a 500 universos, dando un total aproximado de 1, seguido de 500 ceros, como una estimación de universos totales.

Aunque resulta fascinante, hay que admitir que la idea del multiverso es muy especulativa.Una buena parte de la comunidad científica se pregunta si el estudio de universos paralelos puede considerarse siquiera como una rama de la ciencia. Después de todo, ésta se basa en la verificación experimental. Gracias al método científico, la ciencia descansa en hechos y resultados, y no en creencias. Si nunca vamos a obtener pruebas directas de otros universos, ¿no estamos abandonando la razón fundamental del éxito de la ciencia?

martes

EL HOMBRE Y LA FISICA

       

La física, del griego fisis («naturaleza»), es la ciencia natural que estudia, mediante leyes fundamentales, la energía, la materia, el tiempo y el espacio, es decir, el universo mismo. La física es una de las disciplinas académicas más antiguas, cuyas raíces se remontan a los inicios de la civilización, cuando el hombre empezó a tratar de entender las fuerzas que regían el mundo a su alrededor.

Se trata de una disciplina tanto teórica (describe las leyes del universo) como experimental (pone en práctica de hipótesis respecto a dichas leyes), y se adhiere al modelo de comprobación y legitimación impulsado por el método científico. Es una de las ciencias fundamentales o centrales que existen, y dentro de su campo de estudio convergen a menudo la química, la biología y la electrónica, entre otras.

Inicialmente la física formaba parte, como tantas otras ciencias, de la filosofía o la filosofía natural de la antigüedad, pero a partir de la Revolución Científica del siglo XVII surgió como un campo independiente, interesado en las leyes fundamentales de la realidad y empleando el lenguaje formal de las matemáticas para expresarlas. En la actualidad, en cambio, la física es una de las disciplinas que más contribuye con el cambio del paradigma científico, industrial y tecnológico. La física como la conocemos hoy se describe mediante cuatro marcos teóricos que dependen del tamaño de la materia en estudio y de la velocidad de su movimiento. Estos son:

Mecánica clásica. Se ocupa de los movimientos perceptibles en cuerpos macroscópicos, cuyas velocidades son muy pequeñas en comparación con la velocidad de la luz.
Mecánica relativista. Sustentada en los desarrollos teóricos de Albert Einstein durante el siglo XX, se asemeja a la clásica en su carácter determinista. Sin embargo, la mecánica relativista describe fenómenos que se encuentran dentro del marco de la teoría de la relatividad especial, que describe el comportamiento de los cuerpos que se mueven a velocidades cercanas a la de la luz; y de la Teoría general de la relatividad, que es una formulación teórica para el campo gravitatorio (gravedad).
Mecánica cuántica. Estudia sistemas de muy pequeña escala, como los átomos y las partículas elementales. Describe sus interacciones mediante las tres fuerzas que imperan a estas escalas: la fuerza fuerte, débil y electromagnética.
Teoría cuántica de campos. Es un formalismo matemático para describir la mecánica cuántica tratando a las partículas como campos. Resulta muy útil, por ejemplo, a la hora de estudiar el campo electromagnético. En la mecánica cuántica, se se describe al campo electromagnético como un conjunto de partículas elementales llamadas fotones. La teoría cuántica de campos, por otra parte, lo trata como un sistema de campos continuos.

La física se ocupa de las leyes fundamentales del universo, es decir, de entender y describir la mecánica con que el universo opera. Estas leyes se describen mediante cuatro interacciones fundamentales:

Gravedad. La fuerza de atracción existente entre dos o más cuerpos masivos (que tienen masa). Cuanto más masivos son los cuerpos, más intensa es la fuerza y más alcance tiene su efecto.
Electromagnetismo. La fuerza de atracción o repulsión que se manifiesta entre partículas cargadas eléctricamente.
Fuerzas nucleares débiles. También llamada interacción débil, es una fuerza que existe entre partículas fundamentales, es de muy corto alcance y es la responsable de los decaimientos atómicos y de la radiactividad.
Fuerzas nucleares fuertes. Es una fuerza de atracción que mantiene unidos a los neutrones y los protones en el núcleo del átomo, venciendo la repulsión electromagnética entre estos últimos (cargados positivamente).
Ramas de la física
Acústica. Estudia la naturaleza del sonido: su propagación, su origen, su altura.
Astrofísica. Estudia los astros (sus propiedades, origen, evolución) a través de las leyes de la física.
Biofísica. Estudia las leyes físicas que rigen los fenómenos biológicos y los estados físicos de todos los seres vivos.
Electromagnetismo. Estudia los fenómenos eléctricos y magnéticos de la materia y de los campos de energía magnética que existen en el espacio.
Física nuclear. Estudia el comportamiento y las propiedades de los núcleos de los átomos.
Mecánica de sólidos. Estudia principalmente el movimiento de los cuerpos sólidos.
Mecánica de fluidos. Estudia las dinámicas de los fluidos: líquidos y gases.
Óptica. Estudia la luz y los fenómenos asociados a ella: su naturaleza, su propagación, sus propiedades, etc.
Termodinámica. Estudia el calor y el trabajo que produce.
Cosmología. Estudia el origen del universo y las leyes que lo rigen.
Mecánica cuántica. Estudia las partículas fundamentales de la materia, es decir, los átomos y partículas subatómicas...



COMO FUNCIONA EL MUNDO


Aunque los relatos siempre serán una parte esencial de la cultura humana, incluso en ciencia (y la vida sería mucho más pobre sin ellos), la ciencia moderna ha reemplazado en la actualidad muchos de los mitos antiguos y de las creencias supersticiosas asociadas a ellos. Un buen ejemplo de la desmitificación que han experimentado las estrategias para comprender el mundo lo ofrecen los mitos de la creación. Desde los albores de la historia, la humanidad ha inventado relatos sobre los orígenes del mundo, así como deidades instrumentales para su creación, desde el dios sumerio Anu, señor de los cielos, hasta los mitos griegos de Gaia, creada a partir del Caos, y los mitos del Génesis de las religiones abrahámicas, aún hoy consideradas verdades literales en numerosas sociedades del mundo. 

A muchas personas no científicas les podrá parecer que las teorías cosmológicas modernas sobre los orígenes del universo no son de por sí mejores que los mitos religiosos a los que sustituyen (y si consideramos algunas de las ideas más especulativas de la física teórica actual, puede que usted mismo opine que quienes piensan así tienen algo de razón). Pero a partir del análisis racional y de una observación cuidadosa (un proceso concienzudo de comprobación y acumulación de pruebas científicas, en lugar de la aceptación de historias y explicaciones con una fe ciega) podemos armar ahora con bastante convencimiento que sabemos mucho sobre el universo. 

También podemos decir con seguridad que los misterios que quedan no tienen por qué atribuirse a algo sobrenatural. Son fenómenos que aún no comprendemos y que esperamos entender algún día a través de la razón, el estudio racional y, sí…, la física.

Al contrario de lo que defenderán algunas personas, el método científico no es tan solo una forma más de contemplar el mundo, ni tampoco es otra ideología cultural o un sistema de creencias. Es el procedimiento que nos permite conocer la naturaleza por ensayo y error, a través de la experimentación y la observación, a partir de una postura abierta a reemplazar ideas que se revelan erróneas o incompletas por otras mejores, y mediante el reconocimiento de patrones en la naturaleza y de belleza en las ecuaciones matemáticas que describen esos patrones. A lo largo de todo ese proceso profundizamos en el conocimiento existente y nos acercamos más a esa «verdad», a la forma en que es el mundo realmente

jueves

TEST "PREGUNTA DE FISICA 01"


La distancia entre dos cargas está representada por "d". ¿En cuál de los siguientes diagramas la fuerza atractiva entre las cargas es máxima?

Tiempo de resolución: 3 minutos

miércoles

¿CUANTA CIENCIA SABES?


¿CUANTA CIENCIA SABES?

0-5: NI IDEA
6-10: POCA
11-15: ALGO
16-20: NO ESTA MAL
21-30: TIRANDO A BIEN
31-4O: BASTANTE BIEN
41-49: MUY BIEN
50: GENIAL

jueves

EL FIN DEL TIEMPO

La mecánica cuántica fue de la física que entonces resultó muy sorprendente y que aún hoy sigue siendo muy difícil de entender. Sugiere que el mundo no es  en absoluto como lo vemos. Esto sigue siendo un gran problema, y  cada vez despierta más discusión y más interés por parte de la gente. En esto es en lo que realmente estoy pensando, en cómo explicar que el mundo parece ser clásico. Parece que tenemos un pasado único, parece que los objetos están en posiciones definidas y tienen un futuro definido; eso es lo que parece, pero la mecánica cuántica nos dice que es diferente, que no es así en absoluto. El objetivo es tratar de encontrar una descripción del universo entero que sea mecano-cuántica y entender cómo, pese a todo, puede presentarse como el mundo clásico que en realidad vemos y experimentamos.

Una de las grandes preguntas de la física es si hay algún tipo de marco invisible en el que todo se desarrolla. Newton introdujo las nociones de espacio absoluto y tiempo absoluto. El espacio absoluto es como un bloque de vidrio translúcido que se extiende desde el infinito hasta el infinito; es un marco de referencia fijo en el que todo sucede. El tiempo newtoniano es como un río invisible que fluye uniformemente y para siempre. El problema con esto es que no podemos ver ese marco invisible; todo lo que vemos son cosas que se mueven unas con respecto a otras. Este es el punto de vista relacional, frente al punto de vista absoluto de Newton. El reto ha sido crear una teoría que contenga relaciones genuinas entre cosas genuinas, y no relaciones entre cosas reales y cosas no observables.

Mi idea básica es que el tiempo como tal no existe. No hay ningún río invisible del tiempo. Sin embargo, hay cosas que se podrían llamar instantes de tiempo, o «Ahoras». Conforme vivimos parece que nos movemos a través de una sucesión de Ahoras, y la pregunta es, ¿Qué son? Son configuraciones de todas las cosas en el universo, unas con respecto a otras, en cualquier momento, por ejemplo, ahora.

Así pues, un argumento simple lleva a una imagen en la que solo hay Ahoras posibles, y los Ahoras se definen por la manera en que están dispuestas las cosas en el universo. Eso es todo lo que sale de la teoría. De hecho, esta imagen, que Dirac ayudó a crear, cristalizó hace unos treinta años. Se describe por una ecuación denominada ecuación de Wheeler-DeWitt. (John Wheeler instó a Bryce DeWitt a que la derivara. Si realmente resulta ser la ecuación del universo, el episodio será una repetición de la forma en que Hooke incordió a Newton para que diera su solución del problema de Kepler.) La gente encontró muy difícil dar sentido al universo estático que parecía emerger. Sin embargo, encuentro que los argumentos que llevan a ella son muy fuertes. Hay soporte para ello en la estructura de la teoría de Einstein y en la estructura de la mecánica cuántica. Si no fuera así, nunca se habría encontrado la ecuación.

Yo personalmente creo que el mundo sigue siendo probablemente mucho más rico de lo que imaginamos, y que quizá estemos solo arañando su superficie. Si escalas una montaña ganas diferentes puntos de vista a medida que subes. Cuando llegas a la cima puedes comprender lo que podías ver más abajo, pero no podías comprenderlo correctamente cuando estabas en ese punto. Yo veo el progreso de la ciencia como algo en que de repente se abren horizontes completamente nuevos, y se encuentran nuevas maneras de pensar en ello. Yo creo que estamos descubriendo el mundo, no inventándolo. Sin embargo, John Wheeler parece sugerir a veces que nosotros creamos el universo...

viernes

DEL ATOMO A LAS CUERDAS


Aunque el modelo estándar explica perfectamente cómo está hecho el universo a las escalas en que se maneja, también tiene sus lagunas. Una de ellas es, por ejemplo, que nadie sabe por qué sólo hay tres familias de quarks y tres de leptones, y no 4 o 12 o 20.

Ahora bien, ¿hay algo detrás del modelo estándar? ¿Son los quarks los ladrillos del universo o están hechos de cosas más pequeñas? Eso no se sabe. Hay varias ideas, pero todavía no podemos decantarnos por ninguna. Lo que sí tenemos claro es que el modelo estándar, en el rango que alcanzan nuestros aceleradores, es esencialmente correcto. No se sabe qué hay detrás de los quarks pero se puede escuchar a los físicos teóricos hablar de cuerdas o supersimetría. Ir más allá del modelo estándar es uno de los retos más importantes de la física de lo muy pequeño.

Las cuerdas, ¿una teoría de todo?

La teoría de cuerdas nace a finales de la década de 1960 de manos del italiano Gabriele Veneziano como intento de explicación de la interacción fuerte, la fuerza que mantiene unidos los quarks dentro de protones y neutrones. Entre 1984 y 1985 se descubre que la olvidada propuesta de Veneziano es una teoría consistente para describir las cuatro fuerzas de la naturaleza –la gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil– como producto de unos objetos unidimensionales, las cuerdas.

A finales del siglo XX los físicos teóricos estaban (casi) convencidos de que estaban ante una teoría que describía la estructura última de la materia. Querer imaginar las cuerdas es como querer imaginar un punto matemático; es imposible. Además son inimaginablemente pequeñas. Por hacernos una vaga idea. La Tierra es diez a la veinte veces más pequeña que el universo, y el núcleo atómico es diez a la veinte veces más pequeño que la Tierra. Pues bien, una cuerda es diez elevado a la veinte veces más pequeña que el núcleo atómico.

Así nació el mito de una Teoría de Todo. Aunque más bien habría que hablar teorías, pues entonces había cinco en funcionamiento con formulaciones diferentes. En 1995 se demostró que esas cinco teorías no eran más que diferentes aspectos de una única, bautizada como Teoría M. Es como un puzzle del que se tienen cinco piezas, no se sabe dónde están las otras ni cuál es el aspecto completo del mismo. Eso sí, no te agobies si no eres capaz de imaginarlo, ni tan siquiera si no puedes comprenderlo. A los físicos teóricos también les pasa lo mismo.

¿Cuál es la partícula más abundante del universo?

La física de hoy no es tan sencilla como la de antaño. No sólo porque la descripción matemática de los fenómenos naturales se haya vuelto más complicada; también porque resulta cada vez más difícil de imaginar. Esto es debido a que cada vez nos vamos alejando más y más de los objetos de nuestra experiencia cotidiana. Por ejemplo, nuestra vieja amiga la gravedad, o la fuerza electromagnética, o las más desconocidas fuerzas nuclear fuerte y débil, han dejado de ser fuerzas para convertirse en campos. La gravedad deja de ser una fuerza que tira de ti. Esa cosa fantasmal que hace caer una piedra pasa a convertirse en algo mucho más abstracto: un campo, una modificación de la estructura del espacio que nos rodea. Como nosotros nos movemos dentro de ese espacio, su estructura, su forma, nos influye y nos obliga a actuar de cierta manera. 

¿Son las cuerdas el componente último de la materia?

Si llegados a este punto de abstracción la cabeza empieza a darnos vueltas, peor lo pasaremos con el siguiente nivel de abstracción. En este segundo piso de lo que podrían ser los grandes almacenes de la física teórica, el objeto de estudio son unas cosas llamadas grupos de simetría mediante los cuales se relacionan esos campos –antes fuerzas– y las partículas. En el tercer piso se encuentra la planta donde los grupos de simetría se interpretan como estados de un espacio, no de tres ni de cuatro ni de cinco dimensiones, sino de diez dimensiones. Y en la cuarta, el culmen del nivel de abstracción matemática, se encuentra el mundo donde viven las cuerdas. Estos objetos se definen a través de su comportamiento esos estados que provocan la aparición de los grupos de simetría que a su vez relacionan las fuerzas con la materia, y que a su vez explican el comportamiento de las partículas subatómicas y los átomos. Por este motivo, decir que una cuerda es una curva ondulante que se mueve en un espacio de diez.

Las cuerdas, dicen los teóricos, son los objetos fundamentales del universo; no son puntuales sino alargados y sin grosor: sólo tienen una dimensión. Las partículas subatómicas que observamos en la naturaleza son modos de vibración de esas cuerdas, como las notas musicales lo son de las cuerdas de una guitarra. Todas las fuerzas de la naturaleza se pueden entender como interacciones entre cuerdas. ¿Cómo imaginarlas? La mejor descripción la dio Freeman Dyson: un cordel de esparto culebreando en una habitación a oscuras...

sábado

AGUJEROS DE GUSANO


Por siglos, los humanos hemos intentado darle explicaciones a los fenómenos del universo. No sólo los observamos y les damos valores cuantitativos a través de las ciencias duras: también creamos hipótesis sobre su comportamiento y los misterios que esconden. Una de las propuestas que buscan explicar cómo se podría viajar en el espacio-tiempo es la teoría de los agujeros de gusano.

Esta propuesta es una explicación teórica del viaje en el espacio-tiempo que no puede comprobarse aún. No ha sido posible conocer sobre alguno con la tecnología de observación espacial existente hasta ahora. Por otro lado, la ciencia todavía no cuenta con los elementos necesarios para crear un agujero de gusano y experimentar con él.

Desde los agujeros negros hasta el Big Bang, la ciencia ha buscado entender el espacio exterior. De acuerdo con las explicaciones que surgieron a partir de la Teoría General de la Relatividad de Einstein, un agujero de gusano puede ser un puente entre dos puntos distintos en el espacio o en el tiempo. Por tal motivo, algunos científicos consideran que podría conectar el presente con el pasado o el futuro.

De acuerdo con Einstein, el espacio es flexible y puede doblarse, torcerse y deformarse. Se ha planteado que el campo gravitatorio de dos cuerpos puede atraerlos entre sí desde dos puntos del espacio. Esto daría origen a un túnel que atravesara el espacio para conectarlos.

El agujero tendría un punto de partida y un punto de destino, sin embargo el trayecto es completamente desconocido. Las investigaciones predicen que atravesar un agujero de gusano implicaría la exposición sumamente alta a la radiación, colapso repentino y contacto peligroso con materia exótica.

A pesar de que la teoría de la relatividad sienta las bases para construir hipótesis sobre de los agujeros de gusano, ponerla en prueba es mucho más complicada.

Algunos modelos proponen el uso de algo conocido como materia exótica, un componente completamente distinto a la materia y la antimateria. La materia exótica se diferencia de estas dos porque no deforma el espacio de la misma forma, ya que no genera un campo gravitatorio.

Este tipo de materia es importante porque podría proveer de la fuerza necesaria para que un agujero de gusano se mantuviera abierto, pues éstos consumen tanta energía que cualquier alteración (como el paso de un cuerpo a través de ellos) podría cerrarlos. El problema con esta propuesta es que la materia exótica se encuentra fuera del alcance de la comprensión de la física contemporánea.

El debate sobre cómo funciona un agujero de gusano y qué pasaría si nos encontráramos con uno es muy amplio y ha hecho que los investigadores de la materia tomen posturas completamente opuestas. Mientras que algunos aseguran que los viajes en el tiempo podrían ser factibles gracias a estos agujeros, otros argumentan que sería imposible introducir materia en uno

martes

PREGUNTAS DE FISICA CUANTICA

A finales del siglo XIX los físicos estaban convencidos de haber desvelado los últimos secretos de la materia y no esperaban más avances en su disciplina. Pero seguía habiendo fenómenos que la física clásica no era capaz de explicar. Por ejemplo, la forma en que cambia el color de un objeto cuando se calienta. Bajo la llama de un soplete, un trozo de metal pasa del rojo al amarillo y luego al blanco, y después debería emitir luz ultravioleta, que nuestros ojos no pueden detectar. Entonces se volvería invisible. Pero esto nunca ocurre, porque en realidad emite mucha menos luz ultravioleta de lo que predice la teoría.

Fue esta anomalía la que puso a Max Planck, Premio Nobel de Física en 1918, pianista y profesor de la Universidad de Berlín, tras la pista de una nueva teoría que explicara el comportamiento de lo infinitamente pequeño. Frotándose los ojos y esperando equivocarse, Planck puso en ecuaciones y presentó en 1900 la hipótesis de que la energía (la luz es una forma de energía) no se emite de forma continua, sino en forma de pequeños paquetes, a los que llamó quantas. Algo así como el agua, que no fluye en un chorro continuo, sino solo en gotas.

Albert Einstein, Premio Nobel de Física en 1921, violinista y empleado de la Oficina Federal de Patentes de Berna, aprovechó este descubrimiento y en 1905 propuso su teoría del efecto fotoeléctrico. Partía de la base de que la luz no es una onda, como se creía hasta entonces, sino un haz de partículas, de quantas, que se denominarían fotones.

La segunda generación de físicos de principios del siglo XX -Niels Bohr, Louis de Broglie, Paul Dirac, Erwin Schrödinger, Wolfgang Pauli y Werner Heisenberg (todos ellos premios Nobel)- demostró que los fotones, electrones y otras partículas se comportan como pequeños granos de materia y como ondas a la vez. Se trata de una realidad inquietante, que llevó a Heisenberg a preguntarse si era "posible que la naturaleza fuera tan absurda como parece".

¿Y qué decir del famoso gato de Schrödinger, encerrado en una jaula donde puede estar vivo y muerto a la vez? Había que abrir la jaula para saber si el animal estaba vivo o muerto. Este experimento puramente teórico fue propuesto en 1935 por el físico vienés para demostrar que el mundo cuántico se basa en una suma de probabilidades. Sin embargo, solo sería factible si el gato fuera una partícula, no un ser vivo formado por unos cuantos miles de millones de átomos.

Como Max Planck al principio, o como Albert Einstein, Erwin Schrödinger solo se adentró en la física cuántica para demostrar sus carencias. Sin embargo, al final se convenció. Einstein, por su parte, siempre se mostró reacio a aceptar una teoría que dejaba tanto margen al azar y se basaba en probabilidades y estadísticas. Para él, el universo era totalmente descifrable y "Dios no juega a los dados", como le dijo a Bohr en 1927.

Por confusa que pueda parecer, por incómoda que resulte para los estudiantes que tienen que abordarla con una pizarra limpia, nadie ha podido jamás refutar la teoría cuántica. Nos ha permitido comprender cómo funcionan los átomos y, en gran medida, cómo se unen para formar moléculas, lo que ha abierto el camino a avances espectaculares, tanto en química como en biología. En tecnología, la comprensión de los mecanismos cuánticos nos ha permitido controlar el flujo de partículas (electrones o fotones) que hace funcionar nuestros láseres, radios, televisores, ordenadores y teléfonos móviles. De hecho, todos estos objetos aparecidos en la segunda mitad del siglo XX son ya tecnologías cuánticas.

Hace tiempo que se habla del ordenador cuántico. ¿Cuándo estará disponible en el mercado? Probablemente nunca, ya que los retos técnicos que plantea la construcción de una máquina así son enormes.

En un procesador cuántico la información se almacena en partículas, que se convierten en qubits. Sin embargo, son muy inestables, generan muchos errores y, para funcionar correctamente, la máquina debe estar completamente protegida de las vibraciones, los campos eléctricos o magnéticos y las fuentes de luz. Además, tendría que estar colocada dentro de un supercongelador, ya que su temperatura ideal de funcionamiento es cercana al cero absoluto (-273 °C). Solo entonces las partículas pueden permanecer lo suficientemente quietas como para ser "manipuladas".

A pesar de estas dificultades, todos los grandes países gastan miles de millones en investigación y desarrollo cuánticos. El tema está muy de moda. Los gigantes de la tecnología (IBM, Intel, Honeywell, etc.) y el comercio en línea (Amazon, Alibaba) también están invirtiendo en este campo.

Más que un ordenador completo (o incluso un portátil, que de momento es pura ciencia ficción), es más razonable imaginar procesadores cuánticos instalados en locales ad hoc que puedan ser interrogados a distancia a través de Internet. La supuesta potencia de cálculo de esas máquinas no sería de ninguna ayuda para la mayoría de las tareas que realizamos a diario en nuestros ordenadores, como teclear, enviar un correo electrónico, editar una foto, hacer un vídeo o navegar por Internet. Solo serían realmente útiles para operaciones muy complejas y específicas

PREGUNTAS DE FISICA

Física es un término que proviene del griego physis y que significa “realidad” o “naturaleza” y por eso también podemos definirla como la ciencia que estudia las propiedades del espacio, el tiempo, la materia, la energía y sus interacciones.

En términos más generales, es el análisis general de la naturaleza llevada a cabo con el fin para entender cómo se comporta el universo.

La Definición más Técnica y Correcta sería: 
«La Física es el estudio de la materia y su movimiento a través del espacio y el tiempo, junto con los conceptos relacionados, tales como la energía y la fuerza»

Una definición mucho mejor para nosotros y más fácil de entender sería:

«Es la ciencia que estudia la materia (los cuerpos) y lo que ocurre sobre ellos cuando al actuar sobre ellos estos no cambian, es decir siguen siendo los mismos»

jueves

DESTRUCTOR DE MUNDOS

 

¿Héroe o villano? El padre de la bomba atómica, el físico Julius Robert Oppenheimer (22 de abril de 1904 – 18 de febrero de 1967), comparecía ante la cámara estadounidense, envejecido, ya retirado y afectado por el cáncer de garganta que le causaría la muerte apenas dos años después. Emocionado, Oppenheimer recordaba el 16 de julio de 1945, el día de la prueba Trinity, la primera explosión nuclear que él había contribuido a crear. Aquella frase que vino a su mente entonces, extraída del libro sagrado hindú Bhagavad Gita, ha perdurado hasta hoy como su cita más célebre.

Las palabras de Oppenheimer suelen recordarse como síntesis ilustrativa del proceso vital de un científico que dedicó su talento a desarrollar el arma más mortífera jamás inventada por el ser humano, para después embarcarse en una cruzada pacifista que duraría hasta el fin de sus días. Una interpretación superficial hablaría de remordimientos y búsqueda de redención. Pero lo cierto es que, en más de dos décadas trabajando por la paz nuclear, el físico jamás dijo haberse arrepentido de construir la bomba o de recomendar su uso contra Japón. ¿Cómo se entiende entonces la metamorfosis de Oppenheimer? ¿Realmente la hubo?

LA ENTROPIA

 

Antes del desarrollo de la teoría cinética del calor (que se basaba en el reconocimiento de la teoría atómica de la materia), la termodinámica se aplicaba sin referencia alguna a la composición de la materia, como si ésta fuera un continuo. En este contexto la entropía no admitía más interpretación. En sí mismo, esto no es inusual. Cualquier ley física acaba en un callejón sin salida que debemos aceptar como tal, sin pretender mayor comprensión. Además, la segunda ley se formuló como una ley absoluta: la entropía siempre aumenta en cualquier proceso espontáneo en un sistema aislado. 

Esto no es diferente de cualquier otra ley; por ejemplo, las leyes de Newton se cumplen siempre, sin excepción. («Siempre» en el dominio de los fenómenos estudiados en la época, al que ahora nos referimos como mecánica clásica.) Un paso de gigante en nuestra comprensión de la entropía y de la segunda ley de la termodinámica lo dio Boltzmann con su interpretación estadística de la entropía, la famosa relación entre la entropía y el número total de microestados de un sistema caracterizado macroscópicamente por una energía, un volumen y un número de partículas dados

domingo

TEGMARK Y LA INTELIGENCIA ARTIFICIAL

 

La Revolución Industrial nos brindó máquinas más fuertes que nosotros. La revolución de la información nos ha dotado de máquinas hasta cierto punto más listas que nosotros. ¿Hasta qué punto? Las computadoras solían superarnos tan solo en tareas cognitivas simples, de «fuerza bruta», como el cálculo veloz o las búsquedas en bancos de datos, pero en el año 2006, una computadora derrotó al campeón mundial de ajedrez Vladímir Krámnik, y en 2011 una computadora destronó a Ken Jennings en el programa televisivo estadounidense Jeopardy, un concurso de preguntas y respuestas variadas. En el año 2012 una computadora obtuvo la licencia para conducir coches en Nevada (EE. UU.) tras considerarse más segura que un conductor humano. 

¿A dónde llegará este avance? ¿Acabarán superándonos en todo las computadoras, cuando hayan desarrollado una inteligencia sobrehumana? Hay pocas dudas de que puede pasar: el cerebro humano consiste en un montón de partículas sujetas a las leyes de la Física, y no existe ninguna ley que impida que las partículas se ordenen de un modo que les permita efectuar cálculos cada vez más avanzados.

Pero ¿sucederá de verdad? ¿Y será algo bueno o malo? Estas son preguntas muy oportunas: aunque hay quien piensa que las máquinas con una inteligencia sobrehumana no son viables en un futuro cercano, también hay quien prevé su existencia para 2030, como el inventor y escritor estadounidense Ray Kurzweil, lo que convierte este asunto en el único riesgo existencial que deberíamos estudiar con más urgencia. En resumen, no está claro si el desarrollo de máquinas ultrainteligentes debería o llegará a producirse, y los expertos en inteligencia artificial se muestran divididos. Si ocurriera, podría tener unos efectos desastrosos. El matemático británico Irving Good explicó el por qué en 1965: «Definamos una máquina ultrainteligente como una máquina capaz de sobrepasar con mucho todas las actividades intelectuales de cualquier ser humano, por muy listo que este sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; se produciría, sin lugar a dudas, una “explosión de inteligencia”, y la inteligencia humana quedaría muy rezagada. Por tanto, la primera máquina ultrainteligente es el último invento que nos hará falta idear a los humanos, siempre que esa máquina sea lo bastante dócil para indicarnos cómo mantenerla bajo control». 

En un artículo sugerente y sensato de 1993, el matemático y autor de obras de ciencia ficción Vernor Vinge llamó a esta explosión de inteligencia «la singularidad», argumentando que hay un punto más allá del cual nos es imposible emitir predicciones fiables. Si logramos confeccionar tales máquinas ultrainteligentes, la primera de ellas estará muy limitada por el software desarrollado para ella, y que compensaremos la falta de conocimientos para la programación óptima de inteligencia mediante el desarrollo de hardware con unas capacidades computacionales muy superiores a las del cerebro humano. Al fin y al cabo, las neuronas humanas no son mejores ni más numerosas que las de los delfines, solo que están conectadas de otra manera, lo que induce a pensar que en ocasiones el software es más importante que el hardware. Es probable que esta coyuntura permita a la primera máquina perfeccionarse en extremo una y otra vez mediante la mera reescritura de su propio software. En otras palabras, mientras que los humanos tardamos millones de años en evolucionar y superar con creces la inteligencia de nuestros ancestros simiescos, esta máquina en evolución también podría sobrepasar la inteligencia de sus ancestros, nosotros, en cuestión de horas o segundos. 

Después de eso, la vida en la Tierra nunca será la misma. La persona o la cosa que controle esta tecnología atesorará con rapidez la mayor riqueza y el mayor poder del mundo, con lo que burlará todos los mercados financieros y desarrollará más inventos y patentes que todos los investigadores humanos juntos. Mediante el diseño de hardware y software informáticos extremadamente perfeccionados, esas máquinas multiplicarán con rapidez su capacidad y su número. Pronto se inventarían tecnologías muy apartadas de nuestra imaginación actual, incluidas algunas armas consideradas necesarias. A eso le seguirá sin tardanza el control político, militar y social del mundo. 

Dada la influencia que ejercen hoy en día los libros, los medios de comunicación y los contenidos de Internet, máquinas capaces de publicar miles de millones de obras más que los humanos ultrabrillantes nos conquistarán los corazones y las mentes incluso sin necesidad de comprarnos o someternos.

sábado

GRANDES FISICOS DEL SIGLO XX-3

A destacar: 

 LORENTZ 

En 1895 publicó Ensayo de una teoría sobre los fenómenos eléctricos y ópticos en los cuerpos en movimiento, texto que señala una etapa importante en las investigaciones del gran científico sobre la electricidad y la óptica. Los resultados de tales estudios le valieron en 1902 el Premio Nobel, que se le concedió al mismo tiempo que a Zeeman, por haber previsto el fenómeno que éste comprobó experimentalmente y que, a causa de ello, fue denominado "efecto Zeeman". Recibió además otros galardones y honores, y vio instituida para él la Fundación Lorentz, destinada a promover las investigaciones de física teórica. 

En 1907 publicó en Leipzig diversas memorias reunidas bajo el título Ensayos de física teórica (Abhandlungen über theoretische Physik). En 1909 apareció su famoso libro Teoría de los electrones (Theory of electrons). 

EINSTEIN 

Durante 1905, publicó cinco trabajos en los Annalen der Physik: el primero de ellos le valió el grado de doctor por la Universidad de Zúrich, y los cuatro restantes acabarían por imponer un cambio radical en la imagen que la ciencia ofrece del universo. De estos cuatro, el primero proporcionaba una explicación teórica en términos estadísticos del movimiento browniano (así llamado en honor a su descubridor, Robert Brown), y el segundo daba una interpretación del efecto fotoeléctrico basada en la hipótesis de que la luz está integrada por cuantos individuales, más tarde denominados fotones. Los dos trabajos restantes sentaban las bases de la teoría restringida de la relatividad, estableciendo la equivalencia entre la energía E de una cierta cantidad de materia y su masa m en términos de la famosa ecuación E = mc², donde c es la velocidad de la luz, que se supone constante. 

El esfuerzo de Einstein lo situó inmediatamente entre los más eminentes de los físicos europeos, pero el reconocimiento público del verdadero alcance de sus teorías tardó en llegar; el Premio Nobel de Física, que recibió en 1921, le fue concedido exclusivamente «por sus trabajos sobre el movimiento browniano y su interpretación del efecto fotoeléctrico». En el plano científico, su actividad se centró, entre 1914 y 1916, en el perfeccionamiento de la teoría general de la relatividad, basada en el postulado de que la gravedad no es una fuerza sino un campo creado por la presencia de una masa en el continuum espacio-tiempo. La confirmación de sus previsiones llegó en 1919, al fotografiarse el eclipse solar del 29 de mayo; The Times lo presentó como el nuevo Newton y su fama internacional creció, forzándole a multiplicar sus conferencias de divulgación por todo el mundo y popularizando su imagen de viajero de la tercera clase de ferrocarril, con un estuche de violín bajo el brazo.

Durante la siguiente década, Einstein concentró sus esfuerzos en hallar una relación matemática entre el electromagnetismo y la atracción gravitatoria, empeñado en avanzar hacia el que, para él, debía ser el objetivo último de la física: descubrir las leyes comunes que, supuestamente, habían de regir el comportamiento de todos los objetos del universo, desde las partículas subatómicas hasta los cuerpos estelares, y agruparlas en una única teoría "de campo unificado". 

PLANCK 

Tras doctorarse por la Universidad de Munich con una tesis acerca del segundo principio de la termodinámica (1879), fue sucesivamente profesor en las universidades de Munich, Kiel (1885) y Berlín (1889), en la última de las cuales sucedió a su antiguo profesor, Kirchhoff. Enunció la ley de Wien (1896) y aplicó el segundo principio de la termodinámica, formulando a su vez la ley de la radiación que lleva su nombre (ley de Planck, 1900).

A lo largo del año 1900 logró deducir dicha ley de los principios fundamentales de la termodinámica, para lo cual partió de dos suposiciones: por un lado, la teoría de Ludwig Boltzmann, según la cual el segundo principio de la termodinámica tiene carácter estadístico, y por otro, que el cuerpo negro absorbe la energía electromagnética en cantidades indivisibles elementales, a las que dio el nombre de quanta (cuantos). El valor de dichos cuantos debía ser igual a la frecuencia de las ondas multiplicada por una constante universal, la llamada constante de Planck. Este descubrimiento le permitió, además, deducir los valores de constantes como la de Boltzmann y el número de Avogadro. La hipótesis cuántica de Planck supuso una revolución en la física del siglo XX, e influyó tanto en Albert Einstein (efecto fotoeléctrico) como en Niels Bohr (modelo del átomo de Bohr).

viernes

GRANDES FISICOS DEL SIGLO XX-2

DEBYE, KNUDSEN, BRAGG, KRAMERS, DIRAC, COMPTON, DE BROGLIE, BORN, BOHR. 

A destacar: 

 Paul Dirac: en 1926, realizó su mayor contribución a esta ciencia al enunciar las leyes que rigen el movimiento de las partículas atómicas, de forma independiente y tan sólo unos meses más tarde de que lo hicieran otros científicos de renombre como Max Born o Pascual Jordan, aunque se distinguió de éstos por su mayor generalidad y simplicidad lógica en el razonamiento. Suya fue también la revolucionaria idea según la cual el comportamiento del electrón puede ser descrito mediante cuatro funciones de onda que simultáneamente satisfacen cuatro ecuaciones diferenciales. Se deduce de estas ecuaciones que el electrón debe rotar alrededor de su eje (espín electrónico), y también que se puede encontrar en estados energéticos de signo negativo, lo cual no parece corresponder con la realidad física. A este respecto, Dirac sugirió que la deficiencia energética de un electrón en ese estado sería equivalente a una partícula de vida corta y cargada positivamente; esta sugerencia fue corroborada posteriormente por Carl David Anderson merced al descubrimiento de las partículas denominadas positrones. Estas y otras geniales contribuciones, como la teoría cuántica de la radiación o la mecánica estadística de Fermi-Dirac, le valieron el Premio Nobel de Física del año 1933, compartido con Erwin Schrödinger, tras haber obtenido el año anterior la cátedra Lucasiana de matemáticas en Cambridge, que mantuvo hasta 1968. Acabó por trasladarse a Estados Unidos, donde fue nombrado en 1971 profesor emérito de la Universidad de Tallahassee. 

Niels Bohr: en 1913 alcanzó celebridad mundial dentro del ámbito de la física al publicar una serie de ensayos en los que revelaba su particular modelo de la estructura del átomo. Tres años después, el científico danés regresó a su ciudad natal para ocupar una plaza de profesor de Física Teórica en su antigua alma mater; y en 1920, merced al prestigio internacional que había ido adquiriendo por sus estudios y publicaciones, consiguió las subvenciones necesarias para la fundación del denominado Instituto Nórdico de Física Teórica (más tarde denominado Instituto Niels Bohr), cuya dirección asumió desde 1921 hasta la fecha de su muerte (1962). En muy poco tiempo este instituto se erigió, junto a las universidades alemanas de Munich y Göttingen, en uno de los tres vértices del triángulo europeo donde se estaban desarrollando las principales investigaciones sobre la física del átomo. En 1922, año en el que Bohr se consagró definitivamente como científico de renombre universal con la obtención del Premio Nobel, vino al mundo su hijo Aage Niels Bohr, que habría de seguir los pasos de su padre y colaborar con él en varias investigaciones. Doctorado también en física, fue, al igual que su progenitor, profesor universitario de dicha materia y director del Instituto Nórdico de Física Teórica, y recibiría el Premio Nobel en 1975. 

Max Born: llevó a cabo importantes investigaciones sobre dinámica de las estructuras reticulares cristalinas (Dynamik der Kristallgitter, 1915) y acerca de la teoría de la relatividad (Die Relativitätstheorie, 1923), y estableció una esencial clarificación crítica de la mecánica cuántica (Atommechanik, 1925; Atomdynamik, 1926 y Física atomica, 1935). En 1933, con el ascenso al poder del nazismo, Max Born fue desposeído de la cátedra por su condición de judío. Emigró entonces al Reino Unido, adoptó la nacionalidad británica y ejerció la docencia en Cambridge y, desde 1936 hasta 1953, en Edimburgo. A continuación regresó a Göttingen, y en 1954 le fue otorgado el premio Nobel de Física, que compartió con Walther Bothe. En 1943 había formulado, en colaboración con V. Peng, una teoría cuántica del campo electromagnético en la que se introducía una nueva elaboración estadística de los cuantos de luz. Entre sus obras cabe señalar The Restless Universe (1936), Dynamical Theory of Cristal Lattices (1953, en colaboración con Kun Huang), Physik im Wandel meiner Zeit (1957) y Physik und Politik (1960). Sus memorias se publicaron póstumamente: My Life. Recollection of a Nobel Laureate (1978). 

Louis de Broglie: En su tesis doctoral, habiendo entrado previamente en contacto con la labor de científicos de la talla de Albert Einstein o Max Planck, abordó directamente el tema de la naturaleza de las partículas subatómicas como los electrones y, tras describir su naturaleza ondulatoria, formuló la teoría de la dualidad onda corpúsculo. Esta nueva concepción teórica sobre la naturaleza de la radiación, completamente revolucionaria, permitió confirmar anteriores hipótesis de Einstein y explicar el efecto Compton (así llamado por su descubridor, el estadounidense Arthur Compton), que carecía de sentido en el marco estricto de la teoría ondulatoria de la luz. Louis de Broglie fue galardonado con el Premio Nobel de Física del año 1929.