Antes del desarrollo de la teoría cinética del calor (que se basaba en el reconocimiento de la teoría atómica de la materia), la termodinámica se aplicaba sin referencia alguna a la composición de la materia, como si ésta fuera un continuo. En este contexto la entropía no admitía más interpretación. En sí mismo, esto no es inusual. Cualquier ley física acaba en un callejón sin salida que debemos aceptar como tal, sin pretender mayor comprensión. Además, la segunda ley se formuló como una ley absoluta: la entropía siempre aumenta en cualquier proceso espontáneo en un sistema aislado.
Esto no es diferente de cualquier otra ley; por ejemplo, las leyes de Newton se cumplen siempre, sin excepción. («Siempre» en el dominio de los fenómenos estudiados en la época, al que ahora nos referimos como mecánica clásica.) Un paso de gigante en nuestra comprensión de la entropía y de la segunda ley de la termodinámica lo dio Boltzmann con su interpretación estadística de la entropía, la famosa relación entre la entropía y el número total de microestados de un sistema caracterizado macroscópicamente por una energía, un volumen y un número de partículas dados
Según Avogadro, en una reacción química una molécula de reactivo debe reaccionar con una o varias moléculas de otro reactivo, dando lugar a una o varias moléculas del producto, pero una molécula no puede reaccionar con un número no entero de moléculas, ya que la unidad mínima de un reactivo es la molécula.
Debe existir, por tanto, una relación de números enteros sencillos entre las moléculas de los reactivos, y entre estas moléculas y las del producto.
HIPÓTESIS DE AVOGADRO
Volúmenes iguales de distintas sustancias gaseosas, medidos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas.
O bien: “Un determinado número de moléculas de dos gases diferentes ocupan el mismo volumen en idénticas condiciones de presión y temperatura".
"La masa molar o mol de diferentes sustancias contiene el mismo número de moléculas".
Para explicar esta ley, Avogadro señaló que las moléculas de la mayoría de los gases elementales más habituales eran diatómicas (hidrógeno, cloro,
oxígeno, nitrógeno, etc), es decir, que mediante reacciones químicas se pueden separar en dos átomos.
El lienzo más antiguo del Universo estuvo conformado principalmente por helio e hidrógeno, mientras que el resto de los componentes se crearon, y diseminaron, vía explosiones de supernovas –y así llegaría este polvo de estrellas a la Tierra. Todos los átomos pesados, incluidos oxígeno, nitrógeno y carbono, es decir buena parte de nuestra materia prima, fueron creados por una generación anterior de estrellas, latentes hace unos 4,500 millones de años.
La posibilidad de intimar en el más profundo de los planos, la constitución misma, con seres que generalmente percibimos tan distantes e impersonales como los astros, tiene importantes implicaciones en la forma en la que nos auto-concebimos, así como en la manera en la que entendemos nuestra relación con el cosmos. El precepto cultural de que todo lo que “está allá afuera”, empezando por la naturaleza, existe aparte de mi, pareciera desplomarse, incluso racionalmente, si consideramos que estamos literalmente constituidos de materia astral.
Llevando el juego reflexivo unos pasos más allá, podemos insinuar que al palpar a alguien estamos acariciando al cosmos, y que al contemplarnos al espejo hay en ese reflejo mucho más de lo que creemos. Además, y de la mano de una premisa de Carl Sagan que sentencia: “Somos polvo de estrellas que piensa acerca de las estrellas”, llegamos a la posibilidad de que somos estrellas auto-disfrutándose, o incluso podemos cortejar la idea de que contemplar las estrellas sea un ejercicio de introspección –lo cual por cierto hace aún más sugestiva nuestra existencia.
La Revolución Industrial nos brindó máquinas más fuertes que nosotros. La revolución de la información nos ha dotado de máquinas hasta cierto punto más listas que nosotros. ¿Hasta qué punto? Las computadoras solían superarnos tan solo en tareas cognitivas simples, de «fuerza bruta», como el cálculo veloz o las búsquedas en bancos de datos, pero en el año 2006, una computadora derrotó al campeón mundial de ajedrez Vladímir Krámnik, y en 2011 una computadora destronó a Ken Jennings en el programa televisivo estadounidense Jeopardy, un concurso de preguntas y respuestas variadas. En el año 2012 una computadora obtuvo la licencia para conducir coches en Nevada (EE. UU.) tras considerarse más segura que un conductor humano.
¿A dónde llegará este avance? ¿Acabarán superándonos en todo las computadoras, cuando hayan desarrollado una inteligencia sobrehumana? Hay pocas dudas de que puede pasar: el cerebro humano consiste en un montón de partículas sujetas a las leyes de la Física, y no existe ninguna ley que impida que las partículas se ordenen de un modo que les permita efectuar cálculos cada vez más avanzados.
Pero ¿sucederá de verdad? ¿Y será algo bueno o malo? Estas son preguntas muy oportunas: aunque hay quien piensa que las máquinas con una inteligencia sobrehumana no son viables en un futuro cercano, también hay quien prevé su existencia para 2030, como el inventor y escritor estadounidense Ray Kurzweil, lo que convierte este asunto en el único riesgo existencial que deberíamos estudiar con más urgencia. En resumen, no está claro si el desarrollo de máquinas ultrainteligentes debería o llegará a producirse, y los expertos en inteligencia artificial se muestran divididos. Si ocurriera, podría tener unos efectos desastrosos. El matemático británico Irving Good explicó el por qué en 1965: «Definamos una máquina ultrainteligente como una máquina capaz de sobrepasar con mucho todas las actividades intelectuales de cualquier ser humano, por muy listo que este sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; se produciría, sin lugar a dudas, una “explosión de inteligencia”, y la inteligencia humana quedaría muy rezagada. Por tanto, la primera máquina ultrainteligente es el último invento que nos hará falta idear a los humanos, siempre que esa máquina sea lo bastante dócil para indicarnos cómo mantenerla bajo control».
En un artículo sugerente y sensato de 1993, el matemático y autor de obras de ciencia ficción Vernor Vinge llamó a esta explosión de inteligencia «la singularidad», argumentando que hay un punto más allá del cual nos es imposible emitir predicciones fiables. Si logramos confeccionar tales máquinas ultrainteligentes, la primera de ellas estará muy limitada por el software desarrollado para ella, y que compensaremos la falta de conocimientos para la programación óptima de inteligencia mediante el desarrollo de hardware con unas capacidades computacionales muy superiores a las del cerebro humano. Al fin y al cabo, las neuronas humanas no son mejores ni más numerosas que las de los delfines, solo que están conectadas de otra manera, lo que induce a pensar que en ocasiones el software es más importante que el hardware. Es probable que esta coyuntura permita a la primera máquina perfeccionarse en extremo una y otra vez mediante la mera reescritura de su propio software. En otras palabras, mientras que los humanos tardamos millones de años en evolucionar y superar con creces la inteligencia de nuestros ancestros simiescos, esta máquina en evolución también podría sobrepasar la inteligencia de sus ancestros, nosotros, en cuestión de horas o segundos.
Después de eso, la vida en la Tierra nunca será la misma. La persona o la cosa que controle esta tecnología atesorará con rapidez la mayor riqueza y el mayor poder del mundo, con lo que burlará todos los mercados financieros y desarrollará más inventos y patentes que todos los investigadores humanos juntos. Mediante el diseño de hardware y software informáticos extremadamente perfeccionados, esas máquinas multiplicarán con rapidez su capacidad y su número. Pronto se inventarían tecnologías muy apartadas de nuestra imaginación actual, incluidas algunas armas consideradas necesarias. A eso le seguirá sin tardanza el control político, militar y social del mundo.
Dada la influencia que ejercen hoy en día los libros, los medios de comunicación y los contenidos de Internet, máquinas capaces de publicar miles de millones de obras más que los humanos ultrabrillantes nos conquistarán los corazones y las mentes incluso sin necesidad de comprarnos o someternos.
En el efecto invernadero atmosférico, los gases responsables han continuado aumentando en la atmósfera. La concentración de dióxido de carbono atmosférico ha aumentado un 31% desde 1750. Los indicadores atmosféricos muestran que la concentración de dióxido de carbono (CO2) en la parte
baja de la atmósfera están en el nivel más alto de los últimos 500.000 años. La tasa actual de incremento no tiene precedentes en los pasados 20.000 años. Unas tres cuartas partes de las emisiones antropogénicas de CO2 a la atmósfera en los últimos 20 años se deben a la quema de combustibles fósiles.
El resto se debe fundamentalmente al cambio en el uso de la tierra (mucho CO2 se encuentra almacenado en el suelo), especialmente la deforestación (las plantas retiran CO2 de la atmósfera en su crecimiento y lo mantienen hasta su quema o descomposición).
Los gases invernadero existen de forma natural y son imprescindibles para la vida en la Tierra. Pero sus cantidades en aumento están elevando la temperatura de la Tierra a unos niveles que están alterando el clima, y con él el equilibrio de todo el sistema natural.
PRINCIPALES GASES DE EFECTO INVERNADERO
Los gases invernadero absorben longitudes de onda larga de la radiación calorífica. El dióxido de carbono, contribuyen en un 62% al calentamiento global, por lo que se considera el gas invernadero más importante. Sin embargo, también se ha observado un gran aumento en las concentraciones de otros gases invernadero como el metano (CH4), óxido nitroso(N2O), clorofluorocarbonados (CFCs), y ozono (O3). Estos por un lado son de larga duración en la atmósfera y absorben fuertemente la radiación calorífica, por lo que su contribución al calentamiento global es elevada a pesar de sus pequeñas concentraciones en comparación con el CO2.
El Metano (CH4) se libera a la atmósfera cuando la materia orgánica se descompone en ambientes carentes de oxígeno. Las emisiones naturales proceden de humedales, termitas, y océanos. Las fuentes humanas incluyen la extracción y quema de combustibles fósiles, la cría de ganado, los arrozales y la descomposición de residuos en vertederos. Por ejemplo, cuando el ganado digiere el alimento, las bacterias intestinales liberan enormes cantidades de metano. Hay estudios que demuestran que el ganado puede eructar a un ritmo de dos veces por minuto, liberando una media de 908 gramos de metano por vaca, al día.
El Óxido nitroso (N2O) se produce por la acción microbiana sobre los compuestos del nitrógeno – por ejemplo, fertilizantes agrícolas – en el suelo y en el agua. Los océanos y ecosistemas tropicales emiten N2O de forma natural. Las emisiones humanas proceden de la quema en plantas de biomasa, combustibles fósiles y de la producción de nylon.
El Ozono (O3) es un gas traza que existe de forma natural en la atmósfera. En la estratosfera, absorbe la mayoría de las radiaciones potencialmente dañinas de los rayos UV del sol que pueden causar cáncer de piel y daños en la vegetación entre otras cosas.
Los (CFCs) son compuestos artificiales que se utilizaron en primer lugar como refrigerantes en los años 30 y posteriormente se extendieron ampliamente como propelentes de aerosoles, como agentes espumantes en la industria del jabón, y en aparatos de aire acondicionado.
Los Hidro clorofluorocarbonados (HCFCs) son también compuestos sintéticos de gases que han sustituido a los CFCs ya que no son tan nocivos para la capa de ozono. Sin embargo, tienen un potencial similar de efecto invernadero.