BUSCADOR

VISITAS

ARCHIVOS DEL BLOG

domingo

QUIMICA BASICA "HIPOTESIS DE AVOGADRO"

QUIMICA BASICA PARA PRINCIPIANTES 

Según Avogadro, en una reacción química una molécula de reactivo debe reaccionar con una o varias moléculas de otro reactivo, dando lugar a una o varias moléculas del producto, pero una molécula no puede reaccionar con un número no entero de moléculas, ya que la unidad mínima de un reactivo es la molécula. 

Debe existir, por tanto, una relación de números enteros sencillos entre las moléculas de los reactivos, y entre estas moléculas y las del producto. 

HIPÓTESIS DE AVOGADRO 

Volúmenes iguales de distintas sustancias gaseosas, medidos en las mismas condiciones de presión y temperatura, contienen el mismo número de moléculas. 

O bien: “Un determinado número de moléculas de dos gases diferentes ocupan el mismo volumen en idénticas condiciones de presión y temperatura". 

"La masa molar o mol de diferentes sustancias contiene el mismo número de moléculas". 

Para explicar esta ley, Avogadro señaló que las moléculas de la mayoría de los gases elementales más habituales eran diatómicas (hidrógeno, cloro, oxígeno, nitrógeno, etc), es decir, que mediante reacciones químicas se pueden separar en dos átomos. 

 

sábado

SOMOS POLVO DE ESTRELLAS


El lienzo más antiguo del Universo estuvo conformado principalmente por helio e hidrógeno, mientras que el resto de los componentes se crearon, y diseminaron, vía explosiones de supernovas –y así llegaría este polvo de estrellas a la Tierra. Todos los átomos pesados, incluidos oxígeno, nitrógeno y carbono, es decir buena parte de nuestra materia prima, fueron creados por una generación anterior de estrellas, latentes hace unos 4,500 millones de años.

La posibilidad de intimar en el más profundo de los planos, la constitución misma, con seres que generalmente percibimos tan distantes e impersonales como los astros, tiene importantes implicaciones en la forma en la que nos auto-concebimos, así como en la manera en la que entendemos nuestra relación con el cosmos. El precepto cultural de que todo lo que “está allá afuera”, empezando por la naturaleza, existe aparte de mi, pareciera desplomarse, incluso racionalmente, si consideramos que estamos literalmente constituidos de materia astral.

Llevando el juego reflexivo unos pasos más allá, podemos insinuar que al palpar a alguien estamos acariciando al cosmos, y que al contemplarnos al espejo hay en ese reflejo mucho más de lo que creemos. Además, y de la mano de una premisa de Carl Sagan que sentencia: “Somos polvo de estrellas que piensa acerca de las estrellas”, llegamos a la posibilidad de que somos estrellas auto-disfrutándose, o incluso podemos cortejar la idea de que contemplar las estrellas sea un ejercicio de introspección –lo cual por cierto hace aún más sugestiva nuestra existencia.

domingo

TEGMARK Y LA INTELIGENCIA ARTIFICIAL

 

La Revolución Industrial nos brindó máquinas más fuertes que nosotros. La revolución de la información nos ha dotado de máquinas hasta cierto punto más listas que nosotros. ¿Hasta qué punto? Las computadoras solían superarnos tan solo en tareas cognitivas simples, de «fuerza bruta», como el cálculo veloz o las búsquedas en bancos de datos, pero en el año 2006, una computadora derrotó al campeón mundial de ajedrez Vladímir Krámnik, y en 2011 una computadora destronó a Ken Jennings en el programa televisivo estadounidense Jeopardy, un concurso de preguntas y respuestas variadas. En el año 2012 una computadora obtuvo la licencia para conducir coches en Nevada (EE. UU.) tras considerarse más segura que un conductor humano. 

¿A dónde llegará este avance? ¿Acabarán superándonos en todo las computadoras, cuando hayan desarrollado una inteligencia sobrehumana? Hay pocas dudas de que puede pasar: el cerebro humano consiste en un montón de partículas sujetas a las leyes de la Física, y no existe ninguna ley que impida que las partículas se ordenen de un modo que les permita efectuar cálculos cada vez más avanzados.

Pero ¿sucederá de verdad? ¿Y será algo bueno o malo? Estas son preguntas muy oportunas: aunque hay quien piensa que las máquinas con una inteligencia sobrehumana no son viables en un futuro cercano, también hay quien prevé su existencia para 2030, como el inventor y escritor estadounidense Ray Kurzweil, lo que convierte este asunto en el único riesgo existencial que deberíamos estudiar con más urgencia. En resumen, no está claro si el desarrollo de máquinas ultrainteligentes debería o llegará a producirse, y los expertos en inteligencia artificial se muestran divididos. Si ocurriera, podría tener unos efectos desastrosos. El matemático británico Irving Good explicó el por qué en 1965: «Definamos una máquina ultrainteligente como una máquina capaz de sobrepasar con mucho todas las actividades intelectuales de cualquier ser humano, por muy listo que este sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; se produciría, sin lugar a dudas, una “explosión de inteligencia”, y la inteligencia humana quedaría muy rezagada. Por tanto, la primera máquina ultrainteligente es el último invento que nos hará falta idear a los humanos, siempre que esa máquina sea lo bastante dócil para indicarnos cómo mantenerla bajo control». 

En un artículo sugerente y sensato de 1993, el matemático y autor de obras de ciencia ficción Vernor Vinge llamó a esta explosión de inteligencia «la singularidad», argumentando que hay un punto más allá del cual nos es imposible emitir predicciones fiables. Si logramos confeccionar tales máquinas ultrainteligentes, la primera de ellas estará muy limitada por el software desarrollado para ella, y que compensaremos la falta de conocimientos para la programación óptima de inteligencia mediante el desarrollo de hardware con unas capacidades computacionales muy superiores a las del cerebro humano. Al fin y al cabo, las neuronas humanas no son mejores ni más numerosas que las de los delfines, solo que están conectadas de otra manera, lo que induce a pensar que en ocasiones el software es más importante que el hardware. Es probable que esta coyuntura permita a la primera máquina perfeccionarse en extremo una y otra vez mediante la mera reescritura de su propio software. En otras palabras, mientras que los humanos tardamos millones de años en evolucionar y superar con creces la inteligencia de nuestros ancestros simiescos, esta máquina en evolución también podría sobrepasar la inteligencia de sus ancestros, nosotros, en cuestión de horas o segundos. 

Después de eso, la vida en la Tierra nunca será la misma. La persona o la cosa que controle esta tecnología atesorará con rapidez la mayor riqueza y el mayor poder del mundo, con lo que burlará todos los mercados financieros y desarrollará más inventos y patentes que todos los investigadores humanos juntos. Mediante el diseño de hardware y software informáticos extremadamente perfeccionados, esas máquinas multiplicarán con rapidez su capacidad y su número. Pronto se inventarían tecnologías muy apartadas de nuestra imaginación actual, incluidas algunas armas consideradas necesarias. A eso le seguirá sin tardanza el control político, militar y social del mundo. 

Dada la influencia que ejercen hoy en día los libros, los medios de comunicación y los contenidos de Internet, máquinas capaces de publicar miles de millones de obras más que los humanos ultrabrillantes nos conquistarán los corazones y las mentes incluso sin necesidad de comprarnos o someternos.

viernes

EFECTO INVERNADERO

 
 
En el efecto invernadero atmosférico, los gases responsables han continuado aumentando en la atmósfera. La concentración de dióxido de carbono atmosférico ha aumentado un 31% desde 1750. Los indicadores atmosféricos muestran que la concentración de dióxido de carbono (CO2) en la parte baja de la atmósfera están en el nivel más alto de los últimos 500.000 años. La tasa actual de incremento no tiene precedentes en los pasados 20.000 años. Unas tres cuartas partes de las emisiones antropogénicas de CO2 a la atmósfera en los últimos 20 años se deben a la quema de combustibles fósiles. 
 
El resto se debe fundamentalmente al cambio en el uso de la tierra (mucho CO2 se encuentra almacenado en el suelo), especialmente la deforestación (las plantas retiran CO2 de la atmósfera en su crecimiento y lo mantienen hasta su quema o descomposición). Los gases invernadero existen de forma natural y son imprescindibles para la vida en la Tierra. Pero sus cantidades en aumento están elevando la temperatura de la Tierra a unos niveles que están alterando el clima, y con él el equilibrio de todo el sistema natural. 
 
PRINCIPALES GASES DE EFECTO INVERNADERO 
 
Los gases invernadero absorben longitudes de onda larga de la radiación calorífica. El dióxido de carbono, contribuyen en un 62% al calentamiento global, por lo que se considera el gas invernadero más importante. Sin embargo, también se ha observado un gran aumento en las concentraciones de otros gases invernadero como el metano (CH4), óxido nitroso(N2O), clorofluorocarbonados (CFCs), y ozono (O3). Estos por un lado son de larga duración en la atmósfera y absorben fuertemente la radiación calorífica, por lo que su contribución al calentamiento global es elevada a pesar de sus pequeñas concentraciones en comparación con el CO2. 
 
El Metano (CH4) se libera a la atmósfera cuando la materia orgánica se descompone en ambientes carentes de oxígeno. Las emisiones naturales proceden de humedales, termitas, y océanos. Las fuentes humanas incluyen la extracción y quema de combustibles fósiles, la cría de ganado, los arrozales y la descomposición de residuos en vertederos. Por ejemplo, cuando el ganado digiere el alimento, las bacterias intestinales liberan enormes cantidades de metano. Hay estudios que demuestran que el ganado puede eructar a un ritmo de dos veces por minuto, liberando una media de 908 gramos de metano por vaca, al día. 
 
El Óxido nitroso (N2O) se produce por la acción microbiana sobre los compuestos del nitrógeno – por ejemplo, fertilizantes agrícolas – en el suelo y en el agua. Los océanos y ecosistemas tropicales emiten N2O de forma natural. Las emisiones humanas proceden de la quema en plantas de biomasa, combustibles fósiles y de la producción de nylon. 
 
El Ozono (O3) es un gas traza que existe de forma natural en la atmósfera. En la estratosfera, absorbe la mayoría de las radiaciones potencialmente dañinas de los rayos UV del sol que pueden causar cáncer de piel y daños en la vegetación entre otras cosas. Los (CFCs) son compuestos artificiales que se utilizaron en primer lugar como refrigerantes en los años 30 y posteriormente se extendieron ampliamente como propelentes de aerosoles, como agentes espumantes en la industria del jabón, y en aparatos de aire acondicionado. Los Hidro clorofluorocarbonados (HCFCs) son también compuestos sintéticos de gases que han sustituido a los CFCs ya que no son tan nocivos para la capa de ozono. Sin embargo, tienen un potencial similar de efecto invernadero. 
 

jueves

EL EXPERIMENTO DE MILLER

¿Cómo surgió la vida en la Tierra? ¿Es posible encontrar vida fuera de nuestro planeta? Estas dos preguntas actualmente, desde un punto de vista científico, no tienen respuesta. Sin embargo, tomando como "patrón" las formas de vida terrestres parece evidente que para la aparición de vida son necesarias la presencia de agua líquida y una fuente de carbono.

La hipótesis más aceptada de cómo pudo surgir la vida en la Tierra es la Teoría de la Evolución Química. Esta teoría se basa en la idea de que moléculas orgánicas sencillas reaccionaron entre sí dando lugar a sistemas cada vez más complejos capaces de autoensamblarse y autoorganizarse resultando finalmente en el primer ser vivo. El primer paso para demostrar esta teoría es comprobar si los componentes que forman parte de las proteínas y de los ácidos nucleicos, es decir, aminoácidos, bases púricas y pirimidínicas así como azúcares, pudieron originarse a partir de fuentes inorgánicas de carbono. 

Una de las mejores aproximaciones para resolver este problema consiste en simular las condiciones en las que la vida pudo originarse. El modelo típico consiste en una fuente de energía externa (descargas eléctricas, radiación ultravioleta, partículas aceleradas de alta energía…) capaz de excitar una mezcla de gases que simule la atmósfera de la Tierra primitiva, la atmósfera de otros planetas o el medio interestelar y analizar el producto formado. La mezcla compleja de compuestos orgánicos que se generan en este tipo de experimentos se conoce comunmente con el nombre "detholins" y lo que se ha denominado como Química Prebiótica. 

El verdadero desarrollo de la Química Prebiótica comienza a partir del famoso experimento de Miller. En 1953, Stanley L. Miller, (por aquel entonces doctorando del Premio Nobel de Química en 1934, Harold C. Urey), demostró que era posible obtener algunos de los aminoácidos presentes en las proteínas, además de glicina (Miller desconocía el experimento realizado, años atrás, por Löb) a partir de una fuente inorgánica de carbono. Miller, basándose en las teorías de Urey y Bernal sobre la composición de la atmósfera de la Tierra primitiva, sometió a descargas eléctricas una mezcla de CH4, NH3, H2 y vapor de H2O, durante una semana, obteniendo finalmente una disolución de color rojizo. Tras el análisis cromatográfico de esta disolución (TLC, cromatografía en capa fina, en dos dimensiones), Miller encontró glicina, alanina, β-alanina, ácido aspártico y ácido β-aminobutírico y otras sustancias que no pudo llegar identificar pero que estimó podrían ser β- y γ-aminoácidos. 

Con este experimento quedó demostrado que era posible obtener algunos de los compuestos orgánicos presentes en los organismos vivos a partir de un sistema completamente inorgánico.