Blogia

terrinches

TEORIA DEL BIG BANG

TEORIA DEL BIG BANG

En cosmología, se llama teoría del Big Bang o teoría de la gran explosión a un modelo dentro de la teoría de la relatividad general que describe el desarrollo del Universo temprano y su forma. Técnicamente, se trata de una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse específicamente al momento en el que se inició la expansión observable del Universo (cuantificada en la ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo. Curiosamente, fue el astrofísico inglés Fred Hoyle, uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría del estado estacionario, quien, en 1950 y para mofarse, caricaturizó esta explicación con la expresión big bang ("gran explosión", "gran boom" en el inicio del universo), nombre con el que hoy se conoce dicha teoría.

La idea central del Big Bang es que la teoría de la relatividad general puede ser combinada con las observaciones de isotropía y homogenidad a gran escala de la distribución de galaxias y los cambios de posición entre ellas, permitiendo extrapolar las condiciones del universo antes o después en el tiempo.

Una consecuencia de todos los modelos de Big Bang es que en el pasado el universo tenía una temperatura más alta y una mayor densidad y, por tanto, que las condiciones del universo actual son diferentes de sus condiciones en el pasado o en el futuro. A partir de este modelo, George Gamow en 1948 pudo predecir que debería haber evidencia de un Big Bang en un fenómeno más tarde bautizado como radiación de fondo de microondas cósmicas (CMB). El CMB fue descubierto en los años 1960 y se utiliza como confirmación de la teoría del Big Bang sobre su más importante alternativa, la teoría del estado estacionario.

Para llegar a esta explicación, diversos científicos, con sus estudios, han ido construyendo el camino que lleva a la génesis del modelo del Big Bang.

Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de 1927, utilizaron la teoría de la relatividad para demostrar que el universo estaba en movimiento constante. Poco después, en 1929, el astrónomo estadounidense Edwin Hubble (1889-1953), descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el universo se dilatara constantemente. En 1948, el físico ruso nacionalizado estadounidense, George Gamow (1904-1968), planteó que el universo se creó a partir de una gran explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita (COBE) han conseguido "oír" el eco de esta gigantesca explosión primigenia.

Dependiendo de la cantidad de materia en el Universo, éste puede expandirse indefinidamente o frenar su expansión lentamente hasta producirse una contracción global. El fin de esa contracción se conoce con un término contrario al Big Bang: el Big Crunch o 'Gran Colapso'. Si el Universo se encuentra en un punto crítico, puede mantenerse estable ad eternum.

(SACADO DE WIKIPEDIA)

VIDEO

ECUACIÓN DE SCHRODINGER

La ecuación de Schrödinger, desarrollada por el físico austríaco Erwin Rudolf Josef Alexander Schrödinger en 1925, describe la dependencia temporal de los sistemas mecanocuánticos. Es de importancia central en la teoría de la mecánica cuántica, donde representa un papel análogo a las leyes de Newton en la mecánica clásica.

En la mecánica cuántica, el conjunto de todos los estados posibles en un sistema se describe por un espacio de Hilbert complejo, y cualquier estado instantáneo de un sistema se describe por un vector unitario en ese espacio. Este vector unitario codifica las probabilidades de los resultados de todas las posibles medidas hechas al sistema. Como el estado del sistema generalmente cambia con el tiempo, el vector estado es una función del tiempo. Sin embargo, debe recordarse que los valores de un vector de estado son diferentes para distintas localizaciones, en otras palabras, también es una función de x (o, tridimensionalmente, de r). La ecuación de Schrödinger da una descripción cuantitativa de la tasa de cambio en el vector estado.

Usando la notación bra-ket de Dirac, denotamos ese vector de estado instantáneo a tiempo t como |ψ(t)〉. La ecuación de Schrödinger es, entonces:: Schrodinger Equation

H left| psi (t) rightrangle = i hbar {partialoverpartial t} left| psi (t) rightrangle

donde i es el número imaginario unidad, hbar es la constante de Planck dividida por 2π(constante reducida de Planck), y el Hamiltoniano H es un operador lineal hermítico (auto-adjunto) que actúa sobre el espacio de estados. El hamiltoniano describe la energía total del sistema. Como con la fuerza en la segunda ley de Newton, su forma exacta no la da la ecuación de Schrödinger, y ha de ser determinada independientemente, a partir de las propiedades físicas del sistema cuántico.

(sacado de wikipedia)

HEISEMBERG:PRINCIPIO DE INCERTIDUMBRE

HEISEMBERG:PRINCIPIO DE INCERTIDUMBRE

 

Heisenberg había presentado su propio modelo de átomo renunciando a todo intento de describir el átomo como un compuesto de partículas y ondas. Pensó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y la estructura del mundo. Prefirió describir los niveles de energía u órbitas de electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera que usó un artificio matemático denominado “matriz” para manipular sus números, el sistema se denominó “mecánica de matriz”.

Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la mecánica ondulatoria de Schrödinger, pues esta última pareció tan útil como las abstracciones de Heisenberg, y siempre es difícil, incluso para un físico, desistir de representar gráficamente las propias ideas.

Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo) Heisenberg pasó a considerar un segundo problema: cómo describir la posición de la partícula. ¿Cuál es el procedimiento indicado para determinar dónde está una partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón es tan pequeño, que bastaría un solo fotón de luz para hacerle cambiar de posición apenas lo tocara. Y en el preciso instante de medir su posición, alteraríamos ésta.

Aquí nuestro artificio medidor es por lo menos tan grande como el objeto que medimos; y no existe ningún agente medidor más pequeño que el electrón. En consecuencia, nuestra medición debe surtir, sin duda, un efecto nada desdeñable, un efecto más bien decisivo en el objeto medido. Podríamos detener el electrón y determinar así su posición en un momento dado. Pero si lo hiciéramos, no sabríamos cuál es su movimiento ni su velocidad. Por otra parte, podríamos gobernar su velocidad, pero entonces no podríamos fijar su posición en un momento dado.

Heisenberg demostró que no nos será posible idear un método para localizar la posición de la partícula subatómica mientras no estemos dispuestos a aceptar la incertidumbre absoluta respecto a su posición exacta. Es un imposible calcular ambos datos con exactitud al mismo tiempo.

Siendo así, no podrá haber una ausencia completa de energía ni en el cero absoluto siquiera. Si la energía alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sólo sería necesario determinar su posición, puesto que la velocidad equivaldría a cero. Por tanto, sería de esperar que subsistiera alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento y también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” es lo que no se puede eliminar, lo que basta para mantener liquido el helio incluso en el cero absoluto.

En 1930, Einstein demostró que el principio de incertidumbre (donde se afirma la imposibilidad de reducir el error en la posición sin incrementar el error en el momento) implicaba también la imposibilidad de reducir el error en la medición de energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida. Él creyó poder utilizar esta tesis como trampolín para refutar el principio de incertidumbre, pero Bohr procedió a demostrar que la refutación tentativa de Einstein era errónea.

A decir verdad, la versión de la incertidumbre, según Einstein, resultó ser muy útil, pues significó que en un proceso subatómico se podía violar durante breves lapsos la ley sobre conservación de energía siempre y cuando se hiciese volver todo al estado de conservación cuando concluyesen esos períodos: cuanto mayor sea la desviación de la conservación, tanto más breves serán los intervalos de tiempo tolerables. Yukawa aprovechó esta noción para elaborar su teoría de los piones. Incluso posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las partículas nacían de la nada como un reto a la energía de conservación, pero se extinguían antes del tiempo asignado a su detección, por lo cual eran sólo “partículas virtuales”. Hacia fines de la década 1940-1950, tres hombres elaboraron la teoría sobre esas partículas virtuales: fueron los físicos norteamericanos Julian Schwinger y Richard Phillips Feynman y el físico japonés Sin-itiro Tomonaga. Para recompensar ese trabajo, se les concedió a los tres el premio Nobel de Física en 1965.

A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó con una pequeña pero muy masiva partícula virtual que se expandió con extrema rapidez y que aún sigue existiendo. Según este punto de vista, el Universo se formó de la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número infinito de Universos que se formen (y llegado el momento acaben) en un volumen infinito de Nada.

El “principio de incertidumbre” afectó profundamente al pensamiento de los físicos y los filósofos. Ejerció una influencia directa sobre la cuestión filosófica de “casualidad” (es decir, la relación de causa y efecto). Pero sus implicaciones para la ciencia no son las que se suponen por lo común. Se lee a menudo que el principio de incertidumbre anula toda certeza acerca de la naturaleza y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Tanto si esta interpretación es válida desde el ángulo visual filosófico como si no, el principio de incertidumbre no ha conmovido la actitud del científico ante la investigación. Si, por ejemplo, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas, también es cierto que las moléculas suelen acatar ciertas leyes, y su conducta es previsible sobre una base estadística, tal como las compañías aseguradoras calculan con índices de mortalidad fiables, aunque sea imposible predecir cuándo morirá un individuo determinado.

Ciertamente, en muchas observaciones científicas, la incertidumbre es tan insignificante comparada con la escala correspondiente de medidas, que se la puede descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente la posición y el movimiento de una estrella, o un planeta, o una bola de billar, e incluso un grano de arena con exactitud absolutamente satisfactoria.

Respecto a la incertidumbre entre las propias partículas subatómicas, cabe decir que no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha empleado para esclarecer hechos sobre la radiactividad, sobre la absorción de partículas subatómicas por los núcleos, así como otros muchos acontecimientos subatómicos, con mucha más racionabilidad de lo que hubiera sido posible sin el principio de incertidumbre.

El principio de incertidumbre significa que el Universo es más complejo de lo que se suponía, pero no irracional.

(SACADO DE http://mipagina.cantv.net/aquilesr/principio_incertidumbre.htm)

BROGLIE:DUALIDAD ONDA PARTÍCULA

BROGLIE:DUALIDAD ONDA PARTÍCULA

La dualidad onda corpúsculo, también llamada onda partícula, resolvió una aparente paradoja, demostrando que la luz y la materia pueden, a la vez, poseer propiedades de partícula y propiedades ondulatorias.

De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa nula.

Actualmente se considera que la dualidad onda - partícula es un “concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa.” (Stephen Hawking, 2001)

Éste es un hecho comprobado experimentalmente en múltiples ocasiones. Fue introducido por Louis-Victor de Broglie, físico francés de principios del siglo XX. En 1924 en su tesis doctoral propuso la existencia de ondas de materia, es decir que toda materia tenía una onda asociada a ella. Esta idea revolucionaria, fundada en la analogía con que la radiación tenía una partícula asociada, propiedad ya demostrada entonces, no despertó gran interés, pese a lo acertado de sus planteamientos, ya que no tenía evidencias de producirse. Sin embargo Einstein reconoció su importancia y cinco años después, en 1929, recibió el Nobel en física por su trabajo.

Su trabajo decía que la longitud de onda, λ, de la onda asociada a la materia era

lambda = frac{h}{p}

donde h es la constante de Planck y p es la cantidad de movimiento de la partícula de materia.

(SACADO DE WIKIPEDIA)

MODELO ATÓMICO DE BOHR

Niels Bohr se basó en el átomo de hidrógeno para realizar el modelo que lleva su nombre. Bohr intentaba realizar un modelo atómico capaz de explicar la estabilidad de la materia y los espectros de emisión y absorción discretos que se observan en los gases. Describió el átomo de hidrógeno con un protón en el núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr partía conceptualmente del modelo atómico de Rutherford y de las incipientes ideas sobre cuantización que habían surgido unos años antes con las investigaciones de Max Planck y Albert Einstein. Debido a su simplicidad el modelo de Bohr es todavía utilizado frecuentemente como una simplificación de la estructura de la materia.

En este modelo los electrones giran en órbitas circulares alrededor del núcleo, ocupando la órbita de menor energía posible, o sea la órbita más cercana al núcleo posible. El electromagnetismo clásico predecía que una partícula cargada moviéndose de forma circular emitiría energía por lo que los electrones deberían colapsar sobre el núcleo en breves instantes de tiempo. Para superar este problema Bohr supuso que los electrones solamente se podían mover en órbitas específicas, cada una de las cuales caracterizada por su nivel energético. Cada órbita puede entonces identificarse mediante un número entero n que toma valores desde 1 en adelante. Este número "n" recibe el nombre de Número Cuántico Principal.

Bohr supuso además que el momento angular de cada electrón estaba cuantizado y sólo podía variar en fracciones enteras de la constante de Planck. De acuerdo al número cuántico principal calculó las distancias a las cuales se hallaba del núcleo cada una de las órbitas permitidas en el átomo de hidrógeno.

Estos niveles en un principio estaban clasificados por letras que empezaban en la "K" y terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron por números. Cada órbita tiene electrones con distintos niveles de energía obtenida que después se tiene que liberar y por esa razón el electrón va saltando de una órbita a otra hasta llegar a una que tenga el espacio y nivel adecuado, dependiendo de la energía que posea, para liberarse sin problema y de nuevo volver a su órbita de origen.

El modelo atómico de Bohr constituyó una de las bases fundamentales de la mecánica cuántica. Explicaba la estabilidad de la materia y las características principales del espectro de emisión del hidrógeno. Sin embargo no explicaba el espectro de estructura fina que podría ser explicado algunos años más tarde gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del modelo atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.

[editar] Postulados de Bohr

En 1913 Niels Bohr,desarrolló su célebre modelo atómico de acuerdo a cuatro postulados fundamentales:

  1. Los electrones orbitan el átomo en niveles discretos y cuantizados de energía, es decir, no todas las órbitas están permitidas, tan sólo un número finito de éstas.
  2. Los electrones pueden saltar de un nivel electrónico a otro sin pasar por estados intermedios.
  3. El salto de un electrón de un nivel cuántico a otro implica la emisión o absorción de un único cuanto de luz (fotón) cuya energía corresponde a la diferencia de energía entre ambas órbitas.
  4. Las órbitas permitidas tienen valores discretos o cuantizados del momento angular orbital L de acuerdo con la siguiente ecuación:
bf{L} = n cdot hbar = n cdot {h over 2pi} Donde n = 1,2,3,… es el número cuántico angular o número cuántico principal.

La cuarta hipótesis asume que el valor mínimo de n es 1. Este valor corresponde a un mínimo radio de la órbita del electrón de 0.0529 nm. A esta distancia se le denomina radio de Bohr. Un electrón en este nivel fundamental no puede descender a niveles inferiores emitiendo energía.

Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de que los electrones estables orbitando un átomo están descritos por funciones de onda estacionarias.

(SACADO DE WIKIPEDIA)

MODELO ATÓMICO DE RUTHERFORD

MODELO ATÓMICO DE RUTHERFORD

El modelo atómico de Rutherford (modelo o teoría sobre la estructura del átomo) fue propuesto por el físico Ernest Rutherford para explicar los resultados de su "experimento de la lámina de oro". Mantenía idea de Joseph Thomson de que los átomos poseen electrones, pero sostenía que estos se encontrarían girando alrededor de un núcleo central. En ese núcleo se concentraría toda la carga positiva del átomo y casi toda la masa, y su tamaño debía ser muy pequeño en comparación al de todo el átomo.

Según Rutherford, las órbitas de los electrones no estan muy bien definidas y forman una estructura compleja alrededor del núcleo, dándole un tamaño y forma algo indefinidas. No obstante, los resultados de su experimento, permitieron calcular que el radio del átomo era diez mil veces mayor que el núcleo mismo, lo que hace que haya un gran espacio vacío en el interior de los átomos.

El modelo atómico de Rutherford fue sustituido muy pronto por el de Bohr, que utilizó algunas de las hipótesis iniciales de la mecánica cuántica para describir la estructura de las orbitas de los electrones.

La importancia del modelo de Rutherford residió en proponer la existencia de un núcleo en el átomo. Término que, paradojicamente, no aparece en sus escritos. Lo que Rutherford considero esencial, para explicar los resultados experimentales, fue "una concentración de carga" en el centro del átomo:

"Considerando las evidencias eperimentales, parece que lo más sencillo es suponer que el átomo posee una carga central distribuida en un volumen muy pequeño".

Tras el modelo nuclear de Rutherford, su confirmacion en los experimentos de Henry Moseley y la descripción teórica del átomo por Bohr, el estudio del atomo se dividió en dos campos bien diferenciados, la física nuclear, que estudia el núcleo atómico, y la física atómica que estudia la distribución de los electrones del átomo.

(SACADO DE WIKIPEDIA)

MECÁNICA CUÁNTICA: MAX PLANCK

MECÁNICA CUÁNTICA: MAX PLANCK

Planck estudió en las universidades de Munich y Berlín. Fue nombrado profesor de física en la Universidad de Kiel en 1885, y desde 1889 hasta 1928 ocupó el mismo cargo en la Universidad de Berlín. En 1900 Planck formuló que la energía se radia en unidades pequeñas separadas denominadas cuantos.

Avanzando en el desarrollo de esta teoría, descubrió una constante de naturaleza universal que se conoce como la constante de Planck. La ley de Planck establece que la energía de cada cuanto es igual a la frecuencia de la radiación multiplicada por la constante universal. Sus descubrimientos, sin embargo, no invalidaron la teoría de que la radiación se propagaba por ondas. Los físicos en la actualidad creen que la radiación electromagnética combina las propiedades de las ondas y de las partículas.
(SACADO DE ASTRONOMIA.COM)

TEORIA GENERAL DE LA RELATIVIDAD DE ALBERT EINSTEIN

TEORIA GENERAL DE LA RELATIVIDAD DE ALBERT EINSTEIN

La Teoría general de la relatividad o relatividad general es la teoría de la gravedad publicada por Albert Einstein en 1915 y 1916. El principio fundamental de esta teoría es el Principio de equivalencia, que describe la aceleración y la gravedad como aspectos distintos de la misma realidad. Einstein postuló que no se puede distinguir experimentalmente entre un cuerpo acelerado uniformemente y un campo gravitatorio uniforme. La teoría general de la relatividad permitió fundar también el campo de la cosmología.

En esta teoría, el espacio-tiempo es tratado como una banda Lorentziana de 4 dimensiones la cuál se curva por la presencia de masa, energía, y momento lineal. La relación entre el momento y la curvatura del espacio-tiempo es gobernada por las ecuaciones del campo de Einstein. En la relatividad general, fenómenos que la mecánica clásica atribuye a la acción de la fuerza de gravedad, (tales como una caída libre la órbita de un planeta o la trayectoria de una nave espacial) son representados como movimientos inerciales en un espacio-tiempo curvado. El movimiento de objetos influenciados por la geometría del espacio-tiempo (movimiento inercial) ocurre en el espacio-tiempo que los físicos denominan espacio de Minkowski.

  • El principio general de covariancia: las leyes de la física deben tomar la misma forma en todos los sistemas de coordenadas.
  • El movimiento inercial se realiza a través de trayectorias geodésicas.
  • El principio de invariancia local de Lorentz: las leyes de la relatividad especial se aplican localmente para todos los observadores inerciales.
  • Curvatura del espacio-tiempo: permite explicar los efectos gravitacionales como movimientos inerciales en un espacio-tiempo curvado. La curvatura del espacio-tiempo está creada por la tensión que la masa y la energía ejercen sobre el mismo. El sistema de referencia escogido es definido por elección particular. Por lo tanto, todo movimiento es definido y cuantificado relativamente a otro cuerpo. En la teoría especial de la relatividad se asume que los sistemas de referencia pueden ser extendidos indefinidamente en todas las direcciones en el espacio-tiempo. Pero en la teoría general se reconoce que sólo es posible la definición de sistemas aproximados de forma local y durante un tiempo finito para regiones finitas del espacio. En relatividad general, las leyes de Newton son asumidas sólo en relación a sistemas de referencia locales. Las partículas libres viajan trazando líneas rectas en sistemas inerciales locales (Lorentz). Cuando esas líneas se extienden, no aparecen como rectas, siendo llamadas geodésicas. Entonces, la primera ley de Newton se ve reemplazada por la ley del movimiento geodésico.

Distinguimos sistemas inerciales de referencia, en los que los cuerpos mantienen un movimiento uniforme sin la actuación de o sobre otros cuerpos, de los sistemas de referencia no inerciales en los que los cuerpos que se mueven libremente sufriendo una aceleración derivada del propio sistema de referencia. En sistemas de referencia no inerciales se percibe una fuerza derivada del sistema de referencia, no por la influencia directa de otra materia. Nosotros sentimos fuerzas "gravitatorias" cuando vamos en un coche y giramos en una curva como la base física de nuestro sistema de referencia. De forma similar actúan el efecto Coriolis y la fuerza centrífuga cuando definimos sistemas de referencia basados en un cuerpo rotando (tal cual la Tierra o un niño dando vueltas). El principio de equivalencia en relatividad general establece que no hay experimentos locales que sean capaces de distinguir una caída no-rotacional en un campo gravitacional a partir del movimiento uniforme en ausencia de un campo gravitatorio. Es decir, no hay gravedad en un sistema de referencia en caída libre. Desde esta perspectiva la gravedad observada en la superficie de la Tierra es la fuerza observada en un sistema de referencia definido por la materia en la superficie que es no libre (es ligada) pero es atraída hacia abajo por la materia terrestre, y es análoga a la fuerza "gravitatoria" sentida en un coche dando una curva.

Esquema de la curvatura del espacio-tiempo alrededor de una masa.
Esquema de la curvatura del espacio-tiempo alrededor de una masa.

Matemáticamente, Einstein modeló el espacio-tiempo por una variedad pseudo-Riemanniana, y sus ecuaciones de campo establecen que la curvatura de la variedad en un punto está relacionada directamente con el tensor de energía en dicho punto; dicho tensor es una medida de la densidad de materia y energía. La curvatura le dice a la materia como moverse, y de forma recíproca la materia le dice al espacio como curvarse. La ecuación de campo posible no es única, habiendo posibilidad de otros modelos sin contradecir la observación. La relatividad general se distingue de otras teorías de la gravedad por la simplicidad de acoplamiento entre materia y curvatura, aunque todavía no se ha resuelto su unificación con la Mecánica cuántica y el reemplazo de la ecuación de campo con una ley adecuada a la cuántica. Pocos físicos dudan que una teoría así, una teoría del todo pondrá a la relatividad general en el límite apropiado, así como la relatividad general predice la ley de la gravedad en el límite no relativista.

La ecuación de campo de Einstein contiene un parámetro llamado constante cosmológica Λ que, según algunos autores, fue originalmente introducida por Einstein para permitir un universo estático. Este esfuerzo no tuvo éxito por dos razones: la inestabilidad del universo resultante de tales esfuerzos teóricos, y las observaciones realizadas por Hubble una década después confirman que nuestro universo es de hecho no estático sino en expansión. Así Λ fue abandonada, pero de forma bastante reciente, técnicas astronómicas encontraron que un valor diferente de cero para Λ es necesario para poder explicar algunas observaciones. Otros autores consideran que la introducción de la constante cosmológica por parte de Einstein tiene que ver con su intento por resolver las paradojas de Mach.

Las ecuaciones de campo son las siguientes:

R_{ik} - left(frac{g_{ik} R}{2}right) + Lambda g_{ik} = frac{8pi G} {c^4}T_{ik}

Las mismas se pueden deducir de la acción de Einstein-Hilbert (sin constante cosmológica):

S = int left[  frac{c^4}{16 pi G} , R + L_mathrm{M} right] sqrt{-g} , d^4x

donde R{ik} es el tensor de curvatura de Ricci, R es el escalar de curvatura de Ricci, g{ik} es el tensor métrico, Λ es la constante cosmológica, T{ik} es el tensor de energía, c es la velocidad de la luz, G es la constante gravitatoria universal y g es el determinante de la métrica, de forma similar a lo que ocurre en la gravedad newtoniana. g{ik} describe la métrica de la variedad y es un tensor simétrico 4 x 4, por lo que tiene 10 componentes independientes. Dada la libertad de elección de las cuatro coordenadas espaciotemporales, las ecuaciones independientes se reducen a seis.

Es importante notar que, puesto en un espacio-tiempo de cuatro dimensiones, el tensor pleno de curvatura contiene más información que la curvatura de Ricci. Eso significa que las ecuaciones del de campo anteriores, con Λ = 0, no especifican completamente el tensor de curvatura sino una parte del mismo, el tensor de Ricci. La parte de la curvatura no especificada por las ecuaciones de Einstein, coincide precisamente con el tensor de Weyl.

(SACADO DE WIKIPEDIA) video