text
stringlengths
35
3.53k
En general, las instrucciones pueden ser de funciones lógicas, de tiempo, de cuenta, aritméticas, de espera, de salto, de comparación, de comunicación y auxiliares.Dependiendo del fabricante, los lenguajes de programación son muy diversos, sin embargo, suelen tener alguna relación más o menos directa con los lenguajes Ladder o GRAFCET. Los programas para autómata pueden realizarse de forma lineal o de forma estructurada. En la programación lineal el programa consta de una serie de instrucciones que se van ejecutando una tras de otra de modo cíclico. Este modo de programación se suele emplear en programas no demasiado complejos o en autómatas que no posean el modo estructurado.
Cuando los programas son muy complejos, la programación estructurada es más aconsejable ya que puede dividirse el proceso general en subprogramas con diferentes subprocesos tecnológicos.Otras de las ventajas de este modo de programación es que da un carácter más panorámico al programa, lo que conlleva una más fácil identificación de errores así como una mayor facilidad de comprensión por otros programadores. Véase también Teoría de los lenguajes formales Autómata finito Enlaces externos Autoplcs.com grupo-maser.com Autómatas :: ProSer :: Adquisidores de datos fabricados en Argentina.
Automatas AUTOMATOS.NET - Automatización y Control Industrial Aviónica Técnico realizando labores de mantenimiento de la aviónica de un B1 Lancer La aviónica, del inglés, avionics y éste de aviation (aviación) y de electronics (electrónica), es la aplicación de la electrónica a la aviación.Estudia el diseño, la fabricación, la operación y el mantenimiento de sistemas electrónicos instalados en aeronaves para su mando y control. Véase también Portal:Ingeniería Contenido relacionado con Ingeniería.
Aeronáutica Ingeniería aeronáutica Ingeniería aeroespacial Instrumento de navegación aérea Axiomas de Wightman Los axiomas de Wightman constituyen uno de los enfoques existentes para construir una teoría cuántica de campos rigurosa, que combine los requerimientos relativistas y los principios cuánticos.Contenido 1 W0 (suposiciones de la mecánica cuántica relativista) 2 W1 (asunciones sobre el dominio y la continuidad del campo) 3 W2 (ley de transformación del campo) 4 W3 (conmutatividad local o causalidad microscópica) 5 Salto de masa (mass gap) W0 (suposiciones de la mecánica cuántica relativista) La mecánica cuántica se describe según John von Neumann, y la teoría de la simetría se describe según Eugene Paul Wigner.
Esto es para aprovechar la exitosa descripción de partículas relativistas de Eugene Paul Wigner en su famoso paper de 1939.Así, los estados puros vienen dados por los rayos de algún espacio de Hilbert complejo separable. (Para el cual el producto escalar será denotado <| >). En mecánica de onda elemental, la fase total de una función de onda no es observable. En mecánica cuántica general, esta idea conduce al postulado que dado un vector en el espacio de Hilbert, todos los vectores que se diferencian de por un múltiplo complejo diferente a cero (rayo que contiene ) deben representar igual estado puro del sistema. Geométricamente, decimos que el espacio relevante es el conjunto de rayos, conocido como espacio proyectivo de Hilbert.
La interpretación del producto escalar en términos de (amplitud de) probabilidad significa que, por la convención, necesitamos considerar solamente vectores de longitud unidad.Observe que los rayos mismos no forman un espacio lineal (sino una variedad proyectiva). Un vector unitario en un rayo dado se puede utilizar para representar el estado físico más convenientemente que mismo, aunque es ambiguo en fase (múltiplo complejo de módulo unidad). La probabilidad de transición entre dos rayos y se puede definir en términos de los representantes y vectoriales por: y es independiente de qué representantes vectoriales, de y se eligen. Wigner postuló que la probabilidad de la transición entre los estados debe ser igual para todos los observadores relacionados por una transformación de la relatividad especial.
Más generalmente, él consideraba el enunciado de que una teoría sea invariante bajo un grupo G se expresará en términos de la invariancia de la probabilidad de transición entre cualesquiera dos rayos.La declaración postula que el grupo actúa en el conjunto de rayos, es decir, en el espacio proyectivo. Sea (a, L) un elemento del grupo de Poincaré (el grupo no homogéneo de Lorentz), así, a es un tetra-vector real de Lorentz que representa el cambio del origen del espacio-tiempo (x en el espacio de Lorentz = R4) y L es una transformación de Lorentz, que se puede definir como transformación lineal del espacio-tiempo cuadridimensional que preserva la distancia c²t²- x.x de Lorentz de cada vector (c t, x).
Entonces la teoría es invariante bajo el grupo de Poincaré si para cada rayo del espacio de Hilbert y cada elemento (a, L) del grupo se da un rayo (a, L) transformado, y la (amplitud de) probabilidad de transición queda sin cambios por la transformación: <(a, L)| (a, L)> = <| > El primer teorema de Wigner es que, bajo estas condiciones, se puede expresar la invariancia más convenientemente en términos de operadores lineales o anti-lineales (de hecho, unitarios o antiunitarios); el operador de simetría en el espacio proyectivo de rayos puede ser subido al espacio subyacente de Hilbert.
Haciendo esto para cada elemento del grupo (a, L), conseguimos una familia de operadores unitarios o antiunitarios U(a, L) en nuestro espacio de Hilbert, tal que el rayo transformado por (a, L) sea igual que el rayo que contiene U(a, L).Si restringimos la atención a los elementos del grupo conectado con la identidad, entonces el caso anti-unitario no ocurre. Sean (a,L) y (b,M) dos transformaciones de Poincaré, y denotemos su producto de grupo como (a, L). (b, M) de la interpretación física vemos que el rayo que contiene U(a, L) [U(b, M)] (para cualquier ) debe ser el rayo que contiene U((a, L). (b, M)).
Por lo tanto estos dos vectores se diferencian por una fase, que puede depender de los dos elementos del grupo (a,L) y (b,M).Estos dos vectores no necesitan ser iguales, sin embargo. De hecho, para las partículas de espín 1/2, no pueden ser iguales para todos los elementos del grupo. Por el uso adicional de cambios de fase arbitrarios, Wigner demostró que el producto de los operadores unitarios de representación obedece: U(a,L)U(b,M) = ( + / )U((a,L). (b,M)) en vez de la ley del grupo.
Para las partículas de espín entero (piones, fotones, gravitones...) uno puede quitar +/- por cambios de fase adicionales, pero para las representaciones de espín semientero, no podemos, y cambia discontinuamente mientras que giramos alrededor de cualquier eje por un ángulo de 2.Podemos, sin embargo, construir una representación del grupo de recubrimiento del grupo de Poincaré, llamado SL(2, C) esto tiene elementos (a,A) como antes, a es un tetra-vector, pero ahora A es una matriz 2 por 2 compleja con determinante unidad.
Denotamos los operadores unitarios que obtenemos por U(a, A), y éstos nos dan una representación continua, unitaria y verdadera en que la colección de U(a, A) obedece la ley del grupo SL(2, C).Debido al cambio de signo bajo rotaciones de 2, los operadores hermitianos que se transforman como espín 1/2, 3/2 etc. no puede ser observables. Esto se muestra como las reglas de superselección de univalencia: las fases entre los estados de espín 0, 1, 2, etc. y los de espín 1/2, 3/2, etc., no son observables. Esta regla es adicional a la no observabilidad de la fase total de un vector del estado.
Respecto a los observables, y a los estados |v>, conseguimos una representación U(a, L) del grupo de Poincaré, en subespacios de espín entero, y U(a, A) del SL(2, C) en subespacios del semientero, que actúa según la interpretación siguiente: Un ensamble que corresponde a U(a, L)|v> debe ser interpretada con respecto a los coordenadas x' = L-1(x-a) exactamente de la misma manera que un conjunto que corresponde a |v> se interpreta con respecto a los coordenadas x y semejantemente para los subespacios impares.El grupo de traslaciones del espacio-tiempo es conmutativo, así que los operadores pueden ser simultáneamente diagonalisados.
Los generadores de estos grupos nos dan cuatro operadores autoadjuntos, P0, Pj, j=1,2,3, que se transforman bajo el grupo homogéneo como un tetra-vector, llamados el tetra-vector de energía-momento.La segunda parte del cero-ésimo axioma de Wightman es que la representación U(a, A) satisface la condición espectral - que el espectro simultáneo de energía-momento está contenido en el cono delantero: ............... . La tercera parte del axioma es que hay un estado único, representado por un rayo en el espacio de Hilbert, que es invariante bajo la acción del grupo de Poincaré. Se llama un vacío.
W1 (asunciones sobre el dominio y la continuidad del campo) para cada función f de prueba, existe un conjunto de operadores A1(f),..., An(f) que, junto con sus adjuntos, están definidos en un subconjunto denso del espacio de Hilbert de estados, conteniendo el vacío.Los campos A son distribuciones temperadas valoradas en operadores. El espacio de Hilbert de estados es generado por los polinomios de campo que actúan en el vacío (condición de ciclicidad).
W2 (ley de transformación del campo) Los campos son covariantes bajo la acción del grupo de Poincaré, y transforman según una cierta representación S del grupo de Lorentz, o SL(2, C) si el espín no es número entero: W3 (conmutatividad local o causalidad microscópica) Si los soportes de dos campos están separados tipo espacio, entonces los campos conmutan o anticonmutan.Salto de masa (mass gap) La ciclicidad de un vacío, y la unicidad de un vacío se considera a veces por separado.
También, hay una propiedad de lo completitud asintótica - que el espacio del hilbert de estados es generado por los espacios asintóticos Hin y Hout, apareciendo en la matriz de dispersión S. La otra propiedad importante de la teoría de campos que no es requerida por los axiomas es salto de masa - que el espectro de energía-momento tenga un salto entre cero y un cierto número positivo.De estos axiomas, se siguen ciertos teoremas generales: La conexión entre el espín y la estadística - los campos que se transforman según espín semientero anticonmutan, mientras que los de espín entero conmutan (Axioma W3).
El teorema CPT - hay una simetría general bajo cambio de paridad, de reversión de las partículas antipartículas y de la inversión del tiempo (ningunas de estas simetrías existen por separado en la naturaleza, como experimentalmente se ha verificado) Arthur Wightman demostrado que las distribuciones del valor de la expectativa del vacío, satisfaciendo cierto conjunto de propiedads que se siguen de los axiomas, son suficientes para reconstruir la teoría de campos - teorema de reconstrucción de Wightman, incluyendo la existencia de un estado de vacío; no encontró la condición de los valores de la expectativa del vacío que garantizaban la unicidad del vacío; esta condición, la propiedad cluster, fue encontrada más adelante por Jost, Hepp, Ruelle y Steinmann.
Si la teoría tiene un salto de masa, es decir no hay masas entre 0 y un cierta constante mayor de cero, entonces el las distribuciones de expectativa del vacío son asintóticamente independientes en regiones distantes.El teorema de Haag dice que no puede haber imagen de interacción, que no podemos utilizar el espacio de Fock de partículas no interactuantes como espacio de Hilbert - en el sentido que identificaríamos los espacios de Hilbert vía polinomios de campos que actúan en un vacío en cierto instante. Actualmente, no hay prueba de que estos axiomas se puedan satisfacer para las teorías de gauge en cuatro dimensiones, por eso el modelo estándar no esta definitivamente fundamentado.
Hay un premio de un millón de dólares para una prueba de que estos axiomas se pueden satisfacer para las teorías de gauge, con el requisito adicional de salto de masa.Axión El axión es una partícula subatómica peculiar. Su existencia fue postulada por la teoría de Peccei-Quinn en 1977 para explicar la conservación de la simetría CP en el marco de la cromodinámica cuántica (QCD), suponiendo que sería una partícula de masa muy pequeña y sin carga eléctrica. El nombre fue introducido por Frank Wilczek, co-escritor del primer artículo que predijo el axion.
Wilczek buscaba un nombre para la partícula, y mientras hacia la colada, se fijó en el nombre del detergente que estaba usando, "Axion", y decidió ponerle ese nombre a la partícula, ya que esperaba que "limpiara" el problema de la QCD con la simetria CP.En cosmología, el axión se considera un buen candidato para resolver el problema de la materia oscura. A finales de 2006, Piyare Jain y Gurmukh Singh publicaron el descubrimiento de una partícula de masa inesperadamente grande (6-20 MeV) y muy reducida vida (del orden de 10-13 segundos) que podría ser el tan buscado axión.
Enlaces externos Todos en inglés: December 6, 2006 news article by PhysicsWeb.org July 17, 2006 news article from Scientific American March 27, 2006 news article by PhysicsWeb.org November 24, 2004 news article by PhysicsWeb.org CAST Experiment CAST at MPI/MPE Baktun Baktun se refiere a un periodo de tiempo medido en días del Calendario del Largo Conteo en el Calendario maya.Definición Así como el calendario gregoriano cuenta series de años conocidas como lustros, décadas, siglos y milenios, el Calendario Maya contaba series de veinte años, llamadas cada una Katun y series de 20 Katunes (400 Tún = 394,3 años), llamados Baktun. De acuerdo a este calendario el 21 de diciembre de 2012 es el último día del decimotercer Baktun.
Los mayas registraron esta fecha como 13.0.0.0.0, cuyos valores son: 1= Kin (día) 20= Unial 360= Tun 7.200= Katun 144.000= Baktun.Es igual a 13 x 144.000 = 1.872.000 días, unos 5.125,36 años. Véase también Calendario maya Balance de materia Los balances de materia se basan en la ley de la conservación de la materia, que indica que la masa de un sistema cerrado permanece constante, sin importar los procesos que ocurran dentro del sistema.
La masa que entra en un sistema debe, por lo tanto, salir del sistema o acumularse dentro de él, es decir: Entradas = Salidas + Acumulación Los balances de materia se desarrollan comúnmente para la masa total que cruza los límites de un sistema, pero también pueden enfocarse a un elemento o compuesto químico.Cuando se escriben balances de materia para compuestos específicos en lugar de para la masa total del sistema, se introduce un término de producción: Entradas + Producción = Salidas + Acumulación El término de producción puede utilizarse para describir velocidades de reacción. Los términos de producción y acumulación pueden ser positivos o negativos. Los balances de materia pueden ser integrales o diferenciales.
Un balance integral se enfoca en el comportamiento global del sistema, mientras que un balance diferencial se enfoca en los mecanismos dentro del sistema (los cuales, a su vez, afectan el comportamiento global).Para poder hacer un balance integral de materia primero se deben identificar los límites del sistema, es decir, cómo el sistema está conectado al resto del mundo, y cómo el resto del mundo afecta al sistema. Para hacer un balance diferencial de materia se debe describir también el interior del sistema. En los casos más simples, este se considera homogéneo (perfectamente mezclado). TIPOS DE BALANCE: a)balance de masa global o total: Se realiza en todo el sistema considerando las masas totales de cada una de las corrientes de materiales.
b)balance parcial: Se realiza en los subsistemas considerando un determinado componente en cada una de las corrientes.c)balance molar: Si en el sistema no se orginan cambios químicos. d)balance atómico: Si en el sistema hay cambios químicos e)balance volumétrico: Si no se originan cambios de estado Balancín Un balancín puede ser: Recipiente oscilante consistente en 2 cubetas. Cada una de las cubetas se va llenando de líquido hasta que voltea al llegar a cierto volumen dando paso a la siguiente cubeta que repite el ciclo. Por tanto, podría decirse que el balancín es un instrumento mecánico que mide el flujo de un líquido expresado en forma de un tren de pulsos.
Los balancines existen desde hace miles de años, tanto en la cultura asiática como en la árabe.Muchas veces con carácter decorativo, otras veces se han utilizado para medir el tiempo o poner en marcha pequeños automatismos. Actualmente, es el principal componente de un pluviómetro cuyo tren de pulsos se traduce en la intensidad de lluvia y su acumulación da el volumen total de una precipitación. También existe en iluminación un estilo de lámpara llamada 'balancín', que está construida con una barra de metal recta y en sus extremos lleva dos portalamparas que en su interior llevan bombillas. Sirve como elemento de iluminación decorativo. Balancines en un motor sirven para abrir las válvulas, ver árbol de levas y taqué.
Balancin en Elevación de Cargas es un bastidor metálico que facilita el amarre y la estabilidad en cargas suspendidas de un gancho de grua, también es una palanca Bandas críticas Las bandas críticas son rangos de frecuencia dentro de los cuales un tono bloquea la percepción de otro tono.Ocurren porque una onda que estimula la membrana basilar perturba la membrana dentro de una pequeña área más allá del punto de primer contacto, excitando a los nervios de toda el área vecina. Por lo tanto, las frecuencias cercanas a la frecuencia original no tienen mucho efecto sobre la sensación de la fuerza del sonido, incluso si se dobla el volumen del sonido.
La sensación de volumen no es afectada de esta manera cuando se suma a la mezcla una frecuencia fuera de la banda crítica.Véase también: Volumen (sonido) La Psicoacústica Por ejemplo, el volumen percibido de una fuente de ruido de banda estrecha a niveles constantes de presión de sonido es constante mientras se aumenta el ancho de banda de manera gradual. El límite de este ancho de banda es conocido como ancho crítico. Fuentes Notas de y comentarios sobre “The Acoustical Foundations of Music” de John Backus (PDF en inglés) Psicoacústica: Ancho crítico etc.
(en inglés también) Banda de conducción En semiconductores y aislantes, la banda de conducción es el intervalo de energías electrónicas que, estando por encima de la banda de valencia, permite a los electrones sufrir aceleraciones por la presencia de un campo eléctrico externo y, por tanto, permite la presencia de corrientes eléctricas.Los electrones de un semiconductor pueden alcanzar esta banda cuando reciben suficiente energía, generalmente debido a la excitación térmica. Estructura de bandas en un semiconductor Véase conducción eléctrica y semiconductor para una descripción más detallada de la estructura de bandas.
Véase también Semiconductor Conducción eléctrica Banda de Valencia (Redirigido desde Banda de valencia) En la teoría de sólidos, se denomina banda de valencia al más alto de los intervalos de energías electrónicas (o bandas) que se encuentra ocupado por electrones en el cero absoluto.En semiconductores y aislantes aparece una banda prohibida o gap por encima de la banda de valencia, seguida de una banda de conducción a energías aún mayores. En los metales , por el contrario, no hay ningún intervalo de energías prohibidas entre las bandas de valencia y de conducción. Estructura de bandas en un semiconductor Véase conducción eléctrica y semiconductor para una descripción más detallada de la estructura de bandas.
La baja conductividad eléctrica de semiconductores y aislantes se debe a las propiedades de la banda de valencia.Se dá la circunstancia de que el número de electrones es exactamente el mismo que el número de estados disponibles en la banda de valencia. En la banda prohibida, evidentemente, no hay estados electrónicos disponibles. Esto significa que cuando se aplica un campo eléctrico los electrones no pueden incrementar su energía (es decir, no pueden ser acelerados) al no haber estados disponibles donde puedan moverse más rápidamente de lo que ya lo hacen. Pese a esto, los aislantes presentan cierta conductividad.
Esto se debe a la excitación térmica, que provoca que algunos electrones adquieran suficiente energía como para saltar la banda prohibida y acceder a un estado de la banda de conducción.Una vez que se encuentran en la banda de conducción pueden conducir la electricidad. Además, los estados disponibles o huecos que dejan los electrones en la banda de valencia contribuyen también a la conductividad del material, al permitir cierta movilidad al resto de electrones de la banda de valencia. Un error frecuente consiste en decir que los electrones de los aislantes se encuentran "ligados" a los núcleos atómicos, dando a entender que no pueden moverse. De hecho, estos electrones sí pueden moverse libremente por el aislante, alcanzando velocidades del orden de 100 km por segundo.
Tanto en metales como en aislantes, los electrones se encuentran "deslocalizados", sin que sea posible asignarles una posición definida dentro del material.Véase también Semiconductor Conducción eléctrica Boquete de Banda (Redirigido desde Banda prohibida) El boquete de banda (o bandgap), en la física del estado sólido y otros campos relacionados, es la diferencia de energía entre la parte superior de la banda de valencia y la parte inferior de la banda de conducción. Está presente en aislantes y semiconductores. Estructura de bandas en un semiconductor Véase conducción eléctrica y semiconductor para una descripción más detallada de la estructura de bandas.
Anchos de banda prohibida Materiales comunes a temperatura ambiente InSb 0.17 eV Ge 0.67 eV InN 0.7 eV HgCdTe 0.0 - 1.5 eV InGaAs 0.4 - 1.4 eV Silicio 1.14 eV(InD) InP 1.34 eV(D) GaAs 1.42 eV(D) CdTe 1.56 eV(D) AlGaAs 1.42 - 2.16 eV InGaP2 1.8 eV GaAsP 1.42-2.26eV(In/D) InGaN 0.7 - 3.4 eV(D) AlAs 2.16 eV GaP 2.26 eV(InD) AlGaInP 1.91 - 2.52 eV ZnSe 2.7 eV SiC 6H 3.03 eV SiC 4H 3.28 eV GaN 3.37 eV Diamante 5.46 - 6.4 eV La conductividad eléctrica de un semiconductor intrínseco (puro) depende en gran medida del la anchura del gap.
Los únicos portadores útiles para conducir son los electrones que tienen suficiente energía térmica para poder saltar la banda prohibida, la cual se define como la diferencia de energía entre la banda de conducción y la banda de valencia.La probabilidad de que un estado de energía E0 esté ocupado por un electrón se calcula mediante las estadísticas de Fermi-Dirac. Una aproximación, la de Boltzmann, es válida también si se cumple E0 > > EF, donde EF es el nivel de Fermi.
La aproximación de Boltzman viene dada por: donde: e es la función exponencial Eg es la energía de banda prohibida k es la constante de Boltzmann T es la temperatura La conductividad es un efecto no deseado, y los materiales con un ancho de banda prohibida mayor ofrecen un mejor comportamiento.En los fotodiodos de infrarrojos se usa un gap pequeño para permitir la detección de fotones de baja energía.
Contenido 1 Banda prohibida superconductora 1.1 La ecuación de la banda prohibida 2 Véase también 3 Enlaces externos 3.1 Banda prohibida superconductora Banda prohibida superconductora La banda prohibida superconductora , a veces conocida como gap superconductor, a pesar de su nombre, no está relacionada con la banda prohibida de semiconductores y aislantes, sino con la energía necesaria para romper el "enlace" que une a dos electrones que están formando un par de Cooper (mientras que cuando un electrón se encuentra en el estado normal, su energía cinética puede ser modificada una cantidad arbitrariamente pequeña).
Si la energía aplicada es inferior a 2 (el doble, debido a que un par se compone de dos electrones, y la banda prohibida se refiere a la energía por electrón), no es posible romper el par, y por lo tanto se puede decir que "no sucede nada" (es decir, los electrones no absorberán fonones cuya energía sea inferior a dicha cantidad).Más concretamente, la banda prohibida superconductora es la energía por electrón entre el estado fundamental superconductor y el primer estado excitado. La banda prohibida es máxima en el cero absoluto, y va disminuyendo a medida que aumenta la temperatura, hasta anularse cuando se alcanza la temperatura crítica (es decir, cuando la muestra deja de ser superconductora debido a que la energía de enlace del par de Cooper es mayor que cero).
La ecuación de la banda prohibida La teoría BCS llega, aplicando la física cuántica, a una importante ecuación que desenvuelve un papel central en dicha teoría, y se suele conocer como ecuación de la banda prohibida o bien ecuación del gap: donde kB es la constante de Boltzmann, k es la energía cinética sobre el nivel de Fermi y V es el potencial de interacción entre los electrones del par de Cooper (que en la aproximación propuesta por Cooper es constante siempre que trabajemos cerca del nivel de Fermi, y nula cuando estemos fuera).
Lo que queremos es obtener el valor de la banda prohibida en función de la temperatura, es decir = (T), dado que de esta manera podríamos poner las propiedades que dependen de la banda prohibida en función de la temperatura (lo cual es importante, porque a la hora de realizar experimentos la temperatura será la variable independiente, cosa que no podemos hacer con la ).La ecuación es demasiado complicada como para obtener el valor exacto de , pero se puede calcular numéricamente con programas informáticos convirtiendo el sumatorio en una integral.
De esta manera, se obtiene una curva con las siguientes propiedades: Cuando T ~ 0, la energía de la banda prohibida es prácticamente constante (su tangente es horizontal en ese punto), tal que (T) es aproximadamente igual a (0), Cuando T ~ Tc, (T) decrece rápidamente tal que tiene aproximadamente la forma de (Más abajo, en la sección Enlaces externos hay un enlace a la página de HyperPhysics que contiene un gráfico con la forma de = (T)).Gracias a la ecuación de la banda prohibida es posible calcular muchas cantidades termodinámicas en superconductores como la entropía, el calor específico, la energía interna o la energía libre en función de la temperatura, lo cual es fundamental para predecir resultados experimentales.
Véase también Semiconductor Hueco de electrón Transistor de efecto de campo Fotodiodo Semiconductor Banda de valencia Banda de conducción Enlaces externos Banda prohibida superconductora «Energy Gap in Superconductors as a Function of Temperature», sección de una página de HyperPhysics donde aparece un gráfico que muestra la relación entre la banda prohibida superconductora y la temperatura (tanto la curva predicha por la teoría BCS, como los valores experimentales para el tantalio, el estaño y el niobio) (en inglés), accedida el 27 de mayo de 2008.
Bariogénesis En cosmología física, la bariogénesis es término genérico utilizado para referirse a los hipotéticos procesos físicos que produjeron una asimetría entre bariones y anti-bariones durante los primeros instantes de la creación del universo, resultando en cantidades elevadas de materia ordinaria residual en el universo hoy en día.Las teorías de bariogénesis — siendo la bariogénesis electrodébil y la bariogénesis de GUT las más importantes — emplean sub-disciplinas de la física, como la teoría cuántica de campos y la física estadística, para describir estos posibles mecanísmos.
La diferencia fundamental entre las teorías de bariogénesis está en la descripción que hacen de las interacciones entre partículas fundamentales.El paso siguente a la bariogénesis es la nucleosíntesis primordial la cual esta mucho mejor entendida y explica la formación de núcleos atómicos ligeros.
Contenido 1 Fundamento 2 Las condiciones de Sakharov 3 El contenido de materia del univeso 3.1 El parámetro de asimetría bariónica 3.2 Una estimación naive de la asimetría bariónica en el universo 4 Consideraciones filosóficas 5 Véase también 6 Referencias 6.1 Artículos 6.2 Libros de texto 6.3 Enlaces externos Fundamento La ecuación de Dirac[1] , formulada por Paul Dirac en torno al año 1928 como parte del desarrollo de la mecánica cuántica relativista, predice la existencia de antipartículas junto con la solución esperada correspondiente a partículas.Desde entonces se ha verificado experimentalmente que toda partícula tiene una antipartícula asociada.
El teorema CPT garantiza que una partícula y su anti-partícula tienen exactamente la misma masa y vida media pero carga exactamente opuesta.Dada esta simetría, es sorprendente que el universo no tenga cantidades iguales de materia y antimateria. Efectivamente, no hay ninguna evidencia experimental de concentraciones significativas de antimateria. Hay dos interpretaciones dominantes para esta disparidad: o cuando se creó el universo ya había una pequeña preferencia por la materia, con el número bariónico total del universo distinto de cero ( ); o en origen el universo era perfectamente simétrico (B(t = 0) = 0) pero de alguna manera un conjunto de fenómenos contribuyeron a un pequeño desequilibrio.
El segundo punto de vista es el preferido generalmente, aunque no hay una evidencia experimental clara que indique cual es el correcto.La preferencia mencionada está basada meramente en el siguiente argumento filosófico: si el universo contiene a todo (tiempo, espacio y materia), nada existe fuera de él y, por tanto, nada existió antes, llevándonos a un número bariónico B = 0. Desde un punto de vista más científico, hay razones para esperar que cualquier asimetría inicial se terminaría anulando durante la historia temprana del universo. Entonces el problema es explicar cómo evoluciona el universo para producir .
Las condiciones de Sakharov En 1967, Andrei Sakharov propuso[2] [3] un conjunto de tres condiciones necesarias que debe cumplir una interacción que genere bariones para producir materia y antimateria a ritmos distintos.Estas condiciones se inspiraron los entonces recientes descubrimientos sobre la radiación de fondo cósmico[4] y la violación de CP en el sistema de kaones neutros[5] . Las tres condiciones necesarias de Sakharov son: Violación de número bariónico B. Violación de simetría C y simetría CP. Interacciones fuera del equilibrio térmico.
En la actualidad, no hay evidencia experimental de interacciones entre partículas donde esté rota perturbativamente la conservación del número bariónico: esto parecería sugerir que todas las reacciones entre partículas observadas tienen el mismo número bariónico antes y después de la reacción.Matemáticamente, el conmutador del operador cuántico número bariónico con el hamiltoniano (perturbativo) del Modelo Estándar es nulo: [B, H] = BH HB = 0. Sin embargo, se sabe que el Modelo Estándar viola la conservación del número bariónico no-perturbativamente: una anomalía U(1) global.
La violación del número bariónico también puede resultar de física más allá del Modelo Estándar (véase supersimetría y teorías de gran unificación).La segunda condición — la violación de la simetría CP — se descubrió en 1964 (la violación directa de CP, esto es, la violación de CP en un proceso de desintegración, se descubrió más adelante, en 1999). Si se supone simetría CPT , la violación de CP exige violación de la simetría bajo inversión temporal (simetría bajo T). La última condición nos dice que el ritmo de la reacción que genera la asimetría bariónica debe ser menor que el ritmo de expansión del universo.
En esta situación, las partículas y sus correspondientes antipartículas no alcanzan el equilibrio térmico debido a que la rápida expansión disminuye la probabilidad de sucesos de aniquilación de pares partícula-antipartícula.El contenido de materia del univeso Véase también: Asimetría bariónica El parámetro de asimetría bariónica El reto que se le presenta a las teorías físicas es explicar como producir esta preferencia de materia sobre antimateria, y también la magnitud de esta asimetría. Un parámetro importante para cuantificar esto es el parámetro de asimetría , .
Esta cantidad relaciona la diferencia de densidad global de número de bariones y anti-bariones (nB y , respectivamente) y la densidad de número de fotones de radiación de fondo cósmico, n. Según el modelo del Big Bang, la materia se desacopló de la radiación de fondo (RFC) a una temperatura de aproximadamente 3000 kelvin, que se corresponde con una energía cinética média de .Después de desacoplarse, el número total de fotones de RFC se mantiene constante. Entonces, dada la expansión espacio-temporal, la densidad de fotones decrece.
La densidad de fotones a la temperatura de equilibrio T, por kelvin cúbico y por centímetro cúbico, está dada por , siendo kB la constante de Boltzmann, la constante de Planck dividida por 2 y c la velocidad de la luz en el vacío.En la aproximación numérica en la parte izquierda de la ecuación, se ha usado la convención (unidades naturales), y para T en kelvin, el resultado viene dado en . A la temperatura actual de fotones de RFC de T = 2.73K, le correspondería a una densidad de fotones n en torno a 411 fotones de RFC por centímetro cúbico. Por tanto, el parámetro de asimetría definido más arriba, no es el parámetro más conveniente.
En lugar de éste, se prefiere utilizar como parámetro de asimetría la densidad de entropía s, ya que la densidad de entropía del universo se ha mantenido constante en gran medida a lo largo de su evolución.La densidad de entropía es: siendo p y la presión y densidad del tensor densidad de energía T y g * el número efectivo de grados de libertad para una partícula sin masa (dentro de los límites en los cuales podemos considerar que se cumple que ) a la temperatura de T, , para bosones y fermiones con gi y gj grados de libertad a la temperatura Ti y Tj respectivamente. Hoy en día, s = 7.04n.
Una estimación naive de la asimetría bariónica en el universo Los resultados de observaciones nos dan un valor de aproximadamente igual a 1010 — más precisamente, 2.6 < × 1010 < 6.2.Esto significa que por cada 10 mil millones de parejas de partícula-antipartícula, hay una partícula de más que no tiene una antipartícula con quien aniquilarse y convertirse en radiación de fondo. Este número es muy pequeño, y explicar como obtenerlo es muy complicado: uno está intentando hacer predicciones a escalas muy grandes (estructura a gran escala del cosmos) basándose en leyes de lo muy pequeño (física de partículas). Una idea razonable de como se obtiene este número experimentalmente es la siguiente.
Los informes del Telescopio espacial Hubble sobre el universo observable nos indica que éste contiene aproximadamente 125 mil millones (1.25×1011) de galaxias.Suponiendo que son, en promedio, similares a nuestra propia galaxia, cada una contiene alrededor de 100 mil millones (1011) de estrellas. La masa del Sol, que es una estrella típica, es de aproximadamente 2×1030 kg. Haciendo la estimación de que nuestro sol está compuesto sólo de átomos de hidrógeno, los cuales pesan aproximadamente 1.67×1027 kg, el sol contiene 1.2×1057 átomos. El número total de átomos en el universo observable es entonces aproximadamente 1.5×1079.
El radio del universo observable está alrededor de 16 mil millones de años luz, o 4.4×1026 m. Esto significa que el universo observable es una esfera de 3.6×1080 m3.La densidad de átomos sería entonces de 4.2×102 m3. Por otra parte, la física estadística nos dice que un gas de fotones en equilibrio térmico a la temperatura del fondo cósmico, 2.73 K, tiene una densidad de número de fotones de 4.1×108 m3. La estimación de que resulta es de 1.0×1010. Esta no es una mala aproximación; está solo un poco apartada del rango que se encuentra en la bibliografía. El valor experimental exacto involucra la medida de la concentración de elementos químicos del universo que no resultan de síntesis estelar.
Consideraciones filosóficas Artículo principal: Principio antrópico Es de notar que, si no fuera por la disparidad observada entre bariones y anti-bariones, es cuestionable que realmente existiera materia que permitiera vida capaz de observarla.Este es un argumento común presentado en respuesta a preguntas del tipo "¿Por qué el universo es así? ", conocido como el principio antrópico. En esencia, responde a la pregunta diciendo que en aquellos universos o secciones visibles del cosmos que no tenían condiciones favorables para la vida, no habría surgido vida que se percatara de ello.
Si la asimetría entre bariones y antibariones fuera un requisito esencial para la existencia material de estrellas, planetas y vida, entonces (según el argumento) puede que hayan existido universos o secciones del cosmos en las que no pudo haber surgido vida, hasta que se generara por casualidad una sección con las asimetrías adecuadas donde pudieran existir observadores.Estos observadores se percatarían de las condiciones que permitieron su existencia por muy atípicas que fueran. Algunos científicos utilizan argumentos similares al responder a la pregunta de por qué nuestro planeta es así o por qué existe vida en la Tierra. Véase también Leptón Leptogénesis Simetría CP, violación CP Referencias Artículos 1. P. A. M. Dirac (February de 1928).
"The Quantum Theory of the Electron".Proceedings of the Royal Society of London 117: 610-624. 2. A. D. Sakharov (1967). "Violation of CP invariance, C asymmetry, and baryon asymmetry of the universe". Soviet Physics Journal of Experimental and Theoretical Physics (JETP) 5: 24-27. 3. A. D. Sakharov (1991). "Violation of CP invariance, C asymmetry, and baryon asymmetry of the universe". Soviet Physics Uspekhi 34: 392-393. 4. A. A. Penzias and R. W. Wilson (1965). "A Measurement of Excess Antena Temperature at 4080 Mc/s". Astrophysical Journal 5: 419-421. 5. J. W. Cronin, V. L. Fitch et al (1964). "Evidence for the 2 Decay of the Meson". Physical Review Letters 13: 138-140. Libros de texto E. W. Kolb and M. S. Turner (1994). The Early Universe.
Perseus Publishing. . Enlaces externos A. D. Dolgov (July 1997)."Baryogenesis, 30 years after". arXiv, hep-ph/9707419. A. Riotto (July 1998). "Theories of baryogenesis". arXiv, hep-ph/9807454. Also, CERN preprint CERN-TH/98-204. M. Trodden (March 1998). "Electroweak baryogenesis". arXiv, hep-ph/9803479. Barión lambda Octeto bariónico. El barión lambda (0) está compuesto por un quark arriba, uno abajo y un quark extraño, con los quarks arriba y abajo en un estado de espín isotópico 0 (sabor antisimétrico). La observación del lambda neutro supuso la primera evidencia del quark extraño. El barión lambda casi siempre se desintegra en un protón y un pión con carga, o en un neutrón y un pión neutro.
Véase también Barión Física de partículas Barn El barn (símbolo b) es una unidad de superficie, equivalente a 10-28 m².Sus múltiplos son muy utilizados en física de partículas para medir las secciones eficaces en reacciones nucleares, y sus inversos para medir luminosidades. Un barn es, aproximadamente, el área de un núcleo de uranio. 1 b = 10-28 m² 1 pb = 10-12 barn = 10-36 cm² = 10-40 m² El contenido de este artículo incorpora material de una entrada de la Enciclopedia Libre Universal, publicada en español bajo la licencia GFDL.
Barotropía Estratificación de la presión y la densidad de un fluido barotrópico La barotropía de un fluido es una característica por la cual la densidad del fluido sólo depende de la presión, ya que la temperatura es constante.Esto sucede en la atmósfera terrestre en los trópicos, ya que allí las diferencias de temperatura entre una zona y otra al mismo nivel son pequeñas. Lo contrario de una atmósfera barotrópica es una atmósfera baroclina. Barril (unidad) El barril es el nombre de varias unidades de volumen: Barril de crudo/petróleo: 42 galones estadounidenses; 158,9873 litros;[1] o 34,97231575 galones imperiales.
Barril de cerveza: 31,5 galones, aproximadamente 119,24 litros.Refiriéndose al volumen producido de cerveza. Dependiendo de la densidad del petróleo, la masa de un barril de petróleo está entre 119 kg y 151 kg. Referencias 1. B. N. Taylor. B.8 Factors for Units Listed Alphabetically - Section B (en inglés). Guide for the Use of SI units. NIST. Consultado el 2007-10-18. Batidora Batidora eléctrica Una batidora es un electrodoméstico que nos permite batir alimentos fácilmente, como esponjar alguna mezcla determinada. Funcionamiento Un motor hace girar un eje, ese eje va conectado a una serie engranajes, que se conectan a unos arcos de metal y/o cuchillas.
Al girar estos provocan el movimiento o trituración de la mezcla que se quiere batir o de lo que se quiere incorporar.Suelen tener varias velocidades, controladas electrónicamente mediante un interruptor haciendo la vida mas facil y rapida, permitiendo crear nuevos alimentos uniendo ingredientes. Becquerel El becquerel o becquerelio (símbolo Bq) es una unidad derivada del Sistema Internacional de Unidades que mide la actividad radiactiva. Equivale a una desintegración nuclear por segundo. Se puede calcular derivando N respecto al tiempo (t): siendo N el número de núcleos radiactivos sin desintegrarse, la constante radiactiva, característica de cada isótopo, y A0 la actividad en el instante inicial.
Toma su nombre en honor del físico francés Henri Becquerel .Por otra parte, 3,7·1010 Bq equivalen a 1 curie. Nombre El nombre preferido por los organismos internacionales es becquerelio[1] , pero el Diccionario de la Academia solo registra becquerel. Referencias 1. Electropedia (IEC) Benoît Mandelbrot Benoît Mandelbrot fue uno de los primeros científicos en utilizar los ordenadores para estudiar la fractalidad como en este ejemplo de conjunto de Mandelbrot. Benoît. Mandelbrot (20 de noviembre de 1924) es un matemático conocido por sus trabajos sobre los fractales. Es el principal responsable del auge de este dominio de las matemáticas desde el inicio de los años ochenta, y del interés creciente del público.
En efecto supo utilizar la herramienta que se estaba popularizando en ésta época - el ordenador - para trazar los más conocidos ejemplos de geometría fractal: el conjunto de Mandelbrot por supuesto, así como los conjuntos de Julia descubiertos por Gaston Julia quien inventó las matémáticas de los fractales, desarrollados luego por Mandelbrot.Contenido 1 Biografía 2 Logros científicos 3 Honores y premios 4 Enlaces externos Biografía Benoît Mandelbrot durante su nombramiento como miembro de la legión de Honor. Nació el 20 de noviembre de 1924 en Varsovia, Polonia dentro de una familia judía culta de origen lituano. Fue introducido al mundo de las matemáticas desde pequeño gracias a sus dos tíos.
Cuando su familia emigra a Francia en 1936 su tío Szolem Mandelbrot, profesor de matemáticas en el Collège de France y sucesor de Hadamardost en este puesto, toma responsabilidad de su educación.Después de realizar sus estudio en la Universidad de Lyon ingresó a la “ École Polytechnique”, a temprana edad, en 1944 bajo la dirección de Paul Lévy quien también lo influyó fuertemente. Se doctoró en matemáticas por la Universidad de París en el año 1952. En 1967 publicó en Science ¿Cuánto mide la costa de Gran Bretaña?, donde se exponen sus ideas tempranas sobre los fractales. Fue profesor de economía en la Universidad Harvard, ingeniería en Yale, fisiología en el Colegio Albert Einstein de Medicina, y matemáticas en París y Ginebra.
Desde 1958 trabajó en IBM en el Centro de Investigaciones Thomas B. Watson en Nueva York.Logros científicos Principal creador de la Geometría Fractal, al referirse al impacto de esta disciplina en la concepción e interpretación de los objetos que se encuentran en la naturaleza. En 1982 publicó su libro Fractal Geometry of Nature en el que explicaba sus investigaciones en este campo. La geometría fractal se distingue por una aproximación más abstracta a la dimensión de la que caracteriza a la geometría convencional. El profesor Mandelbrot se interesa por cuestiones que nunca antes habían preocupado a los científicos, como los patrones por los que se rigen la rugosidad o las grietas y fracturas en la naturaleza.
Mandelbrot sostiene que los fractales, en muchos aspectos, son más naturales, y por tanto mejor comprendidos intuitivamente por el hombre, que los objetos basados en la geometría euclidiana, que han sido suavizados artificialmente.Las nubes no son esferas, las montañas no son conos, los litorales no son circulares, y los ladridos no son suaves, lo mismo que los relámpagos no viajan en línea recta. De Introduction to The Fractal Geometry of Nature Honores y premios En 1985 recibió el premio "Barnard Medal for Meritorious Service to Science". En los años siguientes recibió la " Franklin Medal". En 1987 fue galardonado con el premio " Alexander von Humboldt"; también recibió la "Medalla Steindal" en 1988 y muchos otros premios, incluyendo la "Medalla Nevada" en 1991.
Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Benoît Mandelbrot.Commons Wikiquote Wikiquote alberga frases célebres de Benoît Mandelbrot.Entrevista de Eduard Punset a Benoît Mandelbrot. Página web B.Mandelbrot en Yale. (en inglés) Ben Roy Mottelson Ben Roy Mottelson (Chicago, EUA 1926) es un físico danés, de origen estadounidense, galardonado con el Premio Nobel de Física del año 1975. Nació el 9 de julio de 1926 en la ciudad de Chicago, ciudad localizada en el estado norteamericano de Illinois. Estudió física en la Universidad de Purdue en 1947 y se doctoró en la Universidad de Harvard en 1950.
En 1948 inició sus colaboraciones en el Instituto Niels Bohr de Dinamarca, al lado de Aage Niels Bohr y Leo James Rainwater, alrededor de la estructura del núcleo atómico cosa que les permitió describir la mecánica cuántica del nucleón.En 1971 consiguió la ciudadanía danesa, y en 1975 fue galardonado con el prestigioso Premio Nobel de Física, junto con sus colaboradores, por su búsqueda en la descripción cuántica de los nucleones.
Enlaces externos Página web del Instituto Nobel, Premio Nobel de Física 1975 (en inglés) Bertram Neville Brockhouse Bertram Neville Brockhouse, CC, Ph.D, D.Sc, FRSC (15 de julio, 1918 – 13 de octubre, 2003), fue un físico canadiense ganador del Premio Nobel de Física Brockhouse nació en Lethbridge Alberta, y se graduó en la Universidad of British Columbia (BA, 1947) y la Universidad de Toronto (MA, 1948; Ph.D, 1950).Desde 1950 a 1962 el estuvo en la investigaciónAtomic Energy of Canada's Chalk River Nuclear Laboratory. In 1962, se convirtió en profesor de la McMaster University en Canada, hasta su retiro en 1984. El compartió en 1994 el Premio Nobel de Física con el físico americano Clifford Glenwood Shull por el desarrollo de las técnicas de neutron scattering para el estudio de la Física de la materia condensada.
En 1982 fue nombrado caballero por la Orden de Canada.Enlaces externos science.ca profile Bertram Brockhouse Nobel site Order of Canadá Citation Bertrand I. Halperin Bertrand I. Halperin (Brooklyn 6 de diciembre de 1941) es un Profesor Hollis de Matemáticas y Filosofía Natural del Departamento de física de la Universidad Harvard. Creció en Crown Heights, Brooklyn. Ingresó en la Universidad Harvard (clase de 1961), y realizó su trabajo de graduación en la Berkeley con John J. Hopfield (PhD 1965). En los años 70s, junto con David R. Nelson, trabajó elaborando una teoría de fusión de dos dimensiones, la predicción de la Fase hexágonal antes de que fuera observado experimentalmente por Pindak et al. En la década de 1980, hizo contribuciones seminales a la teoría del Efecto Hall cuántico Integral y Fraccional.
Su reciente interés se encuentran en la zona de fuerte interacción de electrones bajo dimensional.En 2001, recibió el Premio Lars Onsager. En 2003, el y Anthony J. Leggett fueron galardonados con el Premio Wolf en física.
Enlaces externos Harvard University faculty page (en inglés) Wolf Prize page (en inglés) Big Freeze El Big Freeze ("Gran Frío"), también conocido cómo Big Whimper ("Gran Gemido") es una teoría física sobre el futuro del Universo, en la que se supone éste se seguirá expandiendo eternamente -asume, por tanto, un universo abierto- y está marcada por el triunfo de la segunda ley de la termodinámica, con la consecución final de prácticamente todos los procesos físicos que puedan darse y posiblemente acabando con la muerte térmica del Universo.Ya que los estudios recientes muestran que el Universo es abierto, es de acuerdo con bastantes astrónomos el futuro que le espera.
Se ha intentado modelizar la evolución futura del Universo en éste escenario, detallándose a continuación lo que le espera a éste en ése posible futuro; es importante tener en cuenta que los eventos y eras que se describen a continuación están basadas en diversos modelos y teorías y tienen una duración solamente aproximadas (y sobre todo que las fechas dadas están escritas en notación científica, la cual no transmite adecuadamente lo que significan las cantidades aquí mencionadas).
Asimismo, hay que tener en cuenta que descubrimientos o teorías futuras pueden cambiar algunas de los sucesos aquí descritos, cómo por ejemplo, la posibilidad de un Big Rip -que se daría mucho antes de que se produjeran muchos de los fenómenos aquí descritos- o la de que el Universo sufra una transición de fase hacia un vacío verdadero mediante efecto túnel, interrumpiéndose así de manera súbita su evolución -e incluso la posibilidad de un futuro colapso-.Dejada ya atrás hace mucho la era de la radiación que tuvo lugar poco después del Big Bang, y en la que la energía dominó sobre la materia, las diferentes eras por las que pasará el universo son las siguientes: Galaxia elíptica M87.
En un futuro lejano, todas las galaxias del Grupo Local se habrán fundido en una galaxia parecida a ésta.Contenido 1 Era estelífera 2 Era degenerada 3 Era de los agujeros negros 4 Era oscura 5 Vida en el futuro del universo 6 Véase también 7 Referencias Era estelífera Ésta era se caracteriza por ser las estrellas los objetos dominantes del Cosmos. Gran parte de la energía generada en el universo es debido a los procesos nucleares que tienen lugar en su evolución, y sin duda es la era en la que más fenómenos interesantes ocurrirán. Es la era en la que nosotros nos hallamos.
Su inicio fue 1 millón de años después del Big Bang, con la formación de las primeras estrellas y durará hasta dentro de 100 billones de años (1014) en el futuro, cuando dejarán de formarse estrellas, al menos a partir del gas interestelar, y todas ellas se habrán apagado.El futuro en ésta era estará marcado por el progresivo agotamiento del gas interestelar, y con él una progresiva disminución de la formación estelar, disminuyendo las estrellas que se forman y aumentando la proporción de cadáveres estelares -enanas blancas, estrellas de neutrones, y agujeros negros-.
Asimismo, la metalicidad del gas interestelar irá aumentando y ello tendrá profundas consecuencias en la evolución estelar, disminuyendo la masa máxima que puede tener una estrella y permitiendo la existencia de estrellas aún menos masivas que las más ligeras de las existentes actualmente y de mucha mayor vida, pero por otro lado disminuyendo significativamente la vida de los astros que se formen por entonces -aunque aun así, ésas estrellas congeladas cómo han sido llamadas debido a la bajísima temperatura superficial que tendrían -comparable a la existente hoy en la superficie terrestre- vivirían mucho más tiempo que las estrellas menos masivas existentes hoy-.
Llegará un momento en el que las únicas estrellas de la secuencia principal que queden sean las enanas rojas.Durante su evolución, hay una época en la que éstos astros tienen una luminosidad similar a la del Sol actual, por lo que gracias a ello incluso dentro de un billón de años (1012) las galaxias tendrán luminosidades comparables a las actuales, pero posteriormente la evolución estelar y primero la muerte de dichas estrellas y luego la extinción de las enanas blancas hará que las tinieblas las acaben envolviendo y extinguiendo, lenta pero progresiva e irremediablemente. Otros fenómenos de consecuencias mucho más cercanas ocurrirán en ésta era.
En particular, la Tierra será destruida por la evolución futura del Sol durante su fase de gigante roja y no escapará a éste destino tal y cómo se proponía.Más o menos en la misma época en la que ocurrirá esto, es muy probable que Andrómeda y nuestra galaxia colisionen, formando una galaxia elíptica que ha sido bautizada por algunos autores cómo Milkómeda, y aunque ello no ocurriera por entonces eventualmente todo el Grupo Local acabará por condensarse en una única galaxia gigante. La aceleración de la expansión del Universo tendrá consecuencias muy importantes en el futuro, provocando que el Grupo Local no sea absorbido por el Cúmulo de Virgo.
Sin embargo, la consecuencia más dramática será el aislamiento de las galaxias y los cúmulos de galaxias formando auténticos "universos isla".El Cúmulo de Virgo dejará de ser visible para "nosotros" dentro de apenas 1,32×1011 años, pareciendo -al igual que el resto de objetos exteriores a nuestro Grupo Local- su imagen estar "congelada" en el tiempo y enrojeciendo permanentemente ( desplazamiento infinito al rojo, el mismo fenómeno que apreciaría un observador cercano a un agujero negro en un objeto que cayera en él).
Llegará un tiempo -dentro de 1,26×1012 años, mucho antes de que se apaguen las estrellas- en el que la única galaxia visible será el resultado de la fusión de todas las galaxias del Grupo Local.Es muy interesante observar que en ésta lejana época, será prácticamente imposible -si no imposible- determinar el origen del universo.
Los pilares básicos que determinan la teoría del Big Bang (radiación de fondo, existencia de galaxias exteriores a la nuestra en las que se pueda apreciar la expansión del universo, y la nucleosíntesis primordial) habrán desaparecido, respectivamente debido a la aceleración del universo -que hará indetectable (o al menos irreconocible) el fondo de radiación cósmica y hará invisible ésas otras galaxias- y a la evolución estelar que habrá acabado con las abundancias originales de deuterio, con lo que se llegará al fin de la cosmología cómo ciencia; si bien observadores hipotéticos que existieran por entonces podrían saber que su "universo isla" tiene una edad finita y que su fin último es -cómo se detalla abajo- colapsar en un gran agujero negro, sería muy difícil para ellos deducir la teoría antes mencionada, o, naturalmente, la existencia de otros objetos cómo el suyo.
[1] Esto es lo que vería el ojo humano durante la mayor parte del futuro descrito aquí.Era degenerada En esta era los objetos dominantes serán los restos densos, inertes, y fríos que durante la era estelífera fueron estrellas, estimándose que durará entre 1014 años y al menos 1032 años (dependiendo de cuando se desintegren los protones). Será un universo prácticamente oscuro para un órgano como el ojo humano, pero radiará en otras longitudes de onda.
La evolución galáctica por entonces estará dominada por la interacción gravitatoria entre dichos objetos y los efectos causados por ellas como relajación dinámica, disminución de las órbitas debido a la emisión de ondas gravitatorias, y finalmente aquellos causados por la aproximación de dichos objetos, que provocará por un lado que las galaxias muestren una distribución de masas cada vez más heterogénea, con una pequeña parte (apenas un 1%) de la masa concentrada en un volumen cada vez más pequeño en su centro -hasta acabar por formarse un agujero negro gigantesco-, y el resto de ella dispersa en un amplio volumen de espacio, o incluso expulsada de la galaxia ("evaporación galáctica").
Seguirán formándose estrellas gracias a colisiones estelares, aunque a un ritmo muy lento (aun así, se formarán bastantes astros gracias a ése sistema, por lo que durante al menos parte de ésta era una galaxia contendrá alrededor de 100 estrellas).
Muy de vez en cuando, dos enanas marrones pueden colisionar, formando una nueva estrella; una enana roja que brillará 25 billones (2,5×1013) de años antes de convertirse en una enana blanca -constituyendo este proceso una manera de que nazcan estrellas, incluso cuando la formación estelar normal haya cesado mucho antes y que durará bastante tiempo, formando relativamente muchas estrellas (se ha estimado que durante esta época la galaxia que mucho antes fue el Grupo Local contendrá alrededor de 100 estrellas que consigan su energía gracias a la fusión del hidrógeno, nacidas gracias a ésas colisiones)-, al igual que dos enanas blancas (mejor dicho, enanas negras) formando una nueva enana blanca.
Otros objetos mucho más exóticos que podrán formarse por este proceso -mediante la colisión de enanas blancas si se dan las condiciones adecuadas- son estrellas que fusionen helio o carbono en vez de hidrógeno (aunque su esperanza de vida será mucho menor que una estrella que fusione hidrógeno, respectivamente de unos cientos de millones de años y de un millón de años) además de supernovas de tipo I si la masa total de las dos estrellas supera el límite de Chandrasekhar, o incluso un GRB si colisionan dos estrellas de neutrones; en una galaxia oscura y empobrecida estos fenómenos -ya impresionantes hoyserán realmente espectaculares.
Ésos fenómenos ocurrirán sobre todo en la parte central de las galaxias, e incluso tras la formación del mencionado agujero negro al destruir y absorber éste el resto de cadáveres estelares cercanos que no se hayan fusionado con él -brillando cómo un quasar durante mil millones de años antes de que la oscuridad y el frío vuelvan a envolverlo todo-.Ésos fenómenos se producirán también a escala supergaláctica, convirtiendo cada cúmulo de galaxias en un enorme agujero negro formado por la fusión de aquellos agujeros negros que antes fueron galaxias individuales y rodeado por un halo compuesto por aquellos cuerpos que han conseguido escapar.
Las interacciones gravitatorias y la contracción orbital debida a la emisión de energía en la forma de ondas gravitatorias ya mencionadas también acabarán por destruir los sistemas planetarios que puedan existir por aquel entonces, disrompiendo sus órbitas y conviertiendo a los planetas en vagabundos sin rumbo a través de la oscuridad, o provocando que acaben por chocar con los cuerpos que orbitan; parece que únicamente los que orbiten enanas rojas -que no experimentan la fase de gigante roja-, cómo por ejemplo los de Gliese 876, son los que sufrirán este último destino.
Asimismo, si la materia oscura presente en los halos galácticos está compuesta por partículas como los WIMPs, dichas partículas acabarán por desaparecer vía aniquilación debida a colisiones entre ellos o debido a la captura por remanentes estelares.En este último caso, el efecto será la disminución de la masa de la galaxia -y una consecuente expansión de ella-, y que dichos remanentes estén más calientes de lo que cabría esperar, con una temperatura de apenas 5 grados sobre el cero absoluto. Mucho más adelante, se producirá la desintegración de los protones y por tanto de la materia, un fenónemo predicho por las Teorías de la Gran Unificación.
Éste fenómeno aún no ha sido observado experimentalmente, pero parece claro que acabará por producirse tarde ó temprano, incluso si las teorías antes mencionadas resultan ser incorrectas; las estimaciones de éste fenómeno varían entre 1032 y 1041 años en el primer caso y un intervalo mucho mayor en el segundo, que puede llegar a 10200 años.
En cualquier caso, el resultado de la desintegración de los protones es la producción de rayos gamma, y quizás electrones y positrones que consigan sobrevivir a la aniquilación mutua entre ellos al decaer dicha partícula así cómo unos pocos neutrinos, e incluso reacciones nucleares -aunque de producción de energía mucho menor comparada a la desintegración de los protones, ya de por sí bajísima (de apenas del orden de 400 vatios)- (los neutrones fuera de los núcleos atómicos ó de las estrellas de neutrones son inestables y se desintegran en apenas 15 minutos).Al ir disminuyendo la masa, las enanas blancas irán expandiéndose y llegará un momento en el cual sus masas serán insuficientes para seguir estando su materia en estado degenerado.
Más adelante, ésos objetos acabarán por dejar de ser estrellas, pasando a ser cuerpos del tamaño de una roca mantenidos por fuerzas de Coulomb -las que mantienen cuerpos cómo planetas, etcétera- hasta acabar por desaparecer.Las estrellas de neutrones evolucionarán de modo similar debido a la presencia de materia ordinaria en su corteza exterior, perdiendo progresivamente su degeneración y primero convirtiéndose en objetos parecido a las enanas blancas y en adelante siguiendo una evolución similar a la de dichos cuerpos.
Finalmente, los planetas y otros cuerpos menores sufrirán también una desintegración parecida, descomponiéndose primero sus átomos constituyentes en elementos cada vez más simples hasta llegar al hidrógeno y luego desintegrarse.A los 1038 años en el futuro, toda la materia habrá desaparecido y sólo quedarán agujeros negros. Ha habido también especulaciones sobre lo que ocurriría si los protones fueran absolutamente estables y no se desintegraran de los modos antes comentados.
El efecto túnel, que hace que no se pueda calcular con total precisión la posición de un átomo, se encargaría de que dentro de 1065 años los diamantes acabaran reducidos a esferas, así cómo de hacer que los sólidos se comportaran cómo si fueran líquidos (de modo que un pedazo de roca ó un diamente quedaría reducido a una esfera), e incluso provocar reacciones de fusión nuclear (una especie de fusión fría a temperatura ambiente) -pero extraordinariamente lentas- que harían que dentro de 101500 años prácticamente toda la materia -excepto las estrellas de neutrones- acabaría convertida en hierro (el elemento más estable de la naturaleza), después en neutrones, y mucho después -dentro de entre (1 seguido de 1026 ceros) y (1 seguido de 1076 ceros) años-, casi toda ella (incluyendo las estrellas de neutrones ésta vez) habría colapsado formando agujeros negros; lo único que no acabaría bajo ésa forma serían minúsculas partículas de polvo de hierro.