text
stringlengths
35
3.53k
Llega un punto en que sus velocidades son tan grandes que el protón de un núcleo de hidrógeno logra vencer la repulsión eléctrica del núcleo en el que impacta, fusionándose con él y otros más hasta formar un núcleo estable de helio.Una estrella desde su nacimiento tiene diferentes fases de evolución. En sus primeras etapas como embrión es rodeada por los restos de la nube de gas desde la cual se formó. Esa nube de gas es gradualmente disipada por la radiación que emana de la estrella, posiblemente quedando atrás un sistema de objetos menores como planetas, etc.
Pasada la etapa de la infancia, una estrella entra a su madurez, que se caracteriza por un período largo de estabilidad en el cual el hidrógeno que almacena en su núcleo se va convirtiendo en helio, liberando enormes cantidades de energía.A esa etapa de estabilidad y madurez de la estrella se le llama secuencia principal. Las características de la estrella resultante dependerán de la magnitud de su masa. Cuanto más masiva sea la estrella, mayor será su luminosidad y con mayor velocidad agotará el hidrógeno de su núcleo, lo que la hará más nítida, más grande y más caliente. La transmutación rápida de hidrógeno en helio también implica un agotamiento de las reservas del primero más pronto en estrellas masivas que para las de menor tamaño.
Para una estrella como el Sol su permanencia en la secuencia principal dura aproximadamente 10 mil millones de años; una estrella diez veces más masiva será 10.000 veces más nítida pero durará en la secuencia principal 100 millones de años.Cuando todo el hidrógeno del núcleo de la estrella se haya convertido en helio, ésta comenzará su desarrollo. La fusión del helio requiere una mayor temperatura en el núcleo, por lo que la estrella incrementará tanto su tamaño como la densidad de su núcleo. Evolución y muerte de una estrella No todas las estrellas evolucionan del mismo modo. La masa de la estrella es, de nuevo, determinante a la hora de hacer un estudio sobre las distintas fases que experimenta a lo largo de su vida.
Estrellas de masa pequeña Este tipo de estrellas tienen una vida larga.Nuestro conocimiento sobre su evolución es mera teoría, ya que su etapa en la secuencia principal tiene mayor duración que la actual edad del universo. Los astrofísicos consideran que deberían tener una evolución muy parecida a las estrellas de masa intermedia, a excepción de que en la fase final la estrella se enfriaría convirtiéndose tras un billón de años en una enana negra. Estrellas de masa intermedia Nuestro Sol se encuentra dentro de esta división.
Son estrellas que durante la fase de la secuencia principal transmutan hidrógeno en helio en su núcleo central, pero el primero, en millones de años, se va agotando hasta llegar a un instante en que las fusiones son insuficientes para generar las presiones necesarias para equilibrar la gravedad.Así, el centro de la estrella se empieza a contraer hasta que llega a una temperatura tan elevada que el helio entra en fusión y convierte en carbono. El remanente de hidrógeno se aloja como una cáscara quemándose y transmutándose en helio y las capas exteriores de la estrella se expanden. Esa expansión convierte a la estrella en una gigante roja más brillante y fría que en su etapa en la secuencia principal.
Ciclo vital del Sol Durante esta fase, una estrella pierde muchas de sus capas exteriores las cuales son eyectadas hacia el espacio por la radiación que emana.Eventualmente, las estrellas más masivas de este tipo logran encender el carbono para que se transmute en elementos más pesados, pero lo normal es que la estrella se derrumbe hacia su interior debido a la presión de la gravedad transformándose en una enana blanca. Estrellas de masa mayor y estrellas masivas Son estrellas de rápida combustión. La corta extensión de sus vidas hace extrañas a las grandes estrellas, pues sólo aquellas formadas en los últimos 30 millones de años -y no todas ellas- existen todavía.
Al principio pasan rápidamente a través de casi las mismas fases que una estrella de masa intermedia, pero las estrellas masivas tienen núcleos tan calientes que transmutan hidrógeno en helio de una manera diferente, usando restos de carbono, nitrógeno y oxígeno.Una vez que la estrella haya agotado el hidrógeno en el núcleo y alojado el remanente de éste como cáscaras, entra a una fase que se conoce como de supergigante roja. Cuando sus núcleos se hayan convertido en helio, la enorme gravedad de las estrellas permite continuar la fusión, convirtiendo el helio en carbono, el carbono en neón, el neón en oxígeno, el oxígeno en silicio, y finalmente el silicio en hierro.
Llegado a este punto, como el hierro no se fusiona, el núcleo de la estrella se colapsa, resultando de ello una explosión de supernova.Imagen del Hubble de la Supernova 1994D(SN1994D)en la galaxia NGC 4526 Se piensa que los restos de una supernova son generalmente una estrella de neutrones. Un púlsar en el centro de la Nebulosa del Cangrejo hoy se identifica con el núcleo de la supernova de 1054. En el caso de que la masa persistente de la estrella es de dos a tres veces la del Sol, la contracción continuará hasta formar un agujero negro. Las estrellas binarias pueden seguir modelos de evolución mucho más complejos, podrían transferir parte de su masa a su compañera y generar una supernova.
Las nebulosas planetarias y las supernovas son muy necesarias para la distribución de metales a través del espacio, sin ellas, todas las nuevas estrellas (y sus sistemas planetarios) estarían formados exclusivamente de hidrógeno y helio.Referencias (en inglés) Este artículo ha sido parcialmente construido a partir de una traducción del artículo de la Wikipedia en inglés: Stellar astronomy A horcajadas en el tiempo - Astrocosmo.com Astrofotografía La Luna tomada a 1/250 de segundo, f/11 con una distancia focal de 800mm La astrofotografía es un tipo especializado de fotografía que consiste en la captación fotográfica de las imágenes de los cuerpos celestes.
El empleo de la fotografía en la astronomía supone una serie de ventajas respecto a la observación directa, por cuanto que la emulsión fotográfica, expuesta por un tiempo suficientemente largo, viene impresionada también de radiaciones visibles de intensidad demasiado débil para poder ser percibidas por el ojo humano, incluso con la ayuda de potentes telescopios.Además el uso de emulsiones particularmente sensibilizadas permite el estudio de los cuerpos celestes que emiten radiaciones comprendidas en zonas del espectro luminosos a las cuales el ojo humano no es sensible. A menudo son usados también sistemas digitales, basados sobre CCD o CMOS, enfriados a bajísimas temperaturas para disminuir el ruido electrónico.
Gracias al uso de filtros interferenciales, es también posible obtener fotografías sólo a la luz de algunas líneas espectrales, obteniendo por consiguiente informaciones sobre la composición de su fuente de luz.Para la práctica de la astrofotografía, pueden emplearse cámaras digitales compactas de calidad y costo accesible, cuyas calidad de ópticas y opciones de configuración en los tiempos de exposición, sensibilidad, abertura y foco, permitan la obtención de imágenes más que aceptables. Enlaces externos [1] Pagina de Ferran Bosch FotografiaAstronomica.com Foro de astrofotografía y ciencias afines (en español) Espacio Profundo Toda la información sobre Astronomía en español.
Cofradía Astronómica Cuyum Grupo de Mendoza, Argentina aficionados a la Astronomía, Astrofotografía y Bricolaje Astronómico.Buenos Aires Skies Página bilingüe de Sergio Eguivar desde Buenos Aires, Argentina mostrando los cielos del Hemisferio Sur. Observatorio Astronómico Peumayen Astronomía y astrofotografía aficionada del hemisferio sur. Astronomía de neutrinos La astronomía de neutrinos es la ciencia de observar fenómenos astronómicos detectando neutrinos. Estos neutrinos son un producto de las reacciones termonucleares débiles que tienen lugar en el interior de cada estrella. Este tipo de astronomía está aún en su infancia - las únicas fuentes extraterrestres detectadas hasta ahora y que han sido confirmadas son el sol y la supernova SN1987A.
Contenido 1 Retos para la observación 2 Diseño del detector 3 Detectores usados 3.1 Super-Kamiokande 3.2 AMANDA 3.3 IceCube 3.4 SNO, Kamland, Baikal, Antares, ANITA, Nemo, Nestor, Auger, GLUE 4 Enlaces externos Retos para la observación Los neutrinos interaccionan muy raramente con la materia.El flujo enorme de neutrinos solares que pasan a través de la Tierra solo es suficiente para producir una interacción por cada 1036 átomos, y cada interacción produce solamente algunos fotones o la transmutación de un elemento. Para observar las interacciones de los neutrinos se necesita pues una masa grande para el detector, así como un sistema muy sensible para la amplificación de la luz producida.
Dado que la señal es muy débil, las fuentes de ruido de fondo se deben reducir todo lo posible.Las fuentes principales del ruido en el detector son las cascadas de partículas elementales producidas por los rayos cósmicos que colisionan con la atmósfera, y las partículas producidas por decaimiento radiactivo. Para reducir la cantidad de rayos cósmicos, los detectores se deben blindar por una masa grande protectora, por lo que son construidos en subterráneos profundos, o bajo el agua. Las fuentes de isótopos radiactivos también deben controlarse pues producen partículas enérgias cuando decaen. Para producir cualquier clase de imagen, el detector debe proporcionar la información sobre el flujo de neutrinos y la dirección de su recorrido.
Aunque existen varios métodos de detectar los neutrinos, la mayoría no proporciona información direccional, y los que lo hacen, tienen una resolución angular pobre.Para mejorar la resolución angular, debe usarse un arsenal grande de detectores de neutrinos. Diseño del detector El diseño del detector consiste en una masa grande de agua o hielo, rodeada por un arsenal de detectores ligeros sensibles conocidos como tubos fotomultiplicadores. Este diseño se aprovecha del hecho que las partículas producidas en la interacción del neutrino entrante con un núcleo atómico viajan típicamente más rápidamente que la velocidad de la luz en el medio del detector (por supuesto, viajan más lentamente que la velocidad de la luz en un vacío).
Esto genera una “onda de choque óptica” conocida como radiación de Cherenkov que se puede detectar por los tubos de fotomultiplicadores.Detectores usados Super-Kamiokande El detector de neutrinos Super-Kamiokande utiliza 50.000 toneladas de agua pura rodeadas por 11.000 tubos de fotomultiplicadores enterrados bajo 1 kilómetro de profundidad. Puede detectar la dirección incidente de los neutrinos entrantes detectando que fotomultiplicadores se encienden. Kamiokande, el precursor del Super-Kamokande, podía detectar la explosión de neutrinos asociados a la supernova 1987A, y en 1988 fue utilizado para confirmar directamente la producción de neutrinos solares.
AMANDA El conjunto antártico de detectores de muones y neutrinos (conocido como AMANDA por sus siglas en inglés) funcionó entre 1996 y 2004.Este detector utilizó tubos de fotomultiplicadores montados en cuerdas enterradas profundamente (entre 1.5-2km) dentro del hielo glacial en el polo sur en la Antártida. El hielo mismo se utiliza como la masa del detector. La dirección de los neutrinos incidentes se determinan registrando el momento de llegada de fotones individuales usando un arsenal tridimensional de módulos en el detector que contienen cada uno un tubo fotomultiplicador. Este método permite la detección de neutrinos sobre 50GeV con una resolución espacial de aproximadamente 2 grados.
Se ha utilizado AMANDA para generar mapas de neutrinos del cielo norteño para buscar para las fuentes extraterrestres de neutrinos y en las búsquedas de la materia oscura.IceCube Desde el 2005, AMANDA está siendo actualizado al observatorio de IceCube, aumentando eventualmente el volumen del detector a un kilómetro cúbico. SNO, Kamland, Baikal, Antares, ANITA, Nemo, Nestor, Auger, GLUE Otros detectores que también realizan experimentos con neutrinos. Enlaces externos Superkamiokande AMANDA, un telescopio de neutrinos en la Antártida. Fotos de Amanda IceCube SNO KamLAND Baikal Antares Nestor Nemo ANITA Astronomía extragaláctica Representación de galaxias en colisión Se llama astronomía extragaláctica al estudio de objetos fuera de la Vía Láctea.
La astronomía extragaláctica nació como tal cuando Edwin Hubble descubrió las Cefeidas en la nebulosa de Andrómeda , confirmando que por su distancia debía estar fuera de nuestra galaxia y que por su tamaño debería ser una galaxia comparable o incluso más grande que la nuestra.Más tarde se encontró que las galaxias no se encuentran aisladas, sino formando grupos de diferentes tamaños. Además, existe una organización jerárquica donde agrupaciones más pequeñas forman parte de agrupaciones mayores. Véase también: Objeto astronómico Agrupaciones galácticas Estructura a gran escala del universo Astronomía galáctica Se denomina astronomía galáctica a la investigación astronómica de nuestra galaxia, la Vía Láctea.
La diferencia entre astronomía galáctica y astronomía extragaláctica sólo se empezó a hacer a principios del siglo pasado, cuando las observaciones de Edwin Hubble mostraron sin lugar a dudas que la nebulosa de Andrómeda era una galaxia similar a la nuestra, y a una considerable distancia de ella.Los objetos de interés en nuestra galaxia son muchos, incluyendo estrellas, nubes interestelares, que es donde la formación estelar se realiza; nuestro centro galáctico, que estamos casi seguros posee un agujero negro, etc. Véase también Galaxia Atmósfera (unidad) La unidad de presión denominada atmósfera equivale a la presión de la atmósfera terrestre sobre el nivel del mar.
Es utilizada para medir presiones elevadas como la de los gases comprimidos.[1] Contenido 1 Equivalencias aproximadas 2 Véase también 3 Bibliografía 3.1 Notas 4 Enlaces externos Equivalencias aproximadas 1 atmósfera = 760 torr 1 atmósfera = 10 m.c.a.
(metros de columna de agua) 1 atmósfera = 14,695964 PSI 1 atmósfera = 1,01325 bar 1 atmósfera = 101 325 Pa 1 atmósfera = 101,325 kPa 1 atmósfera = 1013,25 hPa Es esencial distinguir entre atmósferas absolutas (usualmente abreviadas ATA), en las que se tiene en cuenta la presión atmosférica, y las atmósferas manométricas o relativas (usualmente abreviadas AT) que se refieren a la sobrepresión a partir de la presión atmosférica, empleándose también unidades de vacío o depresión.Así, 2 AT = (2+1) ATA = 3 ATA. El vacío absoluto correspondería a -1 AT o a 0 ATA.
Los gráficos presión entalpía de los refrigerantes se prestan a equívoco, ya que la presión suele estar expresada en bares absolutos, mientras que los manómetros utilizados lo están en bares relativos, empleándose la misma palabra bar para definir ambos, con lo que las presiones leída y teórica no coinciden.Este problema se soluciona mediante el uso de las palabras 'bara' o 'bar(a)' para presiones absolutas y 'barg' o 'bar(g)' (bar 'gauge') para relativas. Véase también Metrología Sistema Internacional de Unidades Sistema Anglosajón de Unidades Sistema cegesimal Bibliografía Notas 1.
Antônio Máximo, Beatriz Alvarenga, Física General, México D.F., 2004 Enlaces externos Conversión de Atmósfera en otras unidades Átomo Representación de un átomo de helio.En química y física, átomo (del latín atomus, y éste del griego , indivisible) es la unidad más pequeña de un elemento químico que mantiene su identidad o sus propiedades y que no es posible dividir mediante procesos químicos. El concepto de átomo como bloque básico e indivisible que compone la materia del universo ya fue postulado por la escuela atomista en la Antigua Grecia. Sin embargo, su existencia no quedó demostrada hasta el siglo XIX.
Con el desarrollo de la física nuclear en el siglo XX se comprobó que el átomo puede subdividirse en partículas más pequeñas.
Contenido 1 Estructura atómica 1.1 El núcleo atómico 1.2 Interacciones eléctricas entre protones y electrones 1.3 Nube electrónica 1.4 Dimensiones atómicas 2 Historia de la teoría atómica 3 Evolución del modelo atómico 3.1 Modelo de Dalton 3.2 Modelo de Thomson 3.2.1 Detalles del modelo atómico 3.3 Modelo de Rutherford 3.4 Modelo de Bohr 3.5 Modelo de Schrödinger: modelo actual 4 Referencias 5 Véase también 6 Enlaces externos Estructura atómica La teoría aceptada hoy es que el átomo se compone de un núcleo de carga positiva formado por protones y neutrones, en conjunto conocidos como nucleón, alrededor del cual se encuentra una nube de electrones de carga negativa.
El núcleo atómico El núcleo del átomo se encuentra formado por nucleones, los cuales pueden ser de dos clases: Protones: Partícula de carga eléctrica positiva igual a una carga elemental, y 1,67262 × 10–27 kg y una masa 1837 veces mayor que la del electrón Neutrones: Partículas carentes de carga eléctrica y una masa un poco mayor que la del protón (1,67493 × 10–27 kg) El núcleo más sencillo es el del hidrógeno, formado únicamente por un protón.El núcleo del siguiente elemento en la tabla periódica, el helio, se encuentra formado por dos protones y dos neutrones.
La cantidad de protones contenidas en el núcleo del átomo se conoce como número atómico, el cual se representa por la letra Z y se escribe en la parte inferior izquierda del símbolo químico.Es el que distingue a un elemento químico de otro. Según lo descrito anteriormente, el número atómico del hidrógeno es 1 (1H), y el del helio, 2 (2He). La cantidad total de nucleones que contiene un átomo se conoce como número másico, representado por la letra A y escrito en la parte superior izquierda del símbolo químico. Para los ejemplos dados anteriormente, el número másico del hidrógeno es 1(1H), y el del helio, 4(4He).
Existen también átomos que tienen el mismo número atómico, pero diferente número másico, los cuales se conocen como isótopos.Por ejemplo, existen tres isótopos naturales del hidrógeno, el protio (1H), el deuterio (2H) y el tritio (3H). Todos poseen las mismas propiedades químicas del hidrógeno, y pueden ser diferenciados únicamente por ciertas propiedades físicas. Otros términos menos utilizados relacionados con la estructura nuclear son los isótonos, que son átomos con el mismo número de neutrones. Los isóbaros son átomos que tienen el mismo número másico.
Debido a que los protones tienen cargas positivas se deberían repeler entre sí, sin embargo, el núcleo del átomo mantiene su cohesión debido a la existencia de otra fuerza de mayor magnitud, aunque de menor alcance conocida como la interacción nuclear fuerte.Interacciones eléctricas entre protones y electrones Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de Thomson, situación que varió después de la experiencia de Rutherford. Los modelos posteriores se basan en una estructura de los átomos con una masa central cargada positivamente rodeada de una nube de carga negativa. [1] Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se moverían alrededor del núcleo en órbitas.
Este modelo tiene una dificultad proveniente del hecho de que una particula cargada acelerada, como sería necesario para mantenerse en órbita, radiaria radiación electromagnética, perdiendo energía.Las leyes de Newton, junto con la ecuaciones de Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del orden de 10 10s, toda la energía del átomo se habría radiado, con la consiguiente caída de los electrones sobre el núcleo.
[2] Nube electrónica Alrededor del núcleo se encuentran los electrones que son partículas elementales de carga negativa igual a una carga elemental y con una masa de 9,10 × 10–31 kg La cantidad de electrones de un átomo en su estado basal es igual a la cantidad de protones que contiene en el núcleo, es decir, al número atómico, por lo que un átomo en estas condiciones tiene una carga eléctrica neta igual a 0.A diferencia de los nucleones, un átomo puede perder o adquirir algunos de sus electrones sin modificar su identidad química, transformándose en un ion, una partícula con carga neta diferente de cero.
El concepto de que los electrones se encuentran en órbitas satelitales alrededor del núcleo se ha abandonado en favor de la concepción de una nube de electrones deslocalizados o difusos en el espacio, el cual representa mejor el comportamiento de los electrones descrito por la mecánica cuántica únicamente como funciones de densidad de probabilidad de encontrar un electrón en una región finita de espacio alrededor del núcleo.Dimensiones atómicas La mayor parte de la masa de un átomo se concentra en el núcleo, formado por los protones y los neutrones, ambos conocidos como nucleones, los cuales son 1836 y 1838 veces más pesados que el electrón respectivamente.
El tamaño o volumen exacto de un átomo es difícil de calcular, ya que las nubes de electrones no cuentan con bordes definidos, pero puede estimarse razonablemente en 1,0586 × 10–10 m, el doble del radio de Bohr para el átomo de hidrógeno.Si esto se compara con el tamaño de un protón, que es la única partícula que compone el núcleo del hidrógeno, que es aproximadamente 1 × 10–15 se ve que el núcleo de un átomo es cerca de 100.000 veces menor que el átomo mismo, y sin embargo, concentra prácticamente el 100% de su masa.
Para efectos de comparación, si un átomo tuviese el tamaño de un estadio, el núcleo sería del tamaño de una canica colocada en el centro, y los electrones, como partículas de polvo agitadas por el viento alrededor de los asientos.
Historia de la teoría atómica El concepto de átomo existe desde la Antigua Grecia propuesto por los filósofos griegos Demócrito, Leucipo y Epicuro, sin embargo, no se generó el concepto por medio de la experimentación sino como una necesidad filosófica que explicara la realidad, ya que, como proponían estos pensadores, la materia no podía dividirse indefinidamente, por lo que debía existir una unidad o bloque indivisible e indestructible que al combinarse de diferentes formas creara todos los cuerpos macroscópicos que nos rodean.El siguiente avance significativo se realizó hasta en 1773 el químico francés Antoine-Laurent de Lavoisier postuló su enunciado: "La materia no se crea ni se destruye, simplemente se transforma.
"; demostrado más tarde por los experimentos del químico inglés John Dalton quien en 1804, luego de medir la masa de los reactivos y productos de una reacción, y concluyó que las sustancias están compuestas de átomos esféricos idénticos para cada elemento, pero diferentes de un elemento a otro.Luego en 1811 Amedeo Avogadro, físico italiano, postuló que a una temperatura, presión y volumen dados, un gas contiene siempre el mismo número de partículas, sean átomos o moléculas, independientemente de la naturaleza del gas, haciendo al mismo tiempo la hipótesis de que los gases son moléculas poliatómicas con lo que se comenzó a distinguir entre átomos y moléculas.
El químico ruso Dmítri Ivánovich Mendeléyev creó en 1869 una clasificación de los elementos químicos en orden creciente de su masa atómica, remarcando que existía una periodicidad en las propiedades químicas.Este trabajo fue el precursor de la tabla periódica de los elementos como la conocemos actualmente. La visión moderna de su estructura interna tuvo que esperar hasta el experimento de Rutherford en 1911 y el modelo atómico de Bohr. Posteriores descubrimientos científicos, como la teoría cuántica, y avances tecnológicos, como el microscopio electrónico, han permitido conocer con mayor detalle las propiedades físicas y químicas de los átomos. Evolución del modelo atómico Los elementos básicos de la materia son 3.
Cuadro general de las partículas, quarks y leptones.Diferencia entre los bariones y los mesones. Diferencia entre fermiones y bosones. Tamaño relativo de las diferentes partículas atómicas La concepción del átomo que se ha tenido a lo largo de la historia ha variado de acuerdo a los descubrimientos realizados en el campo de la física y la química. A continuación se hará una exposición de los modelos atómicos propuestos por los científicos de diferentes épocas. Algunos de ellos son completamente obsoletos para explicar los fenómenos observados actualmente, pero se incluyen a manera de reseña histórica. Modelo de Dalton Fue el primer modelo atómico con bases científicas, fue formulado en 1808 por John Dalton.
Este primer modelo atómico postulaba: La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de los diferentes elementos tienen pesos diferentes. Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas. Los átomos, al combinarse para formar compuestos guardan relaciones simples. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
Sin embargo desapareció ante el modelo de Thomson ya que no explica los rayos catódicos, la radioactividad ni la presencia de los electrones (e-) o protones(p+).Modelo de Thomson Modelo atómico moderno Funciones de onda de los primeros orbitales atómicos Modelo atómico de Thomson Artículo principal: Modelo atómico de Thomson Luego del descubrimiento del electrón en 1897 por Joseph John Thomson, se determinó que la materia se componía de dos partes, una negativa y una positiva. La parte negativa estaba constituida por electrones, los cuales se encontraban según este modelo inmersos en una masa de carga positiva a manera de pasas en un pastel (de la analogía del inglés plum-pudding model).
Detalles del modelo atómico Para explicar la formación de iones, positivos y negativos, y la presencia de los electrones dentro de la estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas.Una nube positiva que contenía las pequeñas partículas negativas (los electrones) suspendidos en ella. El número de cargas negativas era el adecuado para neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta forma, explicaba la formación de iones; pero dejó sin explicación la existencia de las otras radiaciones.
Modelo de Rutherford Modelo atómico de Rutherford Artículo principal: Modelo atómico de Rutherford Este modelo fue desarrollado por el físico Ernest Rutherford a partir de los resultados obtenidos en lo que hoy se conoce como el experimento de Rutherford en 1911.Representa un avance sobre el modelo de Thomson, ya que mantiene que el átomo se compone de una parte positiva y una negativa, sin embargo, a diferencia del anterior, postula que la parte positiva se concentra en un núcleo, el cual también contiene virtualmente toda la masa del átomo, mientras que los electrones se ubican en una corteza orbitando al núcleo en órbitas circulares o elípticas con un espacio vacío entre ellos.
A pesar de ser un modelo obsoleto, es la percepción más común del átomo del público no científico.Rutherford predijo la existencia del neutrón en el año 1920, por esa razón en el modelo anterior (Thomson), no se habla de éste. Por desgracia, el modelo atómico de Rutherford presentaba varias incongruencias: Contradecía las leyes del electromagnetismo de James Clerk Maxwell, las cuales estaban muy comprobadas mediante datos experimentales. Según las leyes de Maxwell, una carga eléctrica en movimiento (en este caso el electrón) debería emitir energía constantemente en forma de radiación y llegaría un momento en que el electrón caería sobre el núcleo y la materia se destruiría. Todo ocurriría muy brevemente. No explicaba los espectros atómicos.
Modelo de Bohr Modelo atómico de Bohr Artículo principal: Modelo atómico de Bohr Este modelo es estrictamente un modelo del átomo de hidrógeno tomando como punto de partida el modelo de Rutherford, Niels Bohr trata de incorporar los fenómenos de absorción y emisión de los gases, así como la nueva teoría de la cuantización de la energía desarrollada por Max Planck y el fenómeno del efecto fotoeléctrico observado por Albert Einstein.“El átomo es un pequeño sistema solar con un núcleo en el centro y electrones moviéndose alrededor del núcleo en orbitas bien definidas.” Las orbitas están cuantizadas (los epueden estar solo en ciertas orbitas) Cada orbita tiene una energía asociada. La más externa es la de mayor energía.
Los electrones no radian energía (luz) mientras permanezcan en orbitas estables.Los electrones pueden saltar de una a otra orbita. Si lo hace desde una de menor energía a una de mayor energía absorbe un cuanto de energía (una cantidad) igual a la diferencia de energía asociada a cada orbita. Si pasa de una de mayor a una de menor, pierde energía en forma de radiación (luz). El mayor éxito de Bohr fue dar la explicación al espectro de emisión del hidrogeno. Pero solo la luz de este elemento. Proporciona una base para el carácter cuántico de la luz, el fotón es emitido cuando un electrón cae de una orbita a otra, siendo un pulso de energía radiada. Bohr no puede explicar la existencia de orbitas estables y para la condición de cuantización.
Bohr encontró que el momento angular del electrón es h/2 por un método que no puede justificar.Modelo de Schrödinger: modelo actual Densidad de probabilidad de ubicación de un electrón para los primeros niveles de energía. Artículo principal: Modelo atómico de Schrödinger Después de que Louis-Victor de Broglie propuso la naturaleza ondulatoria de la materia en 1924, la cual fue generalizada por Erwin Schrödinger en 1926, se actualizó nuevamente el modelo del átomo. En el modelo de Schrödinger se abandona la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, que es una extrapolación de la experiencia a nivel macroscópico hacia las diminutas dimensiones del átomo.
En vez de esto, Schrödinger describe a los electrones por medio de una función de onda, el cuadrado de la cual representa la probabilidad de presencia en una región delimitada del espacio.Esta zona de probabilidad se conoce como orbital. La gráfica siguiente muestra los orbitales para los primeros niveles de energía disponibles en el átomo de hidrógeno y oxígeno. Referencias 1. Antonio Rañada(1990), Dinámica Clásica. Madrid, Alianza Editorial, S. A. 84-206-8133-4 2. B.H. Bransden and C.J. Joachain (1992), Physics of Atomos and Molecules. Harlow-Essex-England, Longman Group Limited. 0-582-44401-2 Cronología del modelo atómico (en inglés). Sokolovsky, Silvia (2002), El Átomo,.
Bricks of the Universe: the Building Blocks of Matter (material divulgativo del CERN).Véase también Molécula Tabla periódica de los elementos Modelo estándar de física de partículas Fisión y fusión nuclear Acelerador de partículas Medicina nuclear Arma nuclear Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Átomo.Commons Energía nuclear: el poder del átomo Átomo exótico Un átomo exótico es el análogo a un átomo normal en donde una o más de sus partículas, tanto las cargadas negativamente (electrones) como positivamente (protones) son sustituidas por otras partículas elementales diferentes. La sustitución puede ser de los electrones, los protones o ambos.
Ya que los nuevos sistemas formados son altamente inestables, los átomos exóticos tienden a tener vidas medias extremadamente cortas.Contenido 1 Átomos muónicos 2 Átomos mesónicos 3 Onio 4 Átomos hipernucleares 5 Átomos de cuasipartículas 6 Objetos extendidos 7 Véase también Átomos muónicos Artículo principal: Muonio En un átomo muónico, un electrón es reemplazado por un muón (perteneciente a la familia de los leptones, la misma que los electrones). Ya que el muón sólo es sensible a la fuerza débil, electromagnética (y gravitatoria), los átomos muónicos se rigen por la interacción electromagnética.
No hay complicaciones debidas a la fuerza fuerte que se da entre los leptones y el núcleo.Debido a la mayor masa de un muón con respecto a un electrón, las órbitas de Bohr de estos átomos son menores, y las correcciones debidas a la electrodinámica cuántica son más importantes que en los átomos normales. El estudio de los niveles energéticos y los índices de transición desde estados excitados hacia el nivel fundamental en los átomos muónicos aportan más datos a la electrodinámica cuántica.
Átomos mesónicos Un átomo mesónico es aquel en el que el núcleo permanece inalterado, mientras uno o más de los electrones de su capa externa son sustituidos por un mesón (el cual no es un leptón, como los electrones o los muones).Los mesones pueden interaccionar vía la fuerza fuerte, así que los niveles energéticos de estos átomos están influidos por la fuerza fuerte que ocurre entre el núcleo y el mesón. En un átomo mesónico, la fuerza fuerte tiene efectos comparables a las interacciones electromagéticas, ya que los orbitales atómicos están lo suficientemente cercanos al núcleo como para que se deje sentir ésta interacción.
Esto provoca que la vida media de estos átomos disminuya hasta donde las transiciones entre los diferentes niveles atómicos no son observables.Así, el hidrógeno piónico y el hidrógeno kaónico dan cuenta de interesantes pruebas experimentales acerca de la teoría de las interacciones fuertes, la cromodinámica cuántica. Onio Un onio es el estado donde están unidas una partícula con su antipartícula. El onio paradigmático es el positronio, donde un electrón y un positrón conviven en un estado metastable de vida larga. En los años 1950 se hicieron estudios sobre el positronio con la esperanza de que dieran luz sobre los estados unidos en la teoría del campo cuántico.
Aún se usan con este propósito; un desarrollo reciente llamado electrodinámica cuántica no relativista usa este sistema como base de pruebas.Un átomo muónico de muonio sería también un onio, que contaría con un muón y un antimuón. El pionio, el sistema formado por dos piones de cargas opuestas, es interesante desde el punto de vista de la exploración de la interacción fuerte. También sería el caso del protonio si pudiera producirse.
De todas formas, los verdaderos análogos al positronio en la teoría de las interacciones fuertes son los estados formados por quarkonio, concretamente por quarks pesados como el abajo o el encanto (los quarks arriba son tan pesados que se desintegran vía la fuerza débil antes de que puedan unirse).El entender sistemas unidos de hadrones como el pionio y el protonio es importante para aclarar nociones relacionadas con hadrones exóticos, como moléculas mesónicas y estados pentaquark. Átomos hipernucleares Los átomos pueden estar formados por electrones orbitando un hipernúcleo, el cual puede contener partículas extrañas llamadas hiperones.
Éstos átomos hipernucleares se estudian principalmente para observar su comportamiento nuclear, ya más en los dominios de la física nuclear que de la física atómica.Átomos de cuasipartículas En sistemas de materia condensada, específicamente en algunos semiconductores, existen estados llamados excitones, los cuales son estados donde un electrón se une a un hueco electrónico. Objetos extendidos Aunque una estrella de neutrones podría ser considerada como un átomo exótico, ya que el cuerpo estelar es un inmenso núcleo atómico que debe tener una atmósfera electrónica de carga opuesta, es más útil considerar a estos objetos como estrellas.
De forma parecida, las estrellas formadas de otros tipos de materia de quarks son más útiles como estrellas que como átomos exóticos.Véase también Positronio, muonio y electrodinámica cuántica Quarkonio y cromodinámica cuántica Átomo hidrogenoide Los átomos hidrogenoides son átomos formados por un núcleo y un solo electrón. Se llaman así porque su comportamiento químico es similar al del hidrógeno. Es hidrogenoide pues cualquiera de los isótopos del hidrógeno, claro está. Un caso típico de átomo hidrogenoide es también el de un átomo de cualquier elemento que se ha ionizado hasta perder todos los electrones menos uno.
Existen además multitud de átomos exóticos que también tienen un comportamiento hidrogenoide por motivos diversos.Contenido 1 Introducción 2 Caracterización matemática 2.1 Potencial electrostático 2.2 Función de onda no relativista 2.3 Niveles de energía no relativista 2.4 Función de onda relativista 2.5 Niveles de energía relativista 3 Referencia 3.1 Notas 3.2 Bibliografía 4 Véase también Introducción Como en el caso del átomo de hidrógeno los átomos hidrogenoides son uno de los pocos problemas mecánico cuánticos que se pueden resolver de forma exacta.
Los átomos o iones cuya capa de valencia está constituida por un único electrón (por ejemplo en los metales alcalinos) tienen propiedades espectroscópicas y de enlace semejantes a las de los átomos hidrogenoides.La configuración electrónica más simple posible es la de un único electrón. La resolución analítica del átomo de hidrógeno neutro que posee la misma cantidad de electrones, es decir uno, es en esencia la misma para los átomos hidrogenoides. Así pues la forma de los orbitales y los niveles de energía serán semejantes. Por el contrario, para átomos con dos o más electrones la resolución de las ecuaciones solo se puede hacer mediante métodos aproximativos.
Los orbitales de átomos multielectrónicos son cualitativamente similares a los orbitales del hidrógeno y, en los modelos atómicos más simples, se considera que tienen la misma forma.Pero si se pretende realizar un cálculo riguroso y preciso se tendrá que recurrir a aproximaciones numéricas. Los orbitales de los átomos hidrogenoides se identifican mediante tres números cuánticos: n, l, y ml. Las reglas que restringen los valores de los números cuánticos y sus energías (ver más abajo) explican la configuración electrónica de los átomos y la conformación de la tabla periódica. Los estados estacionarios (estados cuánticos) de los átomos hidrogenoides son sus orbitales atómicos.
A pesar de todo, en general, el comportamiento de un electrón no está plenamente descrito por un orbital simple.Los estados electrónicos se representan mejor como "mezclas" dependientes del tiempo (combinaciones lineales) de varios orbitales. Ver Orbitales moleculares por combinación lineal de orbitales atómicos. El número cuántico n apareció por primera vez en el modelo atómico de Bohr. Determina, entre otras cosas, la distancia de los electrones con respecto al núcleo. Todos los electrones con el mismo valor de n forman un nivel o capa. Los electrones con idéntico número n pero diferente l componen los llamados subniveles o subcapas.
El modelo atómico de Sommerfeld que incorporaba un refinamiento relativista del electrón probó que la energía dependía también de los otros números cuánticos tal como se aprecia en la solución relativista mediante la ecuación de Dirac.Caracterización matemática La caracterización de los átomos hidrogenoides se realiza en el marco de la mecánica cuántica, ya que debido al tamaño de esos sistemas físicas ni la mecánica clásica que describe adecuadamente el movimiento de partículas macroscópicas a velocidades moderadas, ni el electromagnetismo clásico son aplicables a escalas tan pequeñas.
Dentro de la mecánica cuántica una primera aproximación se obtiene mediante la ecuación de Schrödinger que predice cualitativamente todas las características importantes de un estado de equilibrio de un átomo hidrogenoide y da valores cuantitativos muy aproximados para casi todas las magnitudes.Un refinamiento de este tratatamiento es el análisis relativista mediante la ecuación de Dirac que predice pequeñas correcciones a las soluciones obtenidas del análisis no-relativista mediante la ecuación de Schrödinger. Potencial electrostático Los orbitales atómicos de los átomos hidrogenoides son las soluciones de la ecuación de Schrödinger para el caso de un potencial de simetría esférica.
En este caso, el término de potencial es el potencial de la ley de Coulomb: donde 0 es la permitividad del vacío, Z es el número atómico, e es la carga elemental, r es la distancia entre el electrón y el núcleo.Función de onda no relativista Debido a que el potencial tiene simetría esférica es posible separar el movimiento del centro de masas del movimiento relativo entre electrón y núcleo. Así, el movimiento relativo se puede tratar como el movimiento de una partícula cuya masa es la masa reducida, , del sistema. De esta manera, la función de onda es una función de sólo tres variables espaciales. Tras eliminar la dependencia temporal, la ecuación de Schrödinger es una ecuación en derivadas parciales de tres variables.
Debido a que el potencial tiene simetría esférica es conveniente utilizar las coordenadas esféricas para obtener las soluciones, aplicando para ello el método de separación de variables.De esta forma cualquier autofunción puede escribirse como un producto de tres funciones que suelen escribirse de la forma siguiente: donde representa el ángulo polar (colatitud) y el ángulo azimutal. Esta función de onda deberá estar además normalizada a 1 por lo que se añadirá una constante de normalización. El resto de la ecuación se separa entre la parte radial representada por la función de onda radial que incorporará la constante de normalización y la angular representada por los armónicos esféricos.
Todas estas funciones serán dependientes de los tres números cuánticos antes citados, n, l y m. Así, se tiene lo siguiente: Los números cuánticos no son independientes unos de otros por lo que el número de combinaciones posibles de estas funciones está limitado.Las restricciones son las siguientes: La función radial ya normalizada se representa como: Siendo las funciones asociadas de Laguerre y . Nótese que es aproximadamente igual al radio de Bohr, . Si la masa del núcleo es infinita entonces y .
Sin embargo, es más habitual encontrar las autonfunciones expresadas en función de la función radial reducida: Así pues la función de onda queda como sigue: Niveles de energía no relativista En el caso de los átomos hidrogenoides al no haber interacciones entre electrones, pues solo hay uno, la energía de los orbitales atómicos puede ser calculada analíticamente de forma exacta.Los valores de energía permitidos son . Habitualmente se considera valores de energía se expresan como: , por lo que los Donde es la unidad atómica de energía o Hartree. Como se puede ver, la fórmula solo depende del número cuántico principal. Esto confiere a los diferentes estados de energía lo que se denomina degeneración accidental.
Por ejemplo para n=2 existen cuatro estados posibles, 200, 210, 21+1 y 21-1, con la misma energía para l = 0 que para l = 1.Pero dado que la función de energía solo depende de n y no de l, todos ellos tendrán, en principio, la misma energía (la degeneración en m es consecuencia de la invariancia bajo rotaciones de todos los potenciales centrales). Esta aproximación en la medida de los niveles de energía recibe el nombre de estructura gruesa. Sin embargo, el hecho de que la degeneración sea accidental es debido a que no aparece para otros potenciales centrales, sino justo para un potencial que decaiga exactamente como el de Coulomb, o sea, exactamente con el inverso de la distancia.
Clásicamente esta dependencia con la distancia en la energía potencial hace que se pueda construir una cantidad vectorial (el vector de Runge-Lenz) que permanece constante en el movimiento.Cuánticamente, las componentes del operador vectorial que representan al observable de Runge-Lenz no conmutan con el momento angular orbital al cuadrado, lo cual garantiza que tengamos estados linealmente independientes con el mismo autovalor de la energía y diferente autovalor del momento angular orbital al cuadrado: o sea, lo que hemos llamado degeneración accidental. En realidad, existen tres correcciones distintas que hacen variar sensiblemente el valor de la energía de dichos niveles rompiendo esa degeneración. Es la denominada estructura fina del átomo de hidrógeno o hidrogenoide.
En los átomos multielectrónicos en la aproximación de campo central, el potencial "apantallado" que sienten los electrones y que tiene en cuenta en parte la repulsión interelectrónica ya no es Coulomb (no decae con el inverso de la distancia al núcleo) y no hay degeneración accidental.Función de onda relativista La ecuación de Schrödinger aplicada a electrones es sólo una aproximación no relativista a la ecuación de Dirac que da cuenta tanto del efecto del spin del electrón.
En el tratamiendo de Dirac de los electrones de hecho la función de onda debe substituirse por un espinor de cuatro componentes: Donde las funciones F y G se expresan en términos de funciones hipergeométricas: A modo de comparación con el caso no relativista se dan a continuación la forma explícita del espinor de funciones de onda del estado fundamental: El límite no relativista se obtiene haciendo tender , es decir, haciendo tender la constante de estructura fina a cero.Niveles de energía relativista El tratamiento de los electrones mediante la ecuación de Dirac sólo supone pequeñas correcciones a los niveles dados por la ecuación de Schrödinger.
Tal vez el efecto más interesante es la desaparición de la degeneración de los niveles, por el efecto de la interacción espín-órbita consistente en que los electrones con valores diferentes del tercer número cuántico m (número cuántico magnético) tienen diferentes energía debido al efecto sobre ellos del momento magnético del núcleo atómico.De hecho los niveles energéticos vienen dados por:[1] Donde: , es la masa del electrón. , son la velocidad de la luz y la constante de estructura fina. , son el número de protones del núcleo, el número cuántico principal y el número cuántico magnético.
Si se prescinde de la energía asociada a la masa en reposo del electrón estos niveles pueden resultan cercanos a los predichos por la ecuación de Schrödinger, especialmente en el caso m = 0: Referencia Notas 1.Hydrogenic Solutions of Dirac's Equation Bibliografía Véase también Orbital atómico Átomo exótico Átomo ligero Un átomo ligero es aquel átomo que posee una pequeña masa atómica, como pueden ser átomos de elementos tales como el hidrógeno (o deuterio, un isótopo del hidrógeno), el helio, etc. Sin embargo, ya que el término "ligero" es un tanto ambiguo e indefinido, muchas veces se le aplica de forma relativa.
De esta forma, la mayoría de metales, por pesados que sean, pueden ser "átomos ligeros" en comparación con elementos mucho más masivos, tales como los transuránicos.Attómetro cúbico Símbolo Magnitud Se ha propuesto fusionar este artículo o sección con Metro cúbico, pero otros wikipedistas no están de acuerdo. Por favor, lee la página de discusión de ambos artículos y aporta tus razones antes de proceder en uno u otro sentido. attómetro cúbico am³ Volumen SI equivalencia 1E-54 m³ Dimensión L³ Sistema SI.
El attómetro cúbico es una unidad de volumen en el sistema SI, equivalente a 1- 54 m³ Aumento ebulloscópico El aumento o ascenso ebulloscópico es la diferencia entre el punto de ebullición de un disolvente puro y una solución de este con un soluto a una concentración dada.Es directamente proporcional a la molalidad del soluto, o más precisamente, a la actividad del soluto, según la siguiente ecuación: aumento ebulloscópico= i x Kb x actividad la actividad se expresa en mol/kg y se obtiene multiplicando la molalidad por el coeficiente de actividad. Kb, constante de aumento ebulloscópico, carácterística de cada sustancia.
i es el factor de van't Hoff (ver Jacobus Henricus van't Hoff), tiene en cuenta la formación de iones en la solución, indica el número de partículas formadas por cada partícula de soluto que pasa a la solución.Por ejemplo: i = 1 para azúcar en agua. i = 2 para NaCl en agua (un ion cloruro y un ion sodio). i = 3 para CaCl2 en agua (dos iones cloruro y un ion calcio). i = 2 para HCl en agua. (se disocia completamente) i = 1 para HCl in benceno. (no se disocia en benceno) Véase también Descenso crioscópico Aumento óptico Existen dos tipos de aumentos en óptica: Aumento lateral o transversal Consideremos un sistema óptico que forma imagen de un objeto normal al eje.
Si el objeto tiene un tamaño yo y la imagen un tamaño yi, se define el aumento lateral MT como: En un dioptrio esferico seria: Donde si es la distancia desde el el dioptrio a la imagen y s o la distancia del dioptrio al objeto.Si mayor que el del objeto. El tamaño de la imagen es Si que la imagen. El tamaño del objeto es mayor Si La imagen es derecha. Si La imagen está invertida.
Ha tener en cuenta que si superponemos distintos dioptrios entonces: Aumento angular Se define el aumento angular que produce el sistema óptico para el observador como el cociente entre el angulo que ocupa en el campo de visión la imagen y el angulo que ocupa el objeto visto sin el sistema óptico: Donde la aproximación será correcta siempre estemos en aproximación paraxial y, por tanto podemos aproximar: Aumento en una lupa: Teniendo en cuenta que la distancia mínima a la que el ojo es capaz de enfocar es de unos 25cm como media tenemos fijago do=25cm por tanto: Aumento de un telescopio: Existen dos tipos de telescopios: 1.Astronomico: La imagen esta invertida; usa dos lentes convergentes.
2.De Galileo o Terrestre: La imagen no sale invertida; usan una lente convergente y otra divergente.Autoinducción Fenómeno por el que una corriente eléctrica que varía en el tiempo en un circuito produce en el mismo circuito otra fuerza electromotriz inducida que se opone a la variación de la fuerza electromotriz. Cuando por un circuito circula una corriente eléctrica, se crea a su alrededor un campo magnético. Si varía la intensidad de la corriente, dicho campo también variará y, segu la ley de inducción electromagnética de Faraday, en el circuito se producirá una fuerza electromotriz inducida que se denomina fuerza electromotriz autoinducida.
Según la ley de Lenz, el sentido de la corriente autoinducida será el mismo que el de la corriente inicial si la autoinducción se produce por una disminución de la intensidad, o contrario si la causa es un aumento.Véase también Inducción electromagnética Ley de Faraday Inductancia Ecuaciones de Maxwell Enlaces externos Curso de física con ordenador (Autoinducción. Circuito R-L) Autómata programable Se ha propuesto fusionar este artículo o sección con Controlador lógico programable, pero otros wikipedistas no están de acuerdo. Por favor, lee la página de discusión de ambos artículos y aporta tus razones antes de proceder en uno u otro sentido.
En electrónica un autómata es un sistema secuencial, aunque en ocasiones la palabra es utilizada también para referirse a un robot.Puede definirse como un equipo electrónico programable en lenguaje no informático y diseñado para controlar, en tiempo real y en ambiente industrial, procesos secuenciales. Sin embargo, la rápida evolución de los autómatas hace que esta definición no esté cerrada. Autómatas programables.
Contenido 1 Introducción 1.1 Desarrollo histórico 1.2 Aplicaciones 1.2.1 Automóvil 1.2.2 Plantas químicas y petroquímicas 1.2.3 Metalurgia 1.2.4 Alimentación 1.2.5 Papeleras y madereras 1.2.6 Producción de energía 1.2.7 Tráfico 1.2.8 Domótica 1.2.9 Fabricación de Neumáticos 2 El autómata programable 2.1 Estructura general 2.2 Sistema de entradas y salidas 2.3 Ciclo de funcionamiento 2.4 Equipos de programación 2.5 Equipos periféricos 3 Programación del autómata 4 Véase también 5 Enlaces externos Introducción En la Teoría de los lenguajes formales, disciplina perteneciente a la informática, se describen tres tipos de autómatas que reconocen tipos diferentes de lenguajes: los autómatas finitos, los autómatas a pila y las máquinas de Turing.
El autómata es la primera máquina con lenguaje, es decir, un calculador lógico cuyo juego de instrucciones se orienta hacia los sistemas de evolución secuencial.La aparición de los ordenadores a mediados de los 50's inauguró el campo de la lógica programada para el control de procesos industriales. No obstante, aunque estos ordenadores resolvían los inconvenientes de un Sistema cableado o la llamada lógica cableada, presentaban nuevos problemas: Mala adaptación al entorno industrial. Coste elevado de los equipos. Necesidad de personal informático para la realización de los programas. Necesidad de personal especializado para el mantenimiento.
Estos problemas se solucionarían con la aparición del autómata programable o PLC (Controlador Lógico Programable; en inglés Programable Logic Controler).Desarrollo histórico A mediados de los años 60, General Motors, preocupada por los elevados costos de los sistemas de control a base de relés, de lógica cableada, comenzó a trabajar con Digital en el desarrollo de un sistema de control que evitara los inconvenientes de la lógica programada. El resultado de la colaboración fue un equipo programado, denominado PDP-14, cuyo empleo no tardó en extenderse a otras industrias.
En un principio, los autómatas programables sólo trabajavan con control discreta ( Si o No ), por lo que los problemas que requerían la manipulación de magnitudes analógicas se dejaron para los tradicionales sistemas de control distribuido.Resulta curioso anotar que R. E. Moreley, considerado por muchos el padre del autómata programable, trabajando independientemente de las especificaciones de la General Motors desarrolló un equipo que respondía a las necesidades de dicha multinacional. Hacia la primera mitad de los años 70 los autómatas programables incorporan la tecnología de los microcontroladores, aumentando de este modo sus prestaciones: Realización de operaciones aritméticas. Comunicación con los ordenadores. Incremento de la capacidad de memoria. Mejoras en los lenguajes de programación.
Posibilidad de entradas y salidas analógicas.Posibilidad de utilizar redes de comunicaciones. La década de los años 80 se caracteriza por la incorporación de los microprocesadores, consiguiendo: Alta velocidad de respuesta. Reducción de las dimensiones. Mayor seguridad de funcionamiento. Gran capacidad de almacenamiento de datos. Lenguajes de programación más potentes: contactos, bloques funcionales, GRAFCET (GRAFica de Control de Etapa de Transición). En la actualidad existen autómatas que permiten automatizar a todos los niveles, desde pequeños sistemas mediante autómatas compactos, hasta sistemas sumamente complejos mediante la utilización de grandes redes de autómatas.
Aplicaciones Como ya se ha comentado, las primeras aplicaciones de los autómatas programables se dieron en la industria automotriz para sustituir los complejos equipos basados en relés.Sin embargo, la disminución de tamaño y el menor costo han permitido que los autómatas sean utilizados en todos los sectores de la industria. Sólo a modo de ejemplo, se mencionan a continuación algunos de los múltiples campos de aplicación. Automóvil Cadenas de montaje, soldadura, cabinas de pintura, etc. Máquinas herramientas: Tornos, fresadoras, taladradoras, etc. Plantas químicas y petroquímicas Control de procesos (dosificación, mezcla, pesaje, etc). Baños electrolíticos, oleoductos, refinado, tratamiento de aguas residuales, etc.
Metalurgia Control de hornos, laminado, fundición, soldadura, forja, grúas, Alimentación Envasado, empaquetado, embotellado, almacenaje, llenado de botellas, etc.Papeleras y madereras Control de procesos, serradoras, producción de conglomerados y de laminados, etc. Producción de energía Centrales eléctricas, turbinas, transporte de combustible, energía solar, etc. Tráfico Regulación y control del tráfico, ferrocarriles, etc. Domótica Iluminación, temperatura ambiente, sistemas anti robo, etc. Fabricación de Neumáticos Control de calderas, sistemas de refrigeración , prensas que vulcanizan los neumáticos. Control de las máquinas para el armado de las cubiertas, extrusoras de goma. Control de las máquinas para mezclar goma.
El autómata programable Estructura general Un autómata programable se puede considerar como un sistema basado en un microprocesador, siendo sus partes fundamentales la Unidad Central de Proceso (CPU), la Memoria y el Sistema de Entradas y Salidas (E/S).La CPU realiza el control interno y externo del autómata y la interpretación de las instrucciones del programa. A partir de las instrucciones almacenadas en la memoria y de los datos que recibe de las entradas, genera las señales de las salidas. La memoria se divide en dos bloques, la memoria de solo lectura o ROM (Read Only Memory) y la memoria de lectura y escritura o RAM (Random Access Memory). En la memoria ROM se almacenan programas para el correcto funcionamiento del sistema, como el programa de comprobación de la puesta en marcha y el programa de exploración de la memoria RAM.
La memoria RAM a su vez puede dividirse en dos áreas: Memoria de datos, en la que se almacena la información de los estados de las entradas y salidas y de variables internas.Memoria de usuario, en la que se almacena el programa con el que trabajará el autómata. El sistema de Entradas y Salidas recoge la información del proceso controlado (Entradas) y envía las acciones de control del mismo (salidas). Los dispositivos de entrada pueden ser Pulsadores, interruptores, finales de carrera, termostatos, presostatos, detectores de nivel, detectores de proximidad, contactos auxiliares, etc. Por su parte, los dispositivos de salida son también muy variados: Pilotos indicadores, relés, contactores, arrancadores de motores, válvulas, etc.
En el siguiente punto se trata con más detalle este sistema.Sistema de entradas y salidas En general, las entradas y salidas (E/S) de un autómata pueden ser discretas, analógicas, numéricas o especiales. Las E/S discretas se caracterizan por presentar dos estados diferenciados: presencia o ausencia de tensión, relé abierto o cerrado, etc. Su estado se puede visualizar mediante indicadores tipo LED que se iluminan cuando hay señal en la entrada o cuando se activa la salida. Los niveles de tensión de las entradas más comunes son 5 V cc, 24 V cc/ca, 48 V cc/ca y 220 V ca. Los dispositivos de salida más frecuentes son relés, transistores y triacs.
Las E/S analógicas tienen como función la conversión de una magnitud analógica (tensión o corriente) equivalente a una magnitud física (temperatura, presión, grado de acidez, etc.)en una expresión binaria de 11, 12 o más bits, dependiendo de la precisión deseada. Esto se realiza mediante conversores analógico-digitales (ADC's). Las E/S numéricas permiten la adquisición o generación de información a nivel numérico, en códigos BCD, Gray u otros (véase código binario). La información numérica puede ser entrada mediante dispositivos electrónicos digitales apropiados. Por su parte, las salidas numéricas suministran información para ser utilizada en dispositivos visualizadores (de 7 segmentos) u otros equipos digitales.
Por último, las E/S especiales se utilizan en procesos en los que con las anteriores E/S vistas son poco efectivas, bien porque es necesario un gran número de elementos adicionales, bien porque el programa necesita de muchas instrucciones.Entre las más importantes están: Entradas para termopar y termorresistencia: Para el control de temperaturas. Salidas de trenes de impulso: Para el control de motores paso a paso (PAP). Entradas y salidas de regulación P+I+D (Proporcional + Integral + Derivativo): Para procesos de regulación de alta precisión. Salidas ASCII: Para la comunicación con periféricos inteligentes (equipo de programación, impresora, PC, etc.).
Ciclo de funcionamiento Cuando se pone en marcha el PLC se realizan una serie de comprobaciones: Funcionamiento de las memorias.Comunicaciones internas y externas. Elementos de E/S. Tensiones correctas de la fuente de alimentación. Una vez efectuadas estas comprobaciones y si las mismas resultan ser correctas, la CPU... inicia la exploración del programa y reinicializa. Esto último si el autómata se encuentra en modo RUN (marcha), ya que de estar en modo STOP (paro) aguardaría, sin explorar el programa, hasta la puesta en RUN. Al producirse el paso al modo STOP o si se interrumpe la tensión de alimentación durante un tiempo lo suficientemente largo, la CPU realiza las siguientes acciones: Detiene la exploración del programa.
Pone a cero, es decir, desactiva todas las salidas.Mientras se está ejecutando el programa, la CPU realiza en sucesivos intervalos de tiempo distintas funciones de diagnóstico (watch-dog en inglés). Cualquier anomalía que se detecte se reflejará en los indicadores de diagnóstico del procesador y dependiendo de su importancia se generará un código de error o se parará totalmente el sistema. El tiempo total del ciclo de ejecución viene determinado por los tiempos empleados en las distintas operaciones. El tiempo de exploración del programa es variable en función de la cantidad y tipo de las instrucciones así como de la ejecución de subrutinas.
El tiempo de exploración es uno de los parámetros que caracteriza a un PLC y generalmente se suele expresar en milisegundos por cada mil instrucciones.Para reducir los tiempos de ejecución, algunas CPU's constan de dos o más procesadores que operan simultáneamente y están dedicados a funciones específicas. También se puede descargar de tareas a la CPU incorporando módulos inteligentes dedicados a tareas específicas. Equipos de programación La misión principal de los equipos de programación, es la de servir de interfaz entre el operador y el autómata para introducir en la memoria de usuario el programa con las instrucciones que definen las secuencias de control.
Dependiendo del tipo de autómata, el equipo de programación produce unos códigos de instrucción directamente ejecutables por el procesador o bien un código intermedio, que es interpretado por un programa residente en el procesador (firmware).Las tareas principales de un equipo de programación son: Introducción de las instrucciones del programa. Edición y modificación del programa. Detección de errores. Archivo de programas (cintas, discos). Básicamente existen tres tipos de equipos de programación: Consola con teclado y pantalla de tubo de rayos catódicos (CRT) o de cristal líquido (LCD). Programador manual, semejante a una calculadora de bolsillo, más económico que la anterior. Ordenador personal con el software apropiado.
La conexión de la consola u ordenador al autómata programable se realiza mediante una conexión en serie (generalmente la RS-232C o la RS-422).Equipos periféricos Además de los equipos de programación, existen numerosos dispositivos que sin formar parte directa del autómata, pueden conectarse al mismo para realizar distintas funciones. Normalmente se conectan a las salidas ASCII o a los canales de comunicación del autómata. Seguidamente se describen algunos de los equipos periféricos más comunes: Módulos de ampliación de entradas y salidas: Necesarios para aquellos procesos en los que la estructura de E/S del autómata sea insuficiente.
Módulos de tratamiento de datos: Son pequeños ordenadores que manejan distintos datos (contaje, tiempo, estado de E/S, etc.), para la elaboración de informes, gráficos, etc. Impresoras. Visualizadores alfanuméricos. Lectores de código de barras. La forma de comunicarse el autómata con sus periférícos puede ser unidireccional, cuando se establece en un sólo sentido, o bien bidireccional, cuando se establece en los dos sentidos. Los enlaces para ambos tipos de comunicación suelen ser por lo general del tipo serie, siendo los más empleados los anteriormente mencionados RS-232C y RS-422, ambos de acuerdo con las normas de la EIA (Electronic Industries Association).
El RS-232C es el método de transmisión de datos más difundido, pero tiene la limitación de la distancia máxima de transmisión a 15 metros y la velocidad máxima de transmisión de 19.200 baudios (1 baudio = 1 bit/segundo).El RS-422 resuelve en parte las limitaciones del RS-232C. La distancia de transmisión puede superar un kilómetro y la velocidad puede llegar a 10 Mbaudios. Programación del autómata Para controlar un determinado proceso, el autómata realiza sus tareas de acuerdo con una serie de sentencias o instrucciones establecidas en un programa. Dichas instrucciones deberán haber sido escritas con anterioridad por el usuario en un lenguaje comprensible para la CPU.