text
stringlengths
35
3.53k
Esta capacidad calorífica corresponde a la población de fonones (vibraciones colectivas de la red).Un compuesto magnético (que presente interacciones magnéticas) tendrá, superpuesta a esta función, un pico de baja intensidad, correspondiente a la temperatura a la que se pueblan los niveles de energía magnéticos. Año mundial de la física 2005 La física es una de las ciencias básicas para la comprensión de la naturaleza. Las aplicaciones de la física son la base esencial para la mayor parte de la tecnología actual.
Con el propósito de fomentar la educación de la física y desarrollar el interés por esta disciplina científica la Unión Internacional de Física Pura y Aplicada (International Union of Pure and Applied Physics, IUPAP) propuso a la UNESCO la conmemoración durante el año 2005 del año mundial de la física.Dado que el año 2005 marca el centenario de una serie de importantes publicaciones científicas realizados por Albert Einstein en 1905 la IUPAC, bajo recomendación de la Sociedad Europea de Física, sugirió la declaración durante el 2005 del año mundial de la física. Una propuesta apoyada por UNESCO. El año mundial de la física fue inaugurado en España tras un acto en el Congreso de los diputados el 11 de febrero de 2005.
La inauguración a nivel mundial del Año Mundial de la Física tuvo lugar del 13 al 15 de febrero en la sede de la UNESCO en París.En España algunos estudiantes han puesto en marcha una iniciativa denonimada física-es que se basa en el uso de herramientas que liberan el conocimiento para que todos los amantes de la física de España tengan un lugar de referencia y participación en Internet. Enlaces externos Año mundial de la física Física-es World Year of Physics 2005 (en inglés) (Enlace roto. Disponible en Internet Archive el historial y la última versión.)
Antena de bocina Una antena de bocina, y su guía de ondas Una bocina es una antena que consiste en una guía de onda en la cual el área de la sección se va incrementando progresivamente hasta un extremo abierto, que se comporta como una apertura.Tipos de bocinas Una guía de onda rectangular, que propaga el modo fundamental TE10, si se abre en el plano horizontal se denominará bocinas de plano H, si se abre en el plano vertical se denominará bocinas de plano E, y si se abre simultaneamente en ambos planos se denomina bocina piramidal. La bocina cónica está formada por una guía de onda circular, que propaga el modo fundamental TE11, que se abre en forma de cono y termina en forma de apertura circular.
Aplicaciones de las bocinas Las bocinas se suelen utilizar para iluminar un reflector, formando lo que se denomina una antena parabólica.También se pueden utilizar de forma aislada, como antenas de cobertura global en satélites o bien formando agrupaciones, para conformar un determinado diagrama de radiación, para conseguir una cobertura de un continente o un país. Las bocinas pueden utilizarse para transmitir o recibir ondas una determinada polarización. Para transmitir o recibir simultáneamente en más de una polarización es necesario utilizar un dispositivo en guía de onda denominado ortomodo. Anthony J. Leggett Sir Anthony James Leggett (26 de marzo de 1938 — ), físico del Reino Unido.
Fue premiado con el Premio Nobel de Física en 2003 por sus contribuciones a la teoría de los supercondutores y superfluidos, y con el Premio Wolf en Física en la edición 2002-3 Enlaces externos Laureados con el Premio Nobel de Física 2003 Anticonmutador Se define el anticonmutador de dos operadores lineales y como la combinación: La relación anterior requiere que la intersección de los dominios de ambos operadores sea un conjunto denso de un mismo espacio de Hilbert.Los anticonmutadores tienen gran importancia en la definición de las álgebras de Clifford, y por tanto, en las relaciones algebraicas que definen los espinores. Una relación que, aunque trivial, es de gran utilidad en los cálculos con operadores lineales no conmutantes es: donde es el conmutador de ambos operadores.
Aplicaciones Véase también Anticonmutatividad Álgebra de Clifford Antielectrón El antielectrón (o positrón) es la antipartícula correspondiente al electrón, por lo que posee la misma masa y la misma carga eléctrica, aunque obviamente de signo contrario (es positiva).No forma parte de la materia ordinaria, sino de la antimateria, aunque se producen en numerosos procesos radioquímicos como parte de transformaciones nucleares. Esta partícula fue predicha por Paul Dirac en el año de 1928, para luego ser descubierta en el año 1932 por el fisico norteamericano Anderson al fotografiar las huellas de los rayos cosmicos en una cámara de niebla .
En la actualidad los positrones son rutinariamente producidos en la Tomografía por emisión de positrones usados en las instalaciones hospitalarias.
Contenido 1 Creación de positrones por pulso láser 2 El positrón en la ciencia ficción 3 Véase también 4 Referencias 5 Enlaces externos Creación de positrones por pulso láser En noviembre de 2008 la doctora Hui Chen del Lawrence Livermore National Laboratory de Estados Unidos anunció que ella y su equipo habrían creado positrones al hacer incidir un breve aunque intenso pulso láser a través de una lámina de oro blanco de pocos milímetros de espesor, esto habría ionizado al material y acelerado sus electrones los electrones acelerados emitieron cuantums de energía que al decaer dieron lugar a partículas materiales y dando también por resultado positrones[1] .
El positrón en la ciencia ficción Sin duda el antielectrón adquirió fama en las diferentes novelas de robots de Isaac Asimov.Esta partícula era esencial para la fabricación de las sendas positrónicas en donde se programaría luego al robot, haciendo las veces de neuronas mecánicas. En conjunto las sendas se acoplaban y se posicionaban cuidadosamente en la cabeza del mismo. El autor admitió en vida que había tomado esta partícula como pilar de sus cerebros robóticos debido a que se había descubierto recientemente y eso atraería el interés de los lectores de la época.
Asimismo el positrón fue utilizado en diferentes series como fuente de energía de armas y poderes; En Aventura Digimon 02 Imperialdramon utiliza un ataque conocido como "Laser Positrónico" En Neon Génesis Evangelion, de Hideaki Anno, el rifle positrónico es utilizado en varias ocasiones contra los ángeles invasores.Siendo el más notable Ramiel. En la nueva saga de Star Trek, el androide "Data" está construido con un cerebro positrónico. En la película El hombre bicentenario con el actor Robin Williams. Véase también Antimateria Física de partículas Electrón Protón Aniquilación positrón-electrón Referencias 1. 1.
Enlaces externos Particle Data Group Antiferromagnetismo Ordenamiento antiferromagnético El antiferromagnetismo es el ordenamiento magnético de todos los momentos magnéticos de una muestra, en la misma dirección pero en sentido inverso (por pares, por ejemplo, o una subred frente a otra).Un antiferromagneto es el material que puede presentar antiferromagnetismo. La interacción antiferromagnética es la interacción magnética que hace que los momentos magnéticos tiendan a disponerse en la misma dirección y en sentido inverso, cancelándolos si tienen el mismo valor absoluto, o reduciéndolos si son distintos. Ha de extenderse por todo un sólido para alcanzar el antiferromagnetismo.
Como el ferromagnetismo, la interacción antiferromagnética se destruye a alta temperatura por efecto de la entropía.La temperatura por encima de la cual no se aprecia el antiferromagnetismo se llama temperatura de Neel. Por encima de esta, los compuestos son típicamente paramagnéticos. Generalmente, los antiferromagnetos están divididos en dominios magnéticos. En cada uno de estos dominios, todos los momentos magnéticos están alineados. En las fronteras entre dominios hay cierta energía potencial, pero la formación de dominios está compensada por la ganancia en entropía.
Al someter un material antiferromagnético a un campo magnético intenso, algunos de los momentos magnéticos se alinean paralelamente con él, aún a costa de alinearse también paralelo a sus vecinos (superando la interacción antiferromagnética).Generalmente, se requiere un campo magnético muy intenso para conseguir alinear todos los momentos magnéticos de la muestra. Las interacciones antiferromagnéticas pueden producir momentos magnéticos grandes, incluso imanación. El ferromagnetismo ocurre en sistemas en los que una interacción antiferromagnética entre momentos magnéticos de diferente magnitud implica un momento magnético resultante grande. La magnetita es un sólido extendido que presenta ferrimagnetismo: es un imán, aunque las interacciones son antiferromagnéticas.
El Mn12 es una molécula que presenta el mismo fenómeno: interacciones antiferromagnéticas conllevan un momento magnético grande del estado fundamental.Por otro lado, los sistemas con canteo de espín, con interacciones antiferromagnéticas presentan imanación, por pequeñas desviaciones angulares del alineamiento de los momentos magnéticos, no totalmente antiparalelos. Véase también Ferromagnetismo Magnetismo Antifusible Se llama antifusible (antifuse) a un dispositivo programable, desarrollado por Actel para su familia de redes lógicas programables. La matríz de antifusibles consiste en líneas paralelas conductoras, normalmente de aluminio, recubiertas por una capa fina de dieléctrico, normalmente dióxido de silicio.
sobre el óxido se deposita otra capa de líneas conductoras perpendiculares a las anteriores.Esta estructura permite realizar varias capas superpuestas de antifusibles, ahorrando superficie de silicio, reservándola para los transistores. La programación se realiza estableciendo una tensión elevada entre dos líneas que se cruzan. Esta tensión es superior a la rigidez dieléctrica del óxido y el campo eléctrico lo rompe. Entonces salta un pequeño arco entre las dos pistas, que las funde parcialmente, soldándolas, estableciendo así una conexión permanente. Aunque la programación parezca similar a la de las ROM de fusible, se distingue en que se realiza por tensión, mientras que aquellas se programan por corriente.
La consecuencia es que la energía por bit necesaria durante la programación es mucho menor, permitiéndo una programación rápida.Véase también PROM FPGA Antigravedad La Antigravedad (o Anti-gravedad), es una fuerza teórica o hipotética predicha por las leyes de la física de altas energías que consiste en la repulsión de todos los cuerpos debido a una fuerza que es igual en magnitud a la gravedad pero en vez de ser atractiva, esta fuerza sería repulsiva. Aspectos generales La antimateria es un tipo de materia que es simétricamente igual a la materia ordinaria o como la conocemos, pero una de sus diferencias, es que sus cargas son completamente opuestas respondiendo a las leyes de la supersimetría del universo.
Una de las creencias de la antimateria, es que es posible que su comportamiento sea también opuesto al de la materia ordinaria, al igual que otra de sus propiedades podrían también ser opuestas como el espín.En la actualidad se sabe que la materia está formada por átomos, partículas diminutas que se creían (a principios del siglo XX) que eran indivisibles formado por un núcleo en donde se encuentran los protones y neutrones y pequeñas partículas cargadas electricamente que giran alrededor del núcleo llamadas electrones.
A principios del siglo XX, el físico Neozelandés Ernest Rutherford (Premio Nobel de Química 1908) consiguió demostrar que los átomos no eran partículas sólidas si no que eran huecas y que los electrones deberían estar alrededor del núcleo (y no incrustados en el núcleo como afirmaba Joseph John Thomson) girando en torno a él, teoría complementada por el físico Danés Niels Bohr (Premio Nobel de física 1922).Para 1975, ya se sabía que los átomos no eran los constituyentes más pequeños de la materia si no que tanto los protones como los neutrones, estaban aún constituidos por sub-partículas, hoy en día denominadas partículas elementales.
Específicamente, los neutrones están constituidos por dos Quarks Down y un Quark Up y los protones están constituidos por dos Quarks Up y un Quark down.Estas partículas o son los fermiones o son los Bosones . Los Fermiones son los constituyentes de toda la materia que podemos observar y ellos a su vez pueden ser Leptones o Quarks; y los bosones se dividen en: Bosones de Gauge que son los Bosones W y Z, el fotón y el gluón y los Bosones Hipotéticos que son el gravitón y el Bosón de Higgs .
Discusión El Gravitón como anteriormente se describió, es un bosón hipotético y sería responsable de la interacción gravitatoria de la materia (interacción atractiva), y su existencia es perfectamente predecible por las actuales leyes de la física de partículas y la teoría de Gravedad cuántica y dicho bosón serían como un conectivo a unas de las grandes teorías de la física en la actualidad como es la Teoría del todo.De igual forma como se describió en un principio, toda partícula, posee su respectiva antipartícula como por ejemplo el electrón posee su antipartícula que es el Positrón.
Teóricamente y siguiendo este mismo patrón de conducta y comportamiento simétrico del universo, el gravitón también poseería su antipartícula y se llamaría (de principio) Antigravitón y que hipotéticamente hablado, sería una antipartícula elemental y si las propiedades y comportamientos de la antimateria son perfectamente opuestos al de la materia como la conocemos, el antigravitón sería responsable de una interacción repulsiva mediante una fuerza que mantendría a estas antipartículas separadas con una magnitud perfectamente igual a la ejercida por el gravitón para que se produzcan las interacciones atractivas.
Antiguas medidas españolas Contenido 1 Medidas de Castilla 1.1 Medidas de Longitud 1.2 Medidas de Superficie 1.3 Medidas de Peso 1.4 Medidas de Capacidad para granos 1.5 Medidas de Capacidad para vinos 1.6 Otras medidas Medidas de Castilla Medidas de Longitud 1 Legua 6665,9 varas 5572,7 metros 1 4 varas Estadal 3,3436 metros 1 Vara 3 pies 0,8359 metros 1 Braza 2 varas 1,6718 metros 1 Paso 10 sesmas 0,744 metros 1 1/4 de Cuarta vara 0,2090 metros 1 pie 12 pulgadas 0,27863 metros 1 1512 1 pulgada líneas 2,4998530 centímetros = 0,02499853 metros 1 Línea 12 puntos 1,935 milímetros = 0,001935 metros 1 Punto 0,16125 milímetros = 0,00016125 metros Medidas de Superficie 1 Fanega de tierra 12 celemines cuadrados 576 Estadales cuadrados 1 Estadal 16 Varas 11,179 Metros 6.439,5 Metros cuadrados cuadrado cuadradas cuadrados 0,6987 1 Vara Metros cuadrada cuadrados 1 1 Metro Centiarea cuadrado Medidas de Peso 1 Tonelada 20 920,16 Quintales kilogramos 1 Quintal 4 Arrobas 46,008 kilogramos 1 Arroba 25 Libras 11,502 kilogramos 1 Libra 16 Onzas 0,46008 kilogramos 1 Marco 1/2 Libra 8 Onzas 1 Cuarterón 1/4 Libra 0,11502 kilogramos 1 Onza 8 Ochavas 16 Adarmes 0,23004 kilogramos 28,755 Gramos 1 Fanega de trigo 94 Libras 43,247 kilogramos 1 Fanega de centeno 90 Libras 41,407 kilogramos 1 Fanega de cebada 70 Libras 32,205 kilogramos Medidas de Capacidad para granos 1 Cahíz 12 Fanegas 666 Litros 1 Fanega 12 Celemines 55,5 Litros 1 Celemín 1 Almud 4 Cuartillos 1 Medio 1/2 Celemín 2,3125 Litros 1 Cuartillo 4 Ochavos 1,156 litros Medidas de Capacidad para vinos 16 258,128 4,625 Litros 1 Moyo cántaras litros 1 Cántara o arroba 8 16,133 azumbres litros 1 Azumbre 4 2,0166 Cuartillos litros 1 Botella 1,5 0,75623 Cuartillos litros 1 Cuartillo 4 Copas 1 Copa o Cortadillo 1 0,126 cuarterón litros 0,504 litros (En Vascongadas, 2,52 litros) (En Vascongadas: 0,63 litros) Otras medidas 1 0,25 Panilla libras 0,11502 kg medida exclusiva para aceite Antiquark Se ha sugerido que este artículo o sección sea fusionado con Quark (ver la discusión al respecto).
Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F.El antiquark es la antipartícula que corresponde a un quark. El número de tipos de quarks y antiquarks en la materia es el mismo. Se representan con los mismos símbolos que aquellos, pero con una barra encima de la letra correspondiente. Con la diferencia del quark extrano y encanto que le corresponderian el antiquark comun y antiquark odio. Estos tienen una antivalencia de seis antigluones y 9 antibosones que solo se han encontrado en Siberia y Rusia Ejemplo: si un quark se representa , un antiquark es . Véase también Partículas elementales Quark Antony Hewish Antony Hewish nació en Fowey, Cornualles, el 11 de mayo de 1924.
Este radioastrónomo británico ganó el Premio Nobel de Física en 1974 (junto con el radioastrónomo Martin Ryle) por su trabajo en el desarrollo de la síntesis de apertura de radio y su papel en el descubrimiento del primer púlsar.También le otorgaron la Medalla Eddington de la Royal Astronomical Society en 1969. Sus estudios de licenciatura en la Universidad de Cambridge fueron interrumpidos por servicios en la Royal Aircraft Establishment, y la Telecommunications Research Establishment, donde trabajó codo con codo con Martin Ryle. Al volver a Cambridge en 1946, Hewish completó su licenciatura e inmediatamente se unió al grupo de investigación de Ryle en el Laboratorio Cavendish, obteniendo su doctorado (PhD) en 1952.
Hewish realizó avances tanto prácticos como teóricos en la observación del aparente parpadeo de las fuentes de radio debido a su incisión sobre el plasma.Esto le llevó a proponer la construcción del Interplanetary Scintillation Array, una gran trama de telescopios en el Observatorio Mullard de Radio Astronomía (MRAO), en Cambridge, con el fin de realizar un seguimiento preciso del parpadeo de las fuentes de radio. Durante el curso de este proyecto una estudiante de posgrado, Jocelyn Bell, registró por primera vez la fuente de radio que sería finalmente identificada como el primer púlsar. El trabajo que anunciaba este descubrimiento contenía cinco nombres, el de Hewish el primero y el de Bell el segundo.
El Nobel fue concedido a Ryle y Hewish sin la inclusión de Bell, lo que fue muy controvertido.Algunos argumentan, sin embargo, que el premio fue concedido a Ryle y Hewish por su trabajo en el campo de la radioastronomía general, donde ambos realizaron avances esenciales para la evolución de la astrofísica. Hewish fue profesor de radioastronomía en el Laboratorio Cavendish desde 1971 hasta 1989,y fue director del Observatorio Mullard de Radio Astronomía (MRAO) entre 1982 y 1988. Lo hicieron Fellow de la Royal Society en 1968, y como hemos dicho, recibió junto con Martin Ryle el Premio Nobel de Física en 1974. Antony Hewish sigue siendo Fellow del Churchill College, en Cambridge.
Apantallamiento eléctrico El apantallamiento (screening en inglés) es fruto del solapamiento producido por los campos eléctricos de partículas en movimiento siempre y cuando la velocidad sea menor de 50 kilómetros por hora si es mayor, sera similar a la de de un cohete que viaje a la luna con cargas opuestas.Se da especialmente en gases ionizados (plasma) o en metales. En astrofísica este fenómeno es especialmente importante ya que hace que la carga eléctrica de los objetos astrofísicos se considere irrelevante. También participa como potenciador de las reacciones de fusión en los núcleos de las estrellas llegando a aumentar su rendimiento en hasta un 20%.
Apantallamiento en las reacciones de fusión Los iones para fusionarse han de romper una barrera de potencial electromagnético.En un gas ionizado no sólo hay iones sino que también vagan libremente los electrones producto de la ionización de los átomos neutros. Estas partículas generan sus propios campos de signo opuesto al de los núcleos desnudos. Estos campos se superponen y logran rebajar esa barrera de potencial facilitando así las reacciones de fusión. La sección eficaz es el parámetro que mide la probabilidad de interacción entre dos partículas. Para el caso de los iones estos tienen su propia sección eficaz que puede verse incrementada por la presencia del apantallamiento.
Así podemos matematizar dicho fenómeno mediant un factor llamado factor de apantallamiento.Este factor se multiplica a la sección eficaz teórica para dar un nuevo valor que tiene en cuenta el apantallamiento electrónico. Donde k es la constante de Boltzmann y Eap la energía de apantallamiento que se calcula como sigue: Véase también: Producción de energía en las estrellas Sección eficaz Pico de Gamow Apelotonamiento rojo Evolución de estrellas de distintas masas representadas en el diag Hertzsprung-Russell. La fase del apelotonamiento rojo aparece m para el caso de una estrella de 2 masas solares.
El apelotonamiento rojo[1] (AR, en inglés red clump) es una de las fases tardías de la evolución estelar de las estrellas de masa intermedia (0,5 MSol < M < 9-10 MSol) y alta metalicidad.Esta fase está situada a la derecha y algo por encima en el diagrama de Hertzsprung-Russell con respecto a la parte central-inferior de la secuencia principal (donde estas estrellas comienzan su vida), lo que implica que son objetos de baja temperatura y luminosidad intermedia. De ahí, que los radios de las estrellas del apelotonamiento rojo sean mucho mayores que los de las estrellas de la secuencia principal.
Este periodo en la fase de una estrella se corresponde con el quemado de helio en su núcleo y va precedido por la fase de gigante roja (donde se quema hidrógeno en una capa alrededor de un núcleo inerte de helio).Compárese esto con la fase de secuencia principal, en la que se quema hidrógeno en el núcleo. Los modelos predicen que las luminosidades absolutas de las estrellas del apelotonamiento rojo son relativamente independientes de su masa y metalicidad, por lo que pueden ser usadas para estimar su distancia. Este método se aplica con frecuencia a cúmulos situados en la Vía Láctea y a objetos situados en galaxias cercanas. [2] Véase también Evolución estelar Estrellas Proceso triple-alfa Rama horizontal Referencias 1.
Seidel, E. et al.1987, ApJS 63, 917 2. Cole, A. 1998, ApJL 500, 137 Aplicación de la ecuación de Poisson en macromoléculas En el estudio de las macromoléculas es posible hacer uso de ecuaciones utilizadas habitualmente en la dinámica de fluidos o en el electromagnetismo; una de estas es la ecuación de Poisson, que es posible obtener a partir de la ley de Gauss en forma diferencial: con: Reemplazando, se obtiene: la cual es la ecuación de Poisson, si se toma en una región del campo donde la densidad de carga es cero: cuya ecuación es la ecuación de Laplace. Una de las características del operador laplaciano es ser invariante, por que es el resultado de dos operaciones sucesivas invariantes.
Por ejemplo, el laplaciano de un potencial electrostático es cero en regiones donde hay carga espacial cero.Así, el problema general se remonta a encontrar el potencial electrostático V correspondiente a una distribución de carga dada y encontrar una solución de la ecuación de Laplace o de Poisson que satisfaga las condiciones de contorno. Condiciones de contorno Potencial: en la frontera entre 2 medios diferentes el potencial debe ser continuo. Una discontinuidad implicaría una intensidad infinitamente grande de campo eléctrico, lo cual es imposible en la física. El potencial debe ser cero en el infinito si la distribución de carga está extendida de manera finita, y debe ser constante a través de algún conductor en todo el tiempo que las cargas estén en reposo.
Momento dipolar inducido: moléculas polarizadas o con un diminuto desplazamiento de las cargas positivas (+) y negativas (-) Equilibrio de polarización: debe existir alineación neta.Los modelos electrostáticos asumidos para estudiar las macromoléculas están basados en la ecuación de Poisson. Las dificultades que esto implican tienen que ver con el hecho de que, teniendo los modelos macromoleculares, se requieren los métodos para aplicar la ecuación de Poisson.
Si las cargas se representan explícitamente como formas puntuales, y sus interaccione se efectúan en el espacio libre, se puede aplicar como solución la ley de Coulomb: donde la sumatoria se efectúa sobre todas las i, el término r1 es la posición y el qi la magnitud de la i+n cargas puntuales.En otros casos puede suceder que si la distribución de carga que genera el potencial está presente en un medio complejo, es posible usar promedios espaciales para cuantificar la respuesta del medio a los campos generados por la distribución de carga.
Si el dieléctrico varía en el espacio, entonces la ecuación de Poisson toma la forma: Puesto que tal distribución de carga puede estar en un medio complejo se puede promediar la respuesta del medio ante ese campo eléctrico por medio de los momentos dipolares.Véase también Macromolécula Ecuación de Poisson Armónicos esféricos En matemáticas, los armónicos esféricos son funciones armónicas que representan la variación espacial de un conjunto ortogonal de soluciones de la ecuación de Laplace cuando la solución se expresa en coordenadas esféricas.
Los armónicos esféricos son importantes en muchas aplicaciones teóricas y prácticas, en particular en la física atómica (dado que la función de onda de los electrones contienen armónicos esféricos), la teoría del potencial que resulta relevante tanto para el campo gravitatorio como para la electrostática.
Contenido 1 Introducción 2 Normalización 2.1 Convención de fase de Condon-Shortley 3 Expansión en armónicos esféricos 4 Análisis espectral 5 Teorema de la suma 6 Visualización de los armónicos esféricos 7 Ejemplos de los primeros armónicos esféricos 8 Generalizaciones 9 Véase también 10 Referencias 11 Software Introducción Armónicos esféricos de variable real Ylm, para l =0,...,4 (de arriba a abajo) y m = 0,...,4 (de izquierda a derecha).Los armónicos con m negativo Yl-m son idénticos pero rotados 90º/m grados alrededor del eje Z con respecto a los positivos.
La ecuación de Laplace en coordenadas esféricas viene dada por: (véase también nabla y laplaciano en coordenadas esféricas).Si en esta expresión se consideran soluciones particulares de la forma, , la parte angular Y, se le denomina armónico esférico y satisface la relación: Si a su vez se usa el método de separación de variables a esta última ecuación se puede ver que la ecuación anterior admite soluciones periódicas en las dos coordenadas angulares l es un número entero.
Entonces la solución periódica del sistema anterior dependerá de los dos enteros (l, m) y vendrá dada en términos de funciones trigonométricas y de Polinomios de Legendre: , Donde y orden m, se llama función armónica esférica de grado es el polinomio asociado de Legendre, N es una constante de normalización y y representan las variables angulares (el ángulo azimutal o colatitud y polar o longitud, respectivamente).Las coordenadas esféricas utilizadas en este artículo son consistentes con las utilizadas por los físicos, pero difieren de las utlizadas por los matemáticos (ver coordenadas esféricas). En particular, la colatitud , o ángulo polar, se encuentra en el rango y la longitud ,o azimuth, posee el rango .
Por lo tanto, es 0 en el Polo Norte, / 2 en el Ecuador, y en el Polo Sur.Cuando la ecuación de Laplace se resuelve sobre un dominio esférico, las condiciones de periodicidad sobre la frontera en la coordenada así como las condiciones de regularidad en el "polo norte" y "sur" de la esfera, conllevan como se ha dicho que los números el grado l y el orden m necesarios para que se satisfagan deben ser enteros que cumplen: y . Normalización Existen varias normalizaciones utilizadas para las funciones de armónicos esféricos. En física y sismología estas funciones son generalmente definidas como donde Estas funciones son ortonormalizadas , donde aa = 1, ab = 0 si a b, (ver delta de Kronecker).
Mientras que en las áreas de geodésica y análisis espectral se utiliza que posee una potencia unitaria .En temas de magnetismo, en cambio, se utilizan los armónicos de Schmidt semi-normalizados poseen la siguiente normalización . Utilizando la identidad (ver funciones asociadas de Legendre) se puede demostrar que todas las funciones armónicas esféricas normalizadas mencionadas en los párrafos anteriores satisfacen , donde el símbolo * significa conjugación compleja. Convención de fase de Condon-Shortley Una fuente de confusión con la definición de los esféricos armónicos es el factor de fase de , comúnmente identificado como la fase de Condon-Shortley en la literatura relacionada con mecánica cuántica.
En el área de mecánica cuántica, es práctica usual incluir este factor de fase en la definición de las funciones asociadas de Legendre, o acoplarlo a la definición de las funciones armónicas esféricas.No existe ningún requerimiento que obligue a utilizar la fase de Condon-Shortley en la definición de las funciones esféricas armónicas, pero si es que se la incluye entonces algunas operaciones en el campo de la mecánica cuántica son más simples. Por el contrario en los campos de geodesia y magnetismo nunca se incluye el factor de fase de Condon-Shortley en la definición de los esféricos armónicos.
Expansión en armónicos esféricos Los armónicos esféricos forman un conjunto completo ortonormal de funciones y por lo tanto forman un espacio vectorial análogo a vectores unitarios de la base.Sobre la esfera unitaria, toda función de cuadrado integrable puede, por lo tanto, ser expandida como una combinación lineal de: . Esta expansión es exacta siempre y cuando se extienda a infinito. Se producirá un error de truncamiento al limitar la suma sobre a un ancho de banda finito L. Los coeficientes de la expansión pueden obtenerse multiplicando la ecuación precedente por el complejo conjugado de los esféricos armónicos, integrando sobre un ángulo sólido , y utilizando las relaciones de ortogonalidad indicadas previamente.
Para el caso de armónicos ortonormalizados, se obtiene .Un conjunto alternativo de armónicos esféricos para funciones reales puede ser obtenido a partir del conjunto Estas funciones tienen las mismas propiedades de normalización que las funciones complejas indicadas previamente. En esta notación, una función real integrable puede ser expresada como una suma de armónicos esféricos de infinitos términos como . Análisis espectral La potencia total de una función f es definida en la literatura de procesamiento de señales electrónicas como la integral de la función elevada al cuadrado, divida por el área que abarca.
Usando las propiedades de ortonormalidad de las funciones esfericas armónicas de potencia real unitaria, es facil verificar que la potencia total de una función definida sobre la esfera unitaria se relaciona con sus coeficientes espectrales a través de una generalización del teorema de Parseval: , donde se define como el espectro de potencia angular.En forma similar, se puede definir la potencia cruzada entre dos funciones como , donde se define como el espectro cruzado en este caso. Si las funciones f y g tienen un valor promedio igual a cero (o sea los coeficientes espectrales f00 y g00 son nulos), entonces y Sfg(l) representan las contribuciones a la varianza y covarianza de la función para el grado , respectivamente.
Es común que el espectro de potencia cruzado se pueda aproximar por una power law del tipo .Cuando = 0, el espectro es "blanco" dado que cada grado posee idéntica potencia. Cuando < 0, el espectro se denomina "rojo" ya que existe mayor potencia a grados bajos con longitudes de onda largas que a altos grados. Finalmente, cuando > 0, el espectro es denominado "azul". Teorema de la suma Un resultado matemático de sumo interés y utilidad es el llamado teorema de la suma para los armónicos esféricos. Dos vectores r y r', con coordenadas esféricas y , respectivamente, tienen un ángulo entre ellos dado por la expresión .
El teorema de la suma expresa un polinomio de Legendre de orden l en el ángulo en términos de los productos de dos armónicos esféricos con coordenadas angulares : y . Esta expresión es válida tanto para los armónicos reales como para los complejos.Sin embargo, debe enfatizarse que la fórmula indicada previamente es válida solo para armónicos esféricos ortonormalizados. Para armónicos de potencia unitaria es necesario eliminar el factor 4 de la expresión anterior. Visualización de los armónicos esféricos Representación esquemática de Ylm sobre la esfera unitaria. Y lm es igual a 0 a lo largo de m círculos que pasan a través de los polos, y a lo largo de l-m círculos de igual latitud.
La función cambia de signo cada vez que cruza una de dichas lineas.La función armónica esférica real Y32 mostrada a lo largo de cuatro cortes. Los armónicos esféricos son fáciles de visualizar contando el número de cruces por cero que ellos tienen tanto en dirección de las latitudes como de las longitudes. Para la dirección en las latitudes, las funciones asociadas de Legendre tienen l | m | ceros, mientras que en sentido longitudinal, las funciones trigonometricas seno y coseno tienen 2 | m | ceros. Cuando el armónico esférico de orden m es nulo o cero, las funciones armónicas esféricas no dependen de la longitud, y se dice que la función es zonal.
Cuando l = | m | , no existen cruces por cero en sentido de las latitudes, y se dice que la función es sectorial.Para otro casos, las funciones forman un damero sobre la esfera. Ejemplos de los primeros armónicos esféricos Expresiones analíticas de los primeros armónicos esféricos ortonormalizados, que usan la convención de fase de Condon-Shortley: Tabla de armónicos esféricos hasta Y10 Generalizaciones El mapa de los armónicos esféricos puede ser visto como representaciones de la simetría de grupo de rotaciones alrededor de un punto (SO(3)) y recubridor universal SU(2). Por lo tanto, capturan la simetría de la esfera de dos dimensiones.
Cada grupo de armónicos esféricos con un valor dado del [[parámetro] l da lugar a una representación irreduble diferente del grupo SO(3).Además, la esfera es equivalente a la esfera de Riemann. El conjunto completo de simetrías de la esfera de Riemann se describen mediante el grupo de transformaciones de Möbius PSL(2,C), que es isomorfo al grupo de Lie real llamado grupo de Lorentz. El análogo del los armónicos esféricos con respecto al grupo de Lorentz es la serie hipergeométrica; de hecho, los armónicos esféricos pueden reescribirse en términos de la serie hipergeométrica, dado que SO(3) es un subgrupo de PSL(2,C).
Más específicamente, se puede generalizar a la serie hipergeométrica para describir las simetrías de cualquier espacio de simetría; en particular, la serie hipergeométrica puede ser desarrollada para todo grupo de Lie[1] [2] [3] [4] Véase también coeficientes de Clebsch-Gordan función armónica Grupo de rotaciones Teoría de Sturm-Liouville Referencias Referencias citadas 1.N. Vilenkin, Special Functions and the Theory of Group Representations, Am. Math. Soc. Transl., vol. 22, (1968). 2. J. D. Talman, Special Functions, A Group Theoretic Approach, (based on lectures by E.P. Wigner), W. A. Benjamin, New York (1968). 3. W. Miller, Symmetry and Separation of Variables, Addison-Wesley, Reading (1977). 4.
A. Wawrzyczyk, Group Representations and Special Functions, Polish Scientific Publishers.Warszawa (1984). Referencias Generales A.R. Edmonds, Angular Momentum in Quantum Mechanics, (1957) Princeton University Press, . E. U. Condon and G. H. Shortley, The Theory of Atomic Spectra, (1970) Cambridge at the University Press, , See chapter 3. J.D. Jackson, Classical Electrodynamics, Albert Messiah, Quantum Mechanics, volume II. (2000) Dover. . D. A. Varshalovich, A. N. Moskalev, V. K. Khersonskii Quantum Theory of Angular Momentum,(1988) World Scientific Publishing Co., Singapore, Enlaces Web Spherical harmonics on Mathworld Spherical Harmonic Models of Planetary Topography Spherical harmonics generator in OpenGL General Solution to LaPlace's Equation in Spherical Harmonics (Spherical Harmonic Analysis). Solid Earth Geophysics.
Software SHTOOLS: Fortran 95 software archive HEALPIX: Fortran 90 and C++ software archive SpherePack: Fortran 77 software archive SpharmonicKit --> Arno Allan Penzias Arno Penzias Arno Allan Penzias (nacido el 26 de abril de 1933) es un físico estadounidense.Nació en Munich, Alemania. Penzias ganó en 1978 el Premio Nobel de Física, junto con Robert Woodrow Wilson, por su descubrimiento accidental en 1964 de la radiación cósmica de fondo de microondas o CMB (el premio de ese año fue compartido con Pyotr Leonidovich Kapitsa por un trabajo diferente). Mientras trabajaban en un nuevo tipo de antena en los Laboratorios Bell en Holmdel, Nueva Jersey, encontraron una fuente de ruido en la atmósfera que no podían explicar.
Luego de afinar la recepción de la antena, el ruido fue finalmente identificado cono CMB, lo cual confirmaba supuestos planteados por la teoría del Big Bang.Penzias se graduó en el City College of New York en 1954. Tiene maestría (1958) y doctorado de la Universidad de Columbia (1962). Enlaces externos Arno Allan Penzias Arrastre (física) Un objeto que cae a través de un gas o líquido experimenta una fuerza en sentido opuesto a su movimiento. Se alcanza la velocidad terminal cuando la fuerza de arrastre es igual a la fuerza de la gravedad que tira de él. En dinámica de fluidos, el arrastre o fricción de fluido es la fricción entre un objeto sólido y el fluido (un líquido o gas ) por el que se mueve.
Para un sólido que se mueve por un fluido o gas, el arrastre es la suma de todas las fuerzas aerodinámicas o hidrodinámicas en la dirección del flujo del fluido externo.Por tanto, actúa opuestamente al movimiento del objeto, y en un vehículo motorizado esto se resuelve con el empuje. En la astrodinámica, dependiendo de la situación, el arrastre atmosférico se puede considerar como una ineficiencia que requiere energía adicional durante el lanzamiento del objeto al espacio o como una ventaja que simplifica el regreso desde la órbita.
Arthur Compton Arthur Holly Compton (n. Wooster, Ohio, 10 de septiembre de 1892 - † Berkeley, California, 15 de marzo de 1962) fue un físico estadounidense galardonado con el Premio Nobel de Física en 1927.Contenido 1 Biografía 2 Investigaciones científicas 3 Reconocimientos 4 Véase también 5 Enlaces externos Biografía Conferencia Solvay de 1927. Podemos observar a Arhtur Holly Compton el cuarto de la segunda fila comenzando por la derecha, sentado justo detrás de Albert Einstein Compton nació en Wooster (Ohio) y estudió en el Wooster College y en la Universidad de Princeton. En 1923 fue profesor de física en la Universidad de Chicago.
Durante su estancia en esta universidad, Compton dirigió el laboratorio en el que se produjo la primera reacción nuclear en cadena, lo que provocó que tuviera un papel relevante en el Proyecto Manhattan, la investigación que desarrolló la primera bomba atómica.Desde 1945 hasta 1953 Compton fue rector de la Universidad de Washington y después de 1954 fue catedrático de Filosofía Natural. Investigaciones científicas Sus estudios de los rayos X le llevaron a descubrir en 1922 el denominado efecto Compton. El efecto Compton es el cambio de longitud de onda de la radiación electromagnética de alta energía al ser difundida por los electrones. El descubrimiento de este efecto confirmó que la radiación electromagnética tiene propiedades tanto de onda como de partículas, un principio central de la teoría cuántica.
Por su descubrimiento del efecto Compton y por su investigación de los rayos cósmicos y de la reflexión, la polarización y los espectros de los rayos X compartió el Premio Nobel de Física de 1927 con el físico británico Charles Wilson.Reconocimientos En su honor, así como en el de su hermano Karl Taylor Compton, se bautizó al cráter Compton de la Luna así como el asteroide (52337) Compton, descubierto el 2 de septiembre de 1992 por Freimut Börngen y Lutz D. Schmadel. Véase también Observatorio de Rayos Gamma Compton Enlaces externos Wikiquote Wikiquote alberga frases célebres de Arthur Compton.
Página web del Instituto Nobel, Premio Nobel de Física 1927 (en inglés) Arthur Leonard Schawlow Arthur Leonard Schawlow (Mount Vernon, EUA 1921 Palo Alto 1999) fue un físico y profesor univesitario estadounidense galardonado con el Premio Nobel de Física en 1981.Biografía Nació el 5 de mayo de 1921 en la ciudad de Mount Vernon, situada en el estado norteamericano Nueva York. Hijo de un emigrante letón y una emigrante canadiense, en 1924 su familia se traslada a Canadá, donde estudió física en la Universidad de Toronto. Posteriormente amplió sus estudios en la Universidad de Columbia y entre 1961 y 1996 fue profesor de la Universidad de Stanford.
Investigaciones científicas Entre 1951 y 1961 trabajó en los Laboratorios Bell de Nueva Jersey, desarrollando trabajos sobre óptica e investigando sobre la superconductividad así como la dualidad máser/ láser.A partir de 1961, desarrolló en la Universidad de Stanford sus estudios sobre espectroscopia, y amplió su búsqueda en la superconductividad y la Resonancia magnética nuclear. En 1955 Schawlow, junto con Charles Townes, consiguió desarrollar el espectroscopio de microondas, y en 1958 se disputó, infructuosamente, la patente del láser con Gordon Gould. Finalmente, en 1981 fue galardonado con el Premio Nobel de Física por su contribución al desarrollo del láser espectroscópico, premio que compartió con Nicolaas Bloembergen y Kai Siegbahn.
Arthur Schawlow murió de leucemia el 28 de abril de 1999 en la ciudad de Palo Alto, situada en el estado de California.Enlaces externos Página del Instituto Nobel, Premio Nobel de Física 1981 (en inglés) ASIC Un Circuito Integrado para Aplicaciones Específicas, o ASIC por sus siglas en inglés, es un circuito integrado hecho a la medida para un uso en particular, en vez de ser concebido para propósitos de uso general. Por ejemplo, un chip diseñado únicamente para ser usado en un teléfono móvil es un ASIC. Por otro lado, los circuitos integrados de la serie 7400 son puertas lógicas que se pueden utilizar para una multiplicidad de aplicaciones.
En un lugar intermedio entre los ASIC y los productos de propósito general están los Productos Estándar para Aplicaciones Específicas, o ASSP por sus siglas en inglés.Con los avances en la miniaturización y en las herramientas de diseño, la complejidad máxima, y por ende la funcionalidad, en un ASIC ha crecido desde 5.000 puertas lógicas a más de 100 millones. Los ASIC modernos a menudo incluyen procesadores de 32-bit, bloques de memoria RAM, ROM, EEPROM y Flash, así como otros tipos de módulos. Este tipo de ASIC frecuentemente es llamado Sistema en un Chip, o SoC, por sus siglas en inglés. Los diseñadores de ASIC digitales usan lenguajes descriptores de hardware (HDL), tales como Verilog o VHDL, para describir la funcionalidad de estos dispositivos.
Las FPGA (Field Programmable Gate Arrays, matriz de puertas programables) son la versión moderna de los prototipos con puertas lógicas de la serie 7400.Contienen bloques de lógica programable e interconexiones programables que permiten a un modelo de FPGA ser usada en muchas aplicaciones distintas. Para los diseños más pequeños o con volúmenes de producción más bajos, las FPGAs pueden tener un costo menor que un diseño equivalente basado en ASIC, debido a que el costo fijo (el costo para preparara una línea de producción para que fabrique un ASIC en particular), es muy alto, especialmente en las tecnologías más densas, más de un millón de dólares para una tecnología de 90nm o menor.
Contenido 1 Historia 2 Diseño basado en Celdas Estándares (Standard Cell) 3 Diseño basado en Matriz de Puertas (Gate Array) 4 Diseño hecho totalmente a la medida (Full Custom Circuits) 5 Diseño estructurado (Structured Array) 6 Librería de celdas, diseño basado en IP, macros 7 FPGAs 8 Obleas multiproyecto 9 Fabricantes de ASIC (Fundiciones) 10 Véase también 11 Enlaces externos Historia Los primeros ASIC utilizaban tecnología de matriz de puertas.Ferranti fabricó tal vez la primera matriz de puertas, la ULA (Uncommitted Logic Array o Matriz lógica no fija), alrededor de 1980. El diseño a la medida se realizaba al variar la máscara de interconexión metálica. Las ULAs tenían complejidades de hasta algunos miles de puertas.
Las versiones posteriores fueron más generalizadas, con moldes base configurados tanto por las capas metálicas como polisiliconicas.Algunos moldes base incluían elementos de RAM. Diseño basado en Celdas Estándares (Standard Cell) A mediados de 1980, un diseñador elegía a un fabricante de ASIC, y luego implementaba el diseño utilizando las herramientas provistas por ese fabricante en particular. A pesar de que existían herramientas de diseño provista por terceros, no había un enlace efectivo entre éstas y los procesos productivos de los fabricantes. Una solución a este problema, que además permitió aumentar la densidad de los ASIC, fue la implementación de Celdas Estándares.
Cada fabricante de ASIC creaba bloques funcionales con características eléctricas conocidas, tales como los tiempos de propagación, capacitancias e inductancias, que podían ser representadas en las herramientas desarrolladas por terceros.El diseño basado en Celdas Estándares es el uso de estos bloques funcionales para alcanzar densidades de puertas muy altas, y un buen desempeño eléctrico. Este tipo de diseño se ubica entre diseño de Matriz de Puertas, y el diseño hecho totalmente a la medida, en término de los costos fijos y de fabricación de cada unidad. Hacia finales de 1980, estuvieron disponibles las herramientas de síntesis lógica, tales como el Design Compiler.
Estas herramientas podían compilar descripciones HDL en una lista de nodos al nivel de puertas.Esto dio paso a un estilo de diseño llamado Diseño basado en Celdas Estándares. Este tipo de diseño contempla las siguientes etapas conceptuales, aunque en la práctica estas etapas se traslapan significativamente. Estos pasos, llevados a cabo con el nivel de habilidad común en la industria, casi siempre producen un dispositivo final que implementa correctamente el diseño original, a menos que se introduzcan fallas al nivel físico de fabricación. 1. Un equipo de ingenieros de diseño comienza con la compresión no formal de las funciones requeridas por el ASIC a diseñar, usualmente derivada del análisis de requerimientos. 2.
El equipo de diseño construye una descripción del ASIC para alcanzar estos objetivos, utilizando un HDL.Este proceso es similar a escribir un programa computacional en un lenguaje de alto nivel. Este usualmente es llamado el diseño RTL (Register Transfer Level). 3. La validez del diseño es verificada a través de una simulación. Un sistema virtual, implementado a nivel de software puede simular el desempeño de los ASIC a velocidades equivalentes de mil millones de instrucciones por segundo. 4. Una herramienta de síntesis lógica convierte el diseño RTL en un gran conjunto de elementos de bajo nivel, llamados Celdas Estándares.
Estos elementos son tomados desde una biblioteca, que consiste en una colección de puertas precaracterizadas (tales como NOR de 2 entradas, NAND de 2 entradas, inversores, etc.).Las celdas estándares usualmente son específicas para el fabricante del ASIC. El conjunto resultante de Celdas Estándares, junto a la interconexión de ellas, es llamado la lista de nodos a nivel de puertas. 5. La lista de nodos es luego procesada por una herramienta de posicionamiento, la cual ubica las Celdad Estándares en una región que representa el ASIC final. Esta ubicación está sujeta a un conjunto de restricciones. En ocasiones se utilizan técnicas avanzadas para optimizar el posicionamiento. 6.
La herramienta de ruteo toma la ubicación física de las celdas, y utiliza el listado de nodos para crear las conexiones eléctricas entre ellas.La salidad de esta etapa es un conjunto de fotomáscaras, con las que el fabricante producirá los circuitos integrados. 7. 7. Se puede hacer una estimación bastante precisa de los retardos finales, las resistencias y capacitancias parásitas y del consumo de energía. Estas estimaciones son usadas en la ronda final de pruebas. Estas pruebas demostrarán que el dispositivo funcionará en los rangos de temperatura y voltaje extremos. Cuando estas pruebas finalizan, la información de las fotomáscaras en entregada para la fabricación del chip. Estos pasos de diseño son también comunes al diseño de un producto estándar.
La diferencia significativa es que el diseño con Celdas Estándares utiliza la biblioteca de celdas del fabricante, que ha sido utilizada en potencialmente cientos de otros diseños, y por lo tanto constituyen un riesgo mucho menor que un diseño hecho totalmente a la medida.Las Celdas Estándares producen una densidad de diseño con un costo comparativamente más bajo, y pueden también integrar núcleos IP y SRAM en una forma efectiva, a diferencia de las matrices de puertas.
Diseño basado en Matriz de Puertas (Gate Array) El diseño basado en Matriz de Puertas es un método de manufactura en donde las capas difundidas, es decir, los transistores y otros elementos activos están predefinidos, y las obleas que contienen estos dispositivos se mantienen en stock antes de la metalización, es decir, desconectadas.El proceso de diseño físico luego define la interconexión del dispositivo final. Para la mayoría de de los fabricantes de ASIC, esto consiste de dos a cinco capas metálicas, cada una perpendicular a la que la precede.
Los costos fijos son mucho más bajos, ya que las máscaras litográficas se requieren sólo para las capas metálicas, y los ciclos productivos son mucho más cortos, ya que la metalización es un proceso comparativamente más rápido.También es importante para el diseñador que con este método se pueden conseguir retardos de propagación mínimos, comparado con las soluciones basadas en FPGAs disponibles en el mercado. Los ASIC basados en MAtriz de puertas requieren siempre de un compromiso, ya que al determinar la correspondencia de un diseño determinado con las obleas que el fabricante tiene es stock, nunca da una utilización del 100%.
A menudo las dificultades que aparecen al rutear las interconexiones, requieren migrar a un dispositivo con un arreglo más grande, con el consecuente aumento en el costo del dispositivo.Estos problemas frecuentemente son resultado del software utilizado para desarrollar las interconexiones. En la actualidad, los diseños formados solamente por puertas lógicas raramente son implementados con Matriz de puertas, y son reemplazados por dispositivos programables, como las FPGA, las cuales pueden ser programadas por el usuario, y el costo fijo asociado es mínimo, un costo por unidad marginalmente superior, y desempeño comparable.
Hoy, las Matrices de puertas están evolucionando en ASIC estructurados, que consisten en un gran núcleo IP ( Intellectual Property), como un procesador, una unidad DSP , periféricos, memorias y bloques lógicos reconfigurables.Este cambio se debe principalmente a que los ASIC son capaces de integrar estos grandes bloques de sistemas funcionales, y los "sistemas en un chip" (SoC) requieren más que sólo bloques lógicos. El término "Matriz de puertas" (Gate Array) es casi sinónimo del término "Semi a la medida" (Semi-Custom).
El término utilizado depende de quién lo utilice; si se es un ingeniero de proceso, probablemente se utilice el término "Semi a la medida", mientras que si se es un diseñador a nivel lógico, se utiliza "Matriz de puertas" (Gate Array).Diseño hecho totalmente a la medida (Full Custom Circuits) Por otro lado, el diseño hecho totalmente a la medida define la totalidad de las capas litográficas del dispositivo. Este se utiliza tanto para el diseño de ASIC como para el diseño de productos estándares.
Los beneficios de este método usualmente incluye un área reducida (y consecuentemente costos por unidad menores), mejoras en el desempeño y también la habilidad de integrar componentes analógicos y otros componentes pre-diseñados, como son los microprocesadores que forman un SoC.Las desventajas del diseño totalmente a la medida son un costo y tiempo de desarrollo mayores, costos fijos mayores, mayor complejidad del software CAD y la necesidad de habilidades mucho mayores por parte del equipo de diseño. Sin embargo, para diseños puramente digitales, las librerías de "celdas estándares", junto con los sistemas CAD modernos, pueden ofrecer ventajas considerables en términos de costos y desempeño junto a un bajo riesgo.
Las herramientas de layout automático son rápidas y fáciles de usar, y ofrecen la posibilidad de optimizar manualmente cualquier aspecto que limite el desempeño del diseño.Diseño estructurado (Structured Array) El diseño estructurado de ASIC es una expresión ambigua, con diferentes significados dependiendo del contexto. Éste es un término relativamente nuevo en la industria, lo que explica que haya variaciones en su definición. Sin embargo, la premisa básica es que tanto el ciclo de manufactura como el ciclo de diseño se reducen comparado con los ASIC basados en celdas, gracias a la existencia de capas metálicas predefinidas (que reducen el tiempo de fabricación), y una pre-caracterización de lo que está en el silicio (lo que reduce el tiempo de diseño).
Una definición establece que en un diseño ASIC estructurado, las máscaras de las capas lógicas están predefinidas por el vendedor del ASIC (en algunos caso por un tercero).El diseño se realiza al crear capas de metal hechas a la medida, que crean conexiones entre los elementos predefinidos de las capas inferiores. La tecnología de "ASIC estructurados" es vista como el puente que une la barrera entre las FPGA y los diseños ASIC de celdas estándares. Debido a que sólo un número pequeño de las capas del chip deben ser producidas a la medida, los "ASIC estructurados" tienen costos fijos menores que los chip basados en celdas estándares o hechos totalmente a la medida, los que requieren producir un conjunto completo de máscaras para cada diseño.
Esto corresponde, en efecto, a la misma definición de una Matriz de Puertas.Lo que hace a los ASIC estructurados diferente de las matrices de puertas es que en estas últimas, las capas metálicas predefinidas sirven para acelerar el proceso de fabricación. En los ASIC estructurados, la metalización predefinida sirve principalmente para reducir el costo del conjunto de máscaras, y también se utiliza para reducir el ciclo de desarrollo. Por ejemplo, en un diseño basado en celdas o en matriz de puertas, el usuario a menudo debe diseñar la alimentación, el reloj y las estructuras de prueba; éstas están predefinidas en la mayoría de los ASIC estructurados, lo que se traduce en un ahorro de tiempo y costos.
Asimismo, las herramientas utilizadas para los ASIC estructurados pueden reducir sustancialmente y facilitar el diseño, ya que la herramienta no tienen que realizar todas las funciones necesarias para los ASIC basados en celdas.En algunos casos, los vendedores de ASIC estructurados requieren de herramientas hechas a la medida para usar sus dispositivos, lo que también permite acelerar la manufactura. Otro aspecto importante sobre los ASIC estructurados es que permiten el uso de IP que son comunes a ciertas aplicaciones, o segmentos de la industria, en vez de ser diseñados. Al construir la IP directamente en la arquitectura, el diseñador puede nuevamente ahorrar tanto tiempo como dinero, comparado con el diseño de IP en ASIC basadas es celdas.
El mejor consejo es leer cuidadosamente como el vendedor define un ASIC estructurado en particular, ya que existen diferencias significativas entre las ofertas de los distintos vendedores.Librería de celdas, diseño basado en IP, macros Las bibliotecas de celdas de primitivos lógicos, comúnmente son suministrados por el fabricante del dispositivo como parte de sus servicios. Aunque no tienen un costo adicional, se entregan bajo un acuerdo de confidencialidad y serán considerados como propiedad intelectual del fabricante. Usualmente su diseño físico estará predefinido, por lo cual se denominan "macros duros".
Pero lo que la mayoría de los ingenieros entiende como "propiedad intelectual" son los núcleos IP, diseños comprados a terceros como subcomponentes de un ASIC más grande.Pueden suministrarse como una descripción HDL (a menudo denominadas "macros blandos"), o como un diseño totalmente ruteado que puede ser impreso directamente en la máscara del ASIC. Actualmente muchas organizaciones venden estas IP prediseñadas, y las organizaciones más grandes pueden tener un departamento completo para producir estas IP para el resto de la organización. Por ejemplo, uno puede comprar CPUs, ethernet, USB o interfaces telefónicas.
De hecho, el amplio rango de funciones disponibles en la actualidad es un factor significativo en el aumento de la electrónica en los años 1990 y 2000; como crear propiedad intelectual toma mucho tiempo y dinero, su reutilización y desarrollos posteriores, reduce drásticamente los ciclos de los productos y mejora su calidad.Los macros suaves a menudo no dependen del proceso, es decir, pueden ser fabricados en un amplio rango de procesos de manufactura y por diferentes empresas. Los macros duros están limitados a un proceso, y es necesario esfuerzos adicionales para migrarlos a otros procesos o empresas.
FPGAs Las FPGA (Field Programmable Gate Array, matriz de puertas programables) se asemejan a las matrizes de puertas pero son programables por el usuario en lugar de fabricadas a medida para cada aplicación.Aunque su densidad siempre será menor consiguen integrar un gran número de puertas, en el 2008 son asumibles diseños en 65nm con más de 10 millones de puertas, decenas de megabits de RAM e incluso varios procesadores, esto las hace suficientes para la mayoría de aplicaciones. La ley de Moore y el creciente coste de inversión de las tecnologías juega a su favor y hace que su cuota de mercado crezca consistentemente cada año.
Ver el artículo dedidado a las FPGAs Obleas multiproyecto Algunos fabricantes ofrecen obleas multiproyecto, MPW por sus siglas en inglés, como un método para obtener prototipos de bajo costo.A menudo llamados ""shuttles"", estos MPW, que contienen varios diseños, se fabrican a intervalos regulares, comúnmente con poca responsabilidad por parte del fabricante. El contrato incluye el ensamblaje de un puñado de dispositivos. El servicio incluye el suministro de una base de datos de diseños físicos. El fabricante es a menudo llamado como "fundición de silicio", debido al poca participación que tienen durante el proceso.
Fabricantes de ASIC (Fundiciones) Chartered IBM LSI Logic SMIC Texas Instruments TSMC UMC Agere Véase también Diseño electrónico automatizado SoC Enlaces externos ASIC Design Tutorial Descripción completa de las tecnología de diseño ASIC.Designing ASICs Introducción al diseño ASIC, con énfasis en las técnicas de relojes sincrónicos. Tal vez un poco antiguo (1988), ya que considera sólo lógica primitiva. Los ingenieros análogos que necesiten incluir algo de lógica digital lo encontrarán particularmente útil. Aspersor de Feynman El problema se refiere al sentido que tomará un aspersor «inverso», es decir, sumergido en agua.
El aspersor de Feynman, aspersor inverso de Feynman o más correctamente el aspersor inverso es un conocido experimento mental de física para explicar el funcionamiento de la inversión de un aspersor de jardín típico.Este experimento se relaciona comúnmente con el nombre de Richard Feynman, a pesar de que no planteó el problema originalmente ni dio ninguna solución, sólo ayudó a popularizarlo en su libro ¿Está Vd. de broma, Sr. Feynman? y otros de sus escritos. [1] El problema original apareció en un número de Science of Mechanics de 1893, propuesto por Ernst Mach. [2] Explicación El problema plantea qué sucedería si un aspersor de césped se sumergiera en totalmente en agua y ésta fuera absorbida a través de él, fluyendo inversamente.
Inyectando agua en los extremos del aspersor se provoca un movimiento de rotación, pero los científicos aún no se ponen de acuerdo en si girará en el mismo sentido, en sentido contrario, o no girará.Se ha debatido mucho la solución del problema. [3] Al parecer el mismo Feynman lo intentó físicamente, provocando «una pequeña explosión catastrófica». [2] En los últimos años, el experimento se ha realizado en numerosas ocasiones, utilizando el aire como medio en torno al aspersor, demostrando que el «aspersor inverso» gira en el mismo sentido.
[4] La Universidad de Maryland también realizó el experimento en un medio acuoso de bajo rozamiento y demostró que el aspersor de hecho gira, aunque muy lentamente, en el mismo sentido.[5] A pesar de los numerosos experimentos que se han realizado, la comunidad científica aún debate la validez de sus resultados debido a la complejidad de las fuerzas implicadas. Referencias 1. Jenkins, Alejandro. California Institute of Technology. 3 de mayo de 2004. An elementary treatment of the reverse sprinkler. Consultado el 5 de abril de 2006. 2. a b Feynman, Richard (2005). Michelle Feynman: Don't you have time to think?. Penguin Books, 211. 3. Calvert, J. B. September 28, 2004. Turbines. Consultado el 5 de abril de 2006. 4. Richard Feynman's Water Sprinkler Experiment, Feynman Online 5.
The Physics Question of the Week #61, The University of Maryland Department of Physics Enlaces externos The Edgerton Center Corridor Lab: Feynman Sprinkler Aspiradora Una aspiradora es un dispositivo que utiliza una bomba de aire para aspirar el polvo y otras partículas pequeñas de suciedad, generalmente del suelo.Aspiradora La mayoría de hogares con suelo enlosado tienen un modelo doméstico para la limpieza. El polvo se recoge mediante el sistema de filtrado un ciclón para una posterior disposición. Últimamente están apareciendo aspiradoras robotizadas, que limpian sin intervención humana el suelo. Un ejemplo de ellas es Roomba.
Hasta finales del siglo XIX, los trapeadores y cepillos para alfombras eran las únicas herramientas con las que se contaba para tratar de mantener limpio el ambiente de estos lugares.Posteriormente fueron creados varios artefactos para limpiar alfombras, y en 1901 fue patentada la primera aspiradora. Ideada por el ingeniero inglés Hubert Cecil Booth, Puffing Billy era una enorme máquina, con un motor eléctrico, que aspiraba el polvo, También creó una aspirado que la llamo Trolleyvack que funcionaba con un motor más pequeño, después Booth instaló una empresa de aseo.
Su primera tarea importante fue limpiar la alfombra de la Abadía de Westminster, también hubo otro creador que fue: James Murriay quien creo una aspiradora portátil que funcionaba con un ventilador eléctrico.véase también Enlaces internos Electrodoméstico Lavado autoservicio Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Aspiradora.Commons The Vintage Museo de los Aspiradores Historia de los aspiradores- Guía Tecnológica Gizmohighway Barredoras y aspiradoras industriales, fotos y descripciones Astable En electrónica, un astable es un multivibrador que no tiene ningún estado estable, lo que significa que posee dos estados "quasi-estables" entre los que conmuta, permaneciendo en cada uno de ellos un tiempo determinado.
La frecuencia de conmutación depende, en general, de la carga y descarga de condensadores.Entre sus múltiples aplicaciones se cuentan la generación de ondas periódicas (generador de reloj) y de trenes de impulsos. En la Figura 1 se muestra el esquema de un multivibrador astable realizado con componentes discretos.
Figura 1.- Circuito multivibrador astable El funcionamiento de este circuito es el siguiente: Al aplicar la tensión de alimentación (Vcc), los dos transistores iniciaran la conducción, ya que sus bases reciben un potencial positivo a través de las resistencias R-2 y R-3, pero como los transistores no serán exactamente idénticos, por el propio proceso de fabricación y el grado de impurezas del material semiconductor, uno conducirá antes o más rápido que el otro.Supongamos que es TR-1 el que conduce primero. En estas condiciones el voltaje en su colector estará próximo a 0 voltios, por lo que el C-1 comenzará a cargarse a través de R-2.
Cuando el voltaje en C-1 alcance los 0,6 V, TR-2 comenzará a conducir, pasando la salida a nivel bajo (tensión próxima a 0V).C-2, que se había cargado vía R-4 y unión base-emisor de TR-1, se descargará ahora provocando el bloqueo de TR-1. C-2 comienza a cargarse vía R-3 y al alcanzar la tensión de 0,6 V provocará nuevamente la conducción de TR-1, la descarga de C-1, el bloqueo de TR-2 y el pase a nivel alto (tensión próxima a Vcc (+) de la salida Y). A partir de aquí la secuencia se repite indefinidamente, dependiendo los tiempos de conducción y bloqueo de cada transistor de las relaciones R-2/C-1 y R-3/C-2.
Estos tiempos no son necesariamente iguales, por lo que pueden obtenerse distintos ciclos de trabajo actuando sobre los valores de dichos componentes.Véase también Monoestable Astrofísica estelar Se llama astrofísica estelar al estudio de las estrellas; su formación, evolución y muerte, así como sus propiedades y distribución. Una herramienta fundamental en el estudio de las estrellas es el diagrama de Hertzsprung-Russell. El estudio de las estrellas y de su evolución es imprescindible para avanzar en nuestro conocimiento del universo. La astrofísica estelar se realiza por medio de la observación y el entendimiento teórico, así como por medio de simulaciones informáticas de la composición interna de las estrellas.
Contenido 1 Nacimiento y vida de una estrella 2 Evolución y muerte de una estrella 2.1 Estrellas de masa pequeña 2.2 Estrellas de masa intermedia 2.3 Estrellas de masa mayor y estrellas masivas 3 Referencias Nacimiento y vida de una estrella Nebulosa del Rectángulo Rojo La formación de las estrellas se produce en regiones densas de polvo y gas, conocidas como nebulosas interestelares.La fuerza de gravedad acerca a los átomos de hidrógeno hacia el centro de la acumulación, haciéndolo más y más denso.