text
stringlengths 54
15k
| label
class label 12
classes |
---|---|
El empirismo es una teoría filosófica que enfatiza el papel de la experiencia y la evidencia, especialmente la percepción sensorial, en la formación de ideas y adquisición de conocimiento, sobre la noción de ideas innatas o tradición.[1] Para el empirismo más extremo, la experiencia es la base de todo conocimiento, no solo en cuanto a su origen sino también en cuanto a su contenido. Se parte del mundo sensible para formar los conceptos y estos encuentran en lo sensible su justificación y su limitación.
El término «empirismo» proviene del griego έμπειρία, cuya traducción al latín es experientia, de donde deriva la palabra experiencia.
El empirismo, bajo ese nombre, surge en la Edad Moderna como fruto maduro de una tendencia filosófica que se desarrolla sobre todo en el Reino Unido desde la Baja Edad Media. En la Antigüedad clásica, lo empírico se refería al conocimiento que los médicos, arquitectos, artistas y artesanos en general obtenían a través de su experiencia dirigida hacia lo útil y técnico, en contraposición al conocimiento teórico concebido como contemplación de la verdad al margen de cualquier utilidad.[2]
Se suele considerar en contraposición al racionalismo, más característico de la filosofía continental. Hoy en día la oposición empirismo-racionalismo, como la distinción analítico-sintético, no se suele entender de un modo tajante, como lo fue en tiempos anteriores, y más bien una u otra postura obedece a cuestiones metodológicas, heurísticas o de actitudes vitales, más que a principios filosóficos fundamentales.
El empirismo también se opone al historicismo, ya que tanto el empirismo como el racionalismo son teorías individualistas del conocimiento, mientras que el historicismo es una epistemología social. Si bien el historicismo también reconoce el papel de la experiencia, difiere del empirismo al suponer que los datos sensoriales no se pueden entender sin considerar las circunstancias históricas y culturales en las que se hacen las observaciones.
En relación con la ciencia, el empirismo no se debe mezclar con la investigación empírica, ya que las diferentes epistemologías se deben considerar puntos de vista opuestos sobre la mejor manera de hacer estudios. Sin embargo, entre los investigadores hay cierto consenso de que los estudios deben ser empíricos. Por lo tanto, el empirismo actual se debe entender como uno entre los ideales en competencia de obtener conocimiento. Como tal, el empirismo se caracteriza primeramente por el ideal para permitir que los datos de la observación «hablen por sí mismos», mientras que los puntos de vista opuestos se oponen a este ideal. El empirismo, por lo tanto, no solo se debe entender en relación con cómo este término se ha utilizado en la historia de la filosofía. También se debe interpretar de una manera que permita distinguir el empirismo entre otras posiciones epistemológicas en la ciencia contemporánea. En otras palabras: el empirismo como concepto se debe construir junto con otros conceptos, que juntos hacen posible discriminaciones importantes entre los diferentes ideales subyacentes de la ciencia contemporánea.[cita requerida]Respecto del problema de los universales, los empiristas suelen simpatizar y continuar con la crítica nominalista iniciada en la Baja Edad Media. Los empiristas modernos más influyentes fueron John Locke, George Berkeley, David Hume y Francis Bacon. | 3Ciencia_y_Tecnología
|
El tecnogaianismo (palabra portmanteau que combina "tecno-" para tecnología y "gaian" por la filosofía Gaia) es una postura ecologista verde de apoyo activo a la investigación, desarrollo y uso de tecnologías emergentes y futuras para ayudar a restaurar el medio ambiente de la Tierra. Los tecnólogos sostienen que el desarrollo de tecnologías alternativas seguras y limpias debería ser un objetivo importante de los ecologistas.[1] | 3Ciencia_y_Tecnología
|
El descubrimiento accidental de la radiación de fondo cósmico de microondas es un desarrollo importante en la cosmología física moderna. Aunque predicho por las teorías anteriores, se encontró primero accidentalmente por Arno Penzias y Robert Woodrow Wilson, ya que experimentaron con el Cuerno de antena Holmdel. El descubrimiento fue evidencia de un universo en expansión, (teoría del Big Bang) y había pruebas contra el modelo de estado estacionario. En 1978, Penzias y Wilson recibieron el Premio Nobel de Física por su descubrimiento conjunto. | 3Ciencia_y_Tecnología
|
La Asociación Española de Normalización y Certificación (AENOR) fue desde 1986 hasta 2017 una entidad dedicada al desarrollo de la normalización y la certificación (N+C) en todos los sectores industriales y de servicios.
El 1 de enero de 2017, AENOR se separó jurídicamente en dos partes independientes [1][2]
Por un lado se crea la actual Asociación Española de Normalización (UNE), que es la entidad designada por España para realizar las actividades de normalización en el país (normas UNE) y también participa en la normalización a nivel internacional (normas EN e ISO).
Por otro lado, las actividades de evaluación de la conformidad (certificación) y otras actividades auxiliares, quedan en manos de la nueva AENOR Internacional, S.A.U. | 3Ciencia_y_Tecnología
|
La Oficina Internacional de Pesas y Medidas (BIPM, por sus siglas en francés, Bureau International des Poids et Mesures; a menudo traducido también como Oficina Internacional de Pesos y Medidas y Buró Internacional de Pesos y Medidas) es el coordinador mundial de la metrología. Su sede está ubicada en Saint-Cloud, suburbio de París. Es la depositaria del kilogramo patrón internacional, última unidad materializada del Sistema Internacional de Unidades (SI) en uso, procedente del viejo Sistema métrico decimal, hasta su redefinición en 2019. | 3Ciencia_y_Tecnología
|
Una bomba de calor asistida por energía solar (SAHP) es una máquina que representa la integración de una bomba de calor y paneles solares térmicos en un solo sistema integrado. Normalmente, estas dos tecnologías se usan por separado (o solo se colocan en paralelo) para producir agua caliente. [1]
En este sistema, el panel solar térmico realiza la función de la fuente de calor a baja temperatura y el calor producido se utiliza para alimentar el evaporador de la bomba de calor. [2] El objetivo de este sistema es obtener una alta COP y luego producir energía de una manera más eficiente y menos costosa.
Es posible utilizar cualquier tipo de panel térmico solar (láminas y tubos, roll-bond, tubo de calor, placas térmicas) o híbrido ( mono/policristalino, película delgada ) en combinación con la bomba de calor. El uso de un panel híbrido es preferible porque permite cubrir una parte de la demanda de electricidad de la bomba de calor y reducir el consumo de energía y, en consecuencia, los costos variables del sistema. | 3Ciencia_y_Tecnología
|
Se denomina masking al hecho de generar una interferencia entre dos estímulos simultáneos, alterando así el proceso perceptual. Se dice erróneamente que la máscara crea una interrupción en el procesamiento del estímulo y el objetivo, pero realmente no se trata de interrumpir, sino de impedir procesar un estímulo concreto para dar con un efecto determinado, como por ejemplo la continuidad entre los diferentes estímulos o el anulació del movimiento, replanteando este enmascaramiento como una técnica para dar con la microgenesis perceptual. Por ejemplo, en el cine, se puede anular la percepción del movimiento adhiriendo un fotograma blanco entre dos fotogramas consecutivos.[1]
Para entender el masking, hay que conocer mínimamente el que la psicología cognitiva sostiene, y es que el procesamiento de información existente entre los estímulos y las respuestas requiere de un sistema procesador que transforma señales de entrada en estímulos con un significado concreto. El procesamiento de información implica su paso a través de una cadena ordenada en forma jerárquica, procediendo así de aquello general a aquello más específico, y por lo tanto perdiendo cierta cantidad de información durante el transcurso de la cadena, hecho que explica porque no percibimos todo aquello que nosotros podríamos ciertamente ver. Debido a la limitación de la capacidad resolutiva del sistema visual, sucede que cuando dos estímulos presentados fugazmente se presentan en rápida sucesión, se produce algún tipo de interferencia entre ellos, y gracias a la memoria icónica [2] no se suspende completamente cuando desaparece la señal, puesto que el almacén icónico mantiene disponible la información sensorial obtenida durante un cierto periodo de tiempo después de que se haya retirado el estímulo externo.[3] | 3Ciencia_y_Tecnología
|
La historia del electromagnetismo, considerada como el conocimiento y el uso registrado de las fuerzas electromagnéticas, data de hace más de dos mil años.
En la antigüedad ya estaban familiarizados con los efectos de la electricidad atmosférica, en particular del rayo[1] ya que las tormentas son comunes en las latitudes más meridionales, ya que también se conocía el fuego de San Telmo. Sin embargo, se comprendía poco la electricidad y no eran capaces de producir estos fenómenos.[2][3]
Durante los siglos XVII y XVIII, William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro Volta entre otros investigaron estos dos fenómenos de manera separada y llegaron a conclusiones coherentes con sus experimentos.
A principios del siglo XIX, Hans Christian Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. De ahí es que los trabajos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[3]
Las ahora llamadas ecuaciones de Maxwell demostraban que los campos eléctricos y los campos magnéticos eran manifestaciones de un solo campo electromagnético. Además, describía la naturaleza ondulatoria de la luz, mostrándola como una onda electromagnética.[4] Con una sola teoría consistente que describía estos dos fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por Nikola Tesla.[5] El éxito predictivo de la teoría de Maxwell y la búsqueda de una interpretación coherente de sus implicaciones, fue lo que llevó a Albert Einstein a formular su teoría de la relatividad que se apoyaba en algunos resultados previos de Hendrik Antoon Lorentz y Henri Poincaré.
En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el electromagnetismo tuvo que mejorar su formulación para que fuera coherente con la nueva teoría. Esto se logró en la década de 1940 cuando se completó una teoría cuántica electromagnética conocida como electrodinámica cuántica. | 3Ciencia_y_Tecnología
|
Ciencia - esfuerzo sistemático de adquirir conocimiento a través de la observación y la exposición, junto con la lógica y el razonamiento para averiguar lo que puede ser probado o no probado. La palabra "Cienciano" viene de la palabra latina "scientia" que significa conocimiento. Un practicante de la ciencia se llama un "científico".
La ciencia moderna respeta razonamiento lógico objetivo, y sigue una serie de procedimientos básicos o reglas con el fin de determinar la naturaleza y las leyes de naturales subyacentes del universo y todo en él. Algunos científicos no saben de las propias reglas, pero los siguen a través de las políticas de investigación. Estos procedimientos son conocidos como método científico. | 3Ciencia_y_Tecnología
|
Google Person Finder es una aplicación web Código abierto que proporciona un registro de personas para familiares de damnificados por una catástrofe natural y busca información sobre su situación y ubicación posible. Fue creada por ingenieros de Google, después del Terremoto de Haití de 2010.[1] | 3Ciencia_y_Tecnología
|
Folionet Financial LLC. es una empresa estadounidense dedicada a los servicios financieros con sede en Brickell, Miami, conocida por ofrecer servicios de bróker para las bolsas de los Estados Unidos. Folionet es reconocida por ofrecer operaciones con comisiones bajas de acciones y fondos cotizados a través de una aplicación móvil presentada en 2017. Además, Folionet ofrece servicios de banca privada y manejo de inversiones.[1]
Folionet es un corredor de bolsa regulado por FINRA[2] y cuenta con registros en la Comisión de Bolsa y Valores de EE. UU. (SEC) y de la Securities Investor Protection Corporation (SIPC).[3]
El funcionamiento de su aplicación y servicios está orientado a inversores primerizos principalmente de habla hispana.[4] | 3Ciencia_y_Tecnología
|
Las mujeres han contribuido notablemente a la ciencia desde sus inicios. El estudio histórico, crítico y sociológico de este asunto se ha vuelto una disciplina académica en sí misma.
Involucrar a mujeres en el campo de la medicina ocurrió en varias civilizaciones antiguas y el estudio de la filosofía natural estaba abierto a las mujeres en la Antigua Grecia. Las mujeres también contribuyeron en la protociencia de la alquimia en el siglo I y II d. C. Durante la Edad Media, los conventos fueron un importante lugar para la educación femenina y algunas de estas instituciones proporcionaron oportunidades para que las mujeres pudiesen formar parte y contribuir en el campo de la investigación. Pero en el siglo XI se fundaron las primeras universidades y las mujeres fueron excluidas de la educación universitaria.[1] La actitud de educar a mujeres en el campo de la medicina era más liberal en Italia que en otros lugares.[1] La primera mujer conocida en completar los estudios universitarios en un campo de estudios científicos fue Laura Bassi en el siglo XVIII.
Aunque los roles de género estaban muy definidos en el siglo XVIII, las mujeres experimentaron un gran avance en el campo de la ciencia. Durante el siglo XIX las mujeres seguían excluidas de una educación científica formal, pero empezaron a admitirse en sociedades educativas de menor nivel. Posteriormente en el siglo XX el aumento de mujeres que estudiaban en universidades proporcionó trabajos remunerados para las mujeres que se quisiesen dedicar a la ciencia y oportunidades para educarse. Marie Curie, la primera mujer en recibir un Premio Nobel de Física en 1903, fue también la primera y hasta ahora única persona en obtener dos premios en dos disciplinas científicas, al recoger en 1911 el de química; ambos premios fueron por su trabajo sobre la radiación. 53 mujeres en total han recibido el Premio Nobel entre 1901 y 2019.[2] | 3Ciencia_y_Tecnología
|
La ingeniería en alimentos es un campo multidisciplinario que combina microbiología, química, física aplicada e ingeniería. La ingeniería de alimentos incluye, entre otros, la aplicación de principios de ingeniería química, ingeniería agrícola e ingeniería mecánica a los materiales alimenticios. Los ingenieros de alimentos proporcionan la transferencia de conocimiento tecnológico esencial para la producción y comercialización rentable de productos y servicios alimentarios. La física, la química, la biología y las matemáticas son fundamentales para comprender y diseñar productos y operaciones en la industria alimentaria.[1]
La ingeniería de alimentos abarca una amplia gama de actividades. Los ingenieros de alimentos se emplean en el procesamiento de alimentos, maquinaria de alimentos, envasado, fabricación de ingredientes, instrumentación y control. Las empresas que diseñan y construyen plantas de procesamiento de alimentos, empresas de consultoría, agencias gubernamentales, las compañías farmacéuticas y empresas de servicios de salud también emplean ingenieros de alimentos. Las actividades de ingeniería de alimentos incluyen:
Productos alimenticios / productos farmacéuticos
Diseño e instalación de procesos de producción de alimentos / biológicos / farmacéuticos
Diseño y operación de sistemas de tratamiento de desechos ambientalmente responsables
Marketing y soporte técnico para plantas de fabricación.El ingeniero en alimentos tiene como trabajo el solucionar los problemas que se presentan en todo el proceso de creación de los alimentos teniendo como objetivo el reducir el impacto al medio ambiente, los desperdicios y costos de producción, otorgando productos de calidad y valor nutricional satisfaciendo las demandas de los consumidores, desarrollando y mejorando las tecnologías aplicadas en el proceso de producción. | 3Ciencia_y_Tecnología
|
La socioepistemología (del latín socialis y el griego επιστήμη, episteme, "conocimiento" o "saber", y λόγος, logos, "razonamiento" o "discurso"), también conocida como epistemología de las prácticas o filosofía de las experiencias, es una rama de la epistemología que estudia la construcción social del conocimiento. Mientras en la epistemología clásica el conocimiento se estudiaba, por lo general, independientemente de las circunstancias sociales de su producción, en la socioepistemología se aborda la consideración de los mecanismos de institucionalización que lo afectan, vía la organización social de la enseñanza, el aprendizaje y la investigación. Está, por tanto, íntimamente relacionada con la sociología de la educación y de la ciencia. | 3Ciencia_y_Tecnología
|
La historia de la electricidad se refiere al estudio de la electricidad, al descubrimiento de sus leyes como fenómeno físico y a la invención de artefactos para su uso práctico.
Como también se denomina electricidad a la rama de la ciencia que estudia el fenómeno y a la rama de la tecnología que lo aplica, la historia de la electricidad es la rama de la historia de la ciencia y de la historia de la tecnología que se ocupa de su surgimiento y evolución. El fenómeno de la electricidad se ha estudiado desde la antigüedad, pero su estudio científico comenzó en los siglos XVII y XVIII. A finales del siglo XIX, los ingenieros lograron aprovecharla para uso doméstico e industrial. La rápida expansión de la tecnología eléctrica la convirtió en la columna vertebral de la sociedad industrial moderna.[1]
Mucho antes de que existiera algún conocimiento sobre la electricidad, la humanidad era consciente de las descargas eléctricas producidas por peces eléctricos. Textos del Antiguo Egipto que datan del 2750 a. C. se referían a estos peces como «los tronadores del Nilo», descritos como los protectores de los otros peces. Posteriormente, los peces eléctricos también fueron descritos por los romanos, griegos, árabes, naturalistas y físicos.[2] Autores antiguos como Plinio el Viejo o Escribonio Largo,[3][4] describieron el efecto adormecedor de las descargas eléctricas producidas por peces eléctricos y rayas eléctricas. Además, sabían que estas descargas podían transmitirse por materias conductoras.[5] Los pacientes de enfermedades como la gota y el dolor de cabeza se trataban con peces eléctricos, con la esperanza de que la descarga pudiera curarlos.[4] La primera aproximación al estudio del rayo y a su relación con la electricidad se atribuye a los árabes, que antes del siglo XV tenían una palabra para rayo (raad) aplicado a la raya eléctrica.
En culturas antiguas del Mediterráneo se sabía que al frotar ciertos objetos, como una barra de ámbar, con lana o piel, se obtenían pequeñas cargas (efecto triboeléctrico) que atraían pequeños objetos, y frotando mucho tiempo podía causar la aparición de una chispa. Cerca de la antigua ciudad griega de Magnesia se encontraban las denominadas piedras de Magnesia, que incluían magnetita y los antiguos griegos observaron que los trozos de este material se atraían entre sí, y también a pequeños objetos de hierro. Las palabras magneto (equivalente en español a imán) y magnetismo derivan de ese topónimo. Hacia el año 600 a. C., el filósofo griego Tales de Mileto hizo una serie de observaciones sobre electricidad estática. Concluyó que la fricción dotaba de magnetismo al ámbar, al contrario que minerales como la magnetita, que no necesitaban frotarse.[6][7][8] Tales se equivocó al creer que esta atracción la producía un campo magnético, aunque más tarde la ciencia probaría la relación entre el magnetismo y la electricidad. Según una teoría controvertida, los partos podrían haber conocido la electrodeposición, basándose en el descubrimiento en 1936 de la batería de Bagdad,[9] similar a una celda voltaica, aunque es dudoso que el artefacto fuera de naturaleza eléctrica.[10]
Esas especulaciones y registros fragmentarios fueron el tratamiento casi exclusivo (con la notable excepción del uso del magnetismo para la brújula) que hay desde la Antigüedad hasta la Revolución científica del siglo XVII; aunque todavía entonces pasaba por ser poco más que una curiosidad para mostrar en los salones. Las primeras aportaciones que pueden entenderse como aproximaciones sucesivas al fenómeno eléctrico fueron realizadas como William Gilbert, que realizó un estudio cuidadoso de electricidad y magnetismo. Diferenció el efecto producido por trozos de magnetita, de la electricidad estática producida al frotar ámbar.[8] Además, acuñó el término neolatino electricus (que, a su vez, proviene de ήλεκτρον [elektron], la palabra griega para ámbar) para referirse a la propiedad de atraer pequeños objetos después de haberlos frotado.[11] Esto originó los términos eléctrico y electricidad, que aparecen por vez primera en 1646 en la publicación Pseudodoxia Epidemica de Thomas Browne.[12]
Esos estudios fueron seguidas por investigadores sistemáticos como von Guericke, Cavendish,[13][14] Du Fay,[15] van Musschenbroek[16] (botella de Leyden) o William Watson.[17] Las observaciones sometidas a método científico empiezan a dar sus frutos con Galvani,[18] Volta,[19] Coulomb[20] y Franklin,[21] y, ya a comienzos del siglo XIX, con Ampère,[22] Faraday[23] y Ohm. Los nombres de estos pioneros terminaron bautizando las unidades hoy utilizadas en la medida de las distintas magnitudes del fenómeno. La comprensión final de la electricidad se logró recién con su unificación con el magnetismo en un único fenómeno electromagnético descrito por las ecuaciones de Maxwell (1861-1865).[24]
Los desarrollos tecnológicos que produjeron la Primera Revolución Industrial no hicieron uso de la electricidad. Su primera aplicación práctica generalizada fue el telégrafo eléctrico de Samuel Morse (1833) —precedido por Gauss y Weber, 1822—, que revolucionó las telecomunicaciones.[25] La generación industrial de electricidad comenzó partir del cuarto final del siglo XIX , cuando se extendió la iluminación eléctrica de las calles y de las viviendas. La creciente sucesión de aplicaciones de esta forma de energía hizo de la electricidad una de las principales fuerzas motrices de la Segunda Revolución Industrial.[26] Más que de grandes teóricos como lord Kelvin, fue el momento de grandes ingenieros e inventores, como Gramme,[27] Tesla, Sprague, Westinghouse,[28] von Siemens[29] Graham Bell,[30] y, sobre todo, Alva Edison y su revolucionaria manera de entender la relación entre investigación científico-técnica y mercado capitalista, que convirtió la innovación tecnológica en una actividad industrial.[31][32] Los sucesivos cambios de paradigma de la primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la electricidad en una nueva dimensión: atómica y subatómica.
La electrificación no solo fue un proceso técnico, sino un verdadero cambio social de implicaciones extraordinarias, comenzando por el alumbrado y siguiendo por todo tipo de procesos industriales (motor eléctrico, metalurgia, refrigeración...) y de comunicaciones (telefonía, radio). Lenin, durante la Revolución bolchevique, definió el socialismo como la suma de la electrificación y el poder de los soviets,[33] pero fue sobre todo la sociedad de consumo que nació en los países capitalistas, la que dependió en mayor medida de la utilización doméstica de la electricidad en los electrodomésticos, y fue en estos países donde la retroalimentación entre ciencia, tecnología y sociedad desarrolló las complejas estructuras que permitieron los actuales sistemas de I+D e I+D+I, en que la iniciativa pública y privada se interpenetran, y las figuras individuales se difuminan en los equipos de investigación.
La energía eléctrica es esencial para la sociedad de la información de la tercera revolución industrial que se viene produciendo desde la segunda mitad del siglo XX (transistor, televisión, computación, robótica, internet...). Únicamente puede comparársele en importancia la motorización dependiente del petróleo (que también es ampliamente utilizado, como los demás combustibles fósiles, en la generación de electricidad). Ambos procesos exigieron cantidades cada vez mayores de energía, lo que está en el origen de la crisis energética y medioambiental y de la búsqueda de nuevas fuentes de energía, la mayoría con inmediata utilización eléctrica (energía nuclear y energías alternativas, dadas las limitaciones de la tradicional hidroelectricidad). Los problemas que tiene la electricidad para su almacenamiento y transporte a largas distancias, y para la autonomía de los aparatos móviles, son retos técnicos aún no resueltos de forma suficientemente eficaz.
El impacto cultural de lo que Marshall McLuhan denominó Edad de la Electricidad, que seguiría a la Edad de la Mecanización (por comparación a cómo la Edad de los Metales siguió a la Edad de Piedra), radica en la altísima velocidad de propagación de la radiación electromagnética (300 000 km/s) que hace que se perciba de forma casi instantánea. Este hecho conlleva posibilidades antes inimaginables, como la simultaneidad y la división de cada proceso en una secuencia. Se impuso un cambio cultural que provenía del enfoque en «segmentos especializados de atención» (la adopción de una perspectiva particular) y la idea de la «conciencia sensitiva instantánea de la totalidad», una atención al «campo total», un «sentido de la estructura total». Se hizo evidente y prevalente el sentido de «forma y función como una unidad», una «idea integral de la estructura y configuración». Estas nuevas concepciones mentales tuvieron gran impacto en todo tipo de ámbitos científicos, educativos e incluso artísticos (por ejemplo, el cubismo). En el ámbito de lo espacial y político, «la electricidad no centraliza, sino que descentraliza... mientras que el ferrocarril requiere un espacio político uniforme, el avión y la radio permiten la mayor discontinuidad y diversidad en la organización espacial».[34]
| 3Ciencia_y_Tecnología
|
La ingeniería de telecomunicación (también, ingeniería de telecomunicaciones, ingeniería en telecomunicación, ingeniería en telecomunicaciones) es una rama de la ingeniería que resuelve problemas de transmisión y recepción de señales e interconexión de redes. Es la disciplina de aplicación de la telecomunicación, término que se refiere a la comunicación a distancia, generalmente a través de la propagación de ondas electromagnéticas y ópticas. Esto incluye muchas tecnologías, como radio, televisión, teléfono, comunicaciones de datos y redes informáticas como Internet. La definición dada por la Unión Internacional de Telecomunicaciones (ITU, del inglés International Telecommunication Union) para telecomunicación es toda emisión, transmisión y recepción de signos, señales, escritos e imágenes, sonidos e informaciones de cualquier naturaleza, por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos. | 3Ciencia_y_Tecnología
|
La terraformación de Venus es el proceso teórico de ingeniería que modificaría el medio ambiente del planeta Venus para hacerlo habitable al ser humano. El astrónomo Carl Sagan fue quien propuso por primera vez desde un punto de vista científico la terraformación de Venus, en un artículo publicado en la revista Science titulado "The Planet Venus", en 1961.[1] Esta posibilidad había sido abordada con anterioridad en publicaciones de ciencia ficción, como en The Big Rain de Poul Anderson.
Los expertos que se han pronunciado al respecto coinciden en la necesidad de realizar tres cambios sustanciales en el planeta para efectuar el proceso de terraformación, todos ellos estrechamente relacionados:
Reducir la temperatura superficial de Venus, estimada en 464 °C.
Transformar o eliminar la mayor parte de su atmósfera, compuesta principalmente de dióxido de carbono y dióxido de azufre, y con una densidad de 9.2 MPa (91 atm).
Añadir o extraer del propio planeta el oxígeno necesario para respirar.La composición atmosférica de Venus y su elevada presión, producen un efecto invernadero descontrolado que justifican la alta temperatura de su superficie. Otro cambio muy deseable sería alterar la baja velocidad de rotación de Venus para reducir el ciclo día-noche (actualmente, un día en Venus equivale a 243.0223 días terrestres).[2] | 3Ciencia_y_Tecnología
|
El análisis dimensional es una herramienta que permite simplificar el estudio de cualquier fenómeno en el que estén involucradas muchas magnitudes físicas en forma de variables independientes. Su resultado fundamental, el teorema π de Vaschy-Buckingham (más conocido por teorema π) permite cambiar el conjunto original de parámetros de entrada dimensionales de un problema físico por otro conjunto de parámetros de entrada adimensionales más reducido. Estos parámetros adimensionales se obtienen mediante combinaciones adecuadas de los parámetros dimensionales y no son únicos, aunque sí lo es el número mínimo necesario para estudiar cada sistema. De este modo, al obtener uno de estos conjuntos de tamaño mínimo se consigue:
Analizar con mayor facilidad el sistema objeto de estudio
Reducir drásticamente el número de ensayos que debe realizarse para averiguar el comportamiento o respuesta del sistema.El análisis dimensional es la base de los ensayos con maquetas a escala reducida utilizados en muchas ramas de la ingeniería, tales como la aeronáutica, la automoción o la ingeniería civil. A partir de dichos ensayos se obtiene información sobre lo que ocurre en el fenómeno a escala real cuando existe semejanza física entre el fenómeno real y el ensayo, gracias a que los resultados obtenidos en una maqueta a escala son válidos para el modelo a tamaño real si los números adimensionales que se toman como variables independientes para la experimentación tienen el mismo valor en la maqueta y en el modelo real. Así, para este tipo de cálculos, se utilizan ecuaciones dimensionales, que son expresiones algebraicas que tienen como variables a las unidades fundamentales y derivadas, las cuales se usan para demostrar fórmulas, equivalencias o para dar unidades a una respuesta.
Finalmente, el análisis dimensional también es una herramienta útil para detectar errores en los cálculos científicos e ingenieriles. Con este fin se comprueba la congruencia de las unidades empleadas en los cálculos, prestando especial atención a las unidades de los resultados. | 3Ciencia_y_Tecnología
|
Ente Nazionale Italiano di Unificazione (la unificación italiana Nacional, sigla UNI) es una asociación privada sin ánimo de lucro que realiza actividades de regulación en Italia, fundada en 1921 en Milano.
La UNI es reconocida por el Estado italiano y por la Unión Europea, y representa la actividad legislativa italiana en la Organización Internacional de Normalización (ISO)[1] y Comité Europeo de Normalización (CEN).
Piero Torretta es el presidente de la organización. | 3Ciencia_y_Tecnología
|
Un casquillo bipin (a veces también llamado 2-pin o enchufe bipin) es un estándar de la Comisión Electrotécnica Internacional (CEI o IEC en inglés) para bombillas. Algunas lámparas tienen los pines más cercanos entre sí para prevenir que sean intercambiadas accidentalmente. A estas también se les llama Mini-Bipin. | 3Ciencia_y_Tecnología
|
Standards Department o Departamento de Normas era un departamento de la Cámara de Comercio Inglesa que tenía la custodia de las normas imperiales de pesos y medidas, Intentando mantenerlos estándar.
Los principales instrumentos para la determinación de la precisión en todos los pesos y medidas utilizadas en el Reino Unido, se mantuvieron en la Hacienda Pública, y las funciones relativas a estas normas fueron impuestas a los chambelanes o funcionarios de la Hacienda Pública. La oficina de los chambelanes aprobada en 1783 por el parlamento, se abolió en 1826, pero la custodia de las normas y cualquier función relacionada se mantuvo unido a un oficial de la hacienda hasta que el departamento fue finalmente abolido en 1866.
Mientras tanto, en cumplimiento de las recomendaciones de las Comisiones de estandarización de 1841 y 1854 y de la Comisión de 1862 de Cámara de los Comunes , se aprobó en 1866 la Ley de las Normas de Pesos, Medidas y Moneda. Esta ley creó un departamento especial de la Cámara de Comercio, llamado el Departamento de Pesas y Medidas estándar, y un jefe de ese departamento denominado el Guardián de las Normas. Su deber era llevar a cabo las comparaciones, las verificaciones y las operaciones con referencia a las normas de la ayuda de la investigación científica y de otra manera. | 3Ciencia_y_Tecnología
|
Batería de Bagdad o pila de Bagdad[1] es el nombre dado a diversos jarrones fabricados durante el periodo parto (antes del año 226 d. C.), que algunos suponen que funcionaban como una pila eléctrica.
En 1936, durante unas excavaciones en una colina de Kujut Rabua, una aldea al sureste de Bagdad (Irak), los trabajadores del Departamento Estatal Iraquí del Ferrocarril descubrieron una vieja tumba cubierta con una losa de piedra. Durante dos meses, el Departamento Iraquí de Antigüedades extrajo de allí un total de 613 abalorios, figurillas de arcilla, ladrillos cincelados y otras piezas. Fueron fechados en el período de los partos (casi quinientos años entre 248 a. C. y 226 d. C.). También hallaron unos recipientes muy singulares de arcilla, con forma de jarrón y de color amarillo claro. En su interior había un cilindro de cobre, fijado con asfalto a la embocadura del cuello. Dentro del cilindro había una vara de hierro.
El recipiente medía 14 cm de alto por 4 cm de diámetro, mientras que el cilindro de cobre medía 9 cm de alto por 2,6 cm de diámetro. La vara de hierro sobresalía 1 centímetro y daba la impresión de haber estado revestida de una fina capa de plomo.
En ese año (1938), el arqueólogo alemán Wilhelm König, entonces a cargo del Laboratorio del Museo Estatal de Bagdad, lo identificó como una probable pila eléctrica.[2] Describió su hallazgo en el 9 Jahre Irak, publicado en Austria en 1940. El primer análisis de este objeto consistió en introducir en su interior un electrolito, y conectarle una lámpara, que se encendió muy débilmente. El informe oficial que se redactó después decía que este objeto se comportaba exactamente igual que una pila eléctrica moderna.
De regreso al Museo de Berlín (Alemania), König relacionó el descubrimiento con otros cilindros, varillas y tapones de asfalto similares provenientes de Mesopotamia; todos ellos con varillas delgadas de hierro y bronce. Le pareció que estas “baterías” se habrían podido unir en serie (una detrás de otra) para aumentar el voltaje producido.
Después de la Segunda Guerra Mundial, Willard Gray, ingeniero en electrónica del Laboratorio de Alto Voltaje, de la General Electric Company, de Pittsfield (Massachusetts, EE. UU.), fabricó un duplicado de estas baterías y las llenó con sulfato de cobre (aunque declaró que se podría haber usado otro líquido electrolito al alcance de los habitantes de Irak de la época: zumo de uva corriente). La pila funcionó y generó entre uno y dos voltios.
Gray dijo que introdujo además una estatuilla de plata, que en dos horas se volvió dorada. Según él, había demostrado que la batería funcionaba, y que su probable uso era de restaurar objetos de plata. | 3Ciencia_y_Tecnología
|
Transpa S.A (Empresa de Transporte de Energía Eléctrica por Distribución Troncal de la Patagonia Sociedad Anónima) es una de las seis compañías regionales transportistas de energía eléctrica del sistema de distribución troncal (STDT). La firma está compuesta en un 51% por acciones privadas, en un 6% por el Estado Nacional y el 33% restante corresponde a la provincia de Chubut. Las empresas Aluar y Camuzzi también tienen participación accionaria en Transpa S.A. El presidente del directorio de la compañía es Pietro Mazzolini y el gerente general Fernando Guerra. Su directorio está compuesto además por los directores titulares Juan Nicolás Murphy, el director de asuntos corporativos de Aluar Daniel Klainer, el integrante de la Federación Chubutense de Cooperativas de Servicios Públicos Fabricio Petrakosky, el exministro de economía Alejandro Garzonio, el secretario privado de gobernación Alejandro Sandilo, Pablo Hourbeigt y el secretario general de Luz y Fuerza, Rogelio González.
Fue fundada en diciembre de 1993 y su locación se ubica en la ciudad de Trelew, Chubut. | 3Ciencia_y_Tecnología
|
La revisión por pares abierta es un término que describe varias modificaciones posibles del proceso tradicional de revisión por pares académicos. Estas modificaciones abordan varias deficiencias percibidas del proceso tradicional de revisión por pares académicos, en particular su falta de transparencia, falta de incentivos y despilfarro. | 3Ciencia_y_Tecnología
|
Noruega es una gran productora energía renovable debido a plantas hidroeléctricas. Cerca del 99% de la producción de electricidad en tierras de Noruega es de plantas hidroeléctricas. La producción total de electricidad de plantas hidroeléctricas ascendió a 135.3 TWh en 2007. Hay también un gran potencial en energía eólica, energía eólica marina y energía de olas, así como producción de bioenergía desde la madera.[1][2][3] Noruega tiene recursos limitados en energía solar, pero es uno de los productores más grandes del mundo de silicio de grado solar y células solares de silicio.
El sistema para las Garantías de Origen fue implementada por la UE Directiva de Energía Renovable 2009/28/EC. En 2010 el consumo promedio de electricidad una casa noruega fue 36% de energía renovable.[4]
Según la Directiva de Energías Renovables de 2009 de la Unión Europea (más tarde añadido en el Acuerdo EEE), Noruega ha establecido un objetivo nacional para energías renovables - 67.5% del consumo final bruto de la energía suministrada por fuentes renovables para 2020.[5] | 3Ciencia_y_Tecnología
|
Se denomina vector energético a aquellas sustancias o dispositivos que almacenan energía, de tal manera que ésta pueda liberarse posteriormente de forma controlada. Se diferencian de las fuentes primarias de energía en que, a diferencia de éstas, se trata de productos manufacturados, en los que previamente se ha invertido una cantidad de energía mayor para su elaboración.
Ejemplos típicos de vectores energéticos son las baterías, las pilas, condensadores, el hidrógeno, el agua contenida en una represa, aunque existen multitud de variantes más, como los volantes inerciales, o incluso depósitos de aire comprimido o resortes.
Nota: El petróleo, el gas y el carbón (en general todos los combustibles fósiles), que son extraídos de la tierra, pueden considerarse vectores que fueron previamente "recargados", mientras que las baterías, hidrógeno, y otros vectores, contienen energía de fuentes actuales. | 3Ciencia_y_Tecnología
|
Terraplanismo[1] es el nombre de la creencia precientífica de que la superficie de la Tierra es plana en lugar de esférica. A lo largo de la historia han existido diferentes opiniones acerca de la forma de la Tierra, a partir de la idea intuitiva de que se trata de una superficie plana, hasta llegar al concepto moderno del geoide, esto es, una esfera ligeramente achatada en los polos, que corresponde a la observación desde el espacio y a los datos científicos.
En el siglo XIX, cuando la idea de la Tierra como una esfera era un hecho aceptado, el escritor inglés Samuel Birley Rowbotham, propuso la idea de que en realidad era una superficie plana centrada en el polo norte.[2][3] La postura de Rowbotham se aceptó en la sociedad religiosa estadounidense, pero pronto cayó en el olvido. En el siglo XXI, a partir del uso masivo de Internet, se popularizó a través de foros virtuales y de canales de Youtube, desde donde la aceptaron algunos teóricos de la conspiración.[4] [5]
| 3Ciencia_y_Tecnología
|
Las geomembranas son láminas geosintéticas que aseguran la estanquidad de una superficie. Normalmente se usan para remediar las pérdidas de agua por infiltración o para evitar la migración de los contaminantes al suelo. | 3Ciencia_y_Tecnología
|
La Cultura de la impresión engloba todas las formas expresión escrita y la Comunicación visual. Un estudioso destacado en este campo es Elizabeth Eisenstein, quien ha contrastado la cultura de la imprenta-impresión (que apareció en Europa en los siglos posteriores a la llegada de los occidentales imprenta, y mucho antes en China, donde la Impresión en madera fue utilizada por lo menos desde el 800 d.c.) con la cultura de los escribas. Walter J. Ong, por el contrario, ha contrastado la cultura escrita, incluidos los escribas, a la cultura oral. Ong es generalmente considerado como uno de los primeros estudiosos en definir a la cultura impresa en contraste con la cultura oral. Estas opiniones están relacionadas en cómo la imprenta conllevó un gran aumento de la alfabetización, de modo que uno de sus efectos fue simplemente la gran expansión de la cultura escrita, a expensas de la cultura oral. El desarrollo de la imprenta, como el desarrollo del escrito en sí, tuvieron efectos profundos en las sociedades humanas y el conocimiento. La "Cultura de impresión" se refiere sobre todo a los productos culturales de la transformación de la impresión. | 3Ciencia_y_Tecnología
|
La ingeniería geofísica es la rama de la ingeniería que realiza la investigación, exploración, evaluación, explotación y aprovechamiento de recursos energéticos, minerales e hidrológicos. Además, determina el impacto ambiental y los riesgos geológicos.
La Geofísica es la ciencia que estudia los campos físicos vinculados a nuestro planeta. Es decir, que estudia la Tierra mediante métodos de la física, de carácter indirecto, a fin de conocer su evolución y características actuales (geofísica pura) y también como herramienta de prospección de recursos (geofísica aplicada).
Podría decirse que la geofísica es una rama común de la geología y la física. Comparte con la primera la búsqueda del conocimiento de las características de la Tierra y, con la segunda, la aplicación de métodos, técnicas y principios para la investigación de las características bajo superficie. En términos muy generales, el geólogo se sirve de la geofísica para investigar indirectamente el subsuelo, es decir, todo lo que se encuentra por debajo de la superficie y, consecuentemente, está oculto.
Por medio de la prospección geofísica se determinan, a partir de distintos aparatos, diferentes propiedades físicas y físico-químicas del subsuelo. El análisis de esas propiedades, la cuantificación de sus valores, la observación de la distribución de éstos, así como de la presencia o no de anomalías constituye, en conjunto, la investigación geofísica del subsuelo. Para poder “traducir” ese conjunto de valores físicos o físico-químicos a un modelo geológico será necesario contar con información geológica de contraste que, una vez integrada con los resultados geofísicos, permita conocer cómo es el subsuelo.
A la vista de lo aquí expuesto, la geofísica sensu stricto sirve para tener conocimientos sobre las características físicas de los materiales que forman el subsuelo y sobre las formas de análisis e interpretación de los resultados obtenidos tras la prospección geofísica de las diferentes propiedades de esos materiales. La prospección geofísica aplicada, como su propio nombre indica, no es más que la aplicación de la geofísica y los métodos geofísicos que permite efectuar un diagnóstico de la constitución del subsuelo por interpretación de unos documentos que son el resultado de unas mediciones y de unos cálculos. | 3Ciencia_y_Tecnología
|
Un proceso industrial, proceso de fabricación, manufactura o producción es el conjunto de operaciones necesarias para modificar las características de las materias primas. Esta características pueden ser de naturaleza muy variada como la forma, la densidad, la resistencia, el tamaño o la estética. Se realizan en el ámbito de la industria.
En la mayoría de los casos, para la obtención de un determinado producto serán necesarias multitud de operaciones individuales de manera que, dependiendo de la escala de observación, se puede denominar proceso tanto en el conjunto de operaciones desde de la extracción de los recursos naturales necesarios hasta la venta del producto como las realizadas en un puesto de trabajo con una determinada máquina/herramienta.
La catalogación de los diferentes procesos productivos industriales sirve como herramienta de consulta para los expertos que a la hora de proponer un proceso productivo, que debe estar en función de los parámetros generales del enfoque de la industria, tanto como en el material utilizado para el proceso, la geometría general de los componentes del producto y también el volumen de producción calculado.[1] | 3Ciencia_y_Tecnología
|
El efecto Larsen, también llamado acople, feedback o retroalimentación acústica es un fenómeno que aparece cuando un micrófono recibe el sonido emitido por un altavoz. Basta entonces que un sonido, incluso uno muy breve, se produzca ante el micrófono para que se oiga por el altavoz un sonido continuo. En el caso de una señal de vídeo, la imagen aparece repetida dentro de sí misma recursivamente.[1] El nombre viene de Søren A. Larsen (1871-1957),[2] físico danés que trabajó en el campo de la electroacústica. El fenómeno fue publicado en 1911.[3]
Esto sucede porque el altavoz, excitado por la señal eléctrica enviada desde el micrófono, emite una onda sonora, la cual hace vibrar el micrófono, y el fenómeno se repite persiguiéndose los dos elementos del bucle indefinidamente. La energía que se precisa proviene del generador que alimenta el altavoz.[1] | 3Ciencia_y_Tecnología
|
Witricidad (del inglés witricity o wireless electricity) es una marca registrada de la corporación WiTricity[1] que se refiere a los dispositivos y procesos que utilizan una forma de transferencia inalámbrica de energía para proporcionar energía eléctrica sin el uso de cables a objetos a distancia utilizando para ello campos magnéticos oscilantes. La witricidad utiliza los campos de resonancia magnética para disminuir la pérdida de energía. El término witricity fue utilizado para un proyecto dirigido por el Profesor Marin Soljačić en 2007.[2][3] | 3Ciencia_y_Tecnología
|
Sociograph[1] es una tecnología que se enmarca en al ámbito de la Neurociencia Social, ciencia que estudia los procesos neuropsicológicos, cognivos, perceptivos, emocionales dentro de un paradigma social o grupal. Procesos que estudia el comportamiento de los grupos en ámbitos como la toma de decisiones, la comunicación audiovisual, la publicidad, el Neuromarketing, la opinión pública y otros muchos campos de la Psicología y la Sociología. Sociograph basa su funcionamiento en el registro simultáneo de variables psicofisiológicas ( como puede ser la actividad electrodérmica ) en un grupo de sujetos en tiempo real y con análisis posteriores, por medio de modelados matemáticos y algoritmos basados, fundamentalmente, en análisis de series temporales. Esta actividad eléctrica se recoge gracias a unos brazaletes colocados en la muñeca de cada participante con dos sensores emplazados en la segunda falange de los dedos índice y corazón. Esta tecnología permite la medición de los procesos reactivos, atencionales y emocionales que son compartidos por los miembros del grupo, separándolos de los procesos individuales. Siempre teniendo en cuenta que los seres humanos, cuando están en grupos, presentan conductas y emociones diferentes a las que se tienen en el nivel individual, lo que permite abrir, con esta tecnología, un nuevo campo a la investigación social. | 3Ciencia_y_Tecnología
|
La historia de la teoría del Big Bang comienza con las observaciones y las consiguientes reflexiones teóricas que fueron conformando dicha teoría. Gran parte del trabajo teórico de la cosmología se centra en estos momentos en profundizar y mejorar el modelo básico del Big Bang. | 3Ciencia_y_Tecnología
|
La telemercadotecnia o telemercática (en inglés: telemarketing) es una forma de mercadotecnia directa en la que un asesor utiliza el teléfono o cualquier otro medio de comunicación para contactar con clientes potenciales y comercializar los productos y servicios. Los clientes potenciales se identifican y clasifican por varios medios como su historial de compras, encuestas previas, participación en concursos o solicitudes de empleo (por ejemplo, a través de Internet) Los nombres también pueden ser comprados de la base de datos de otra compañía u obtenidos de la guía de teléfonos u otra lista pública o privada. El proceso de clasificación sirve para encontrar aquellos clientes potenciales con mayores probabilidades de comprar los productos o servicios que la empresa en cuestión ofrece.
Las compañías de investigación de mercados utilizan a menudo las técnicas de telemercadotecnia para buscar clientes potenciales o pasados del negocio de un cliente o para sondear la aceptación o rechazo de un producto, marca o empresa en concreto. Las encuestas de opinión se realizan de una manera similar.
Las técnicas de telemercadotecnia también pueden ser aplicadas a otras formas de mercadotecnia utilizando mensajes de Internet o fax | 3Ciencia_y_Tecnología
|
Ingeniería metabólica es una nueva ciencia que apareció en la década de los 90's. Está asociada con la biología y la química. La ingeniería metabólica permite el diseño de vías bioquímicas que no existen en el mundo natural, así como el rediseño de las rutas bioquímicas a menudo con el uso de la ingeniería genética. Ingenieros metabólicos bioquímicos suelen modificar por reducir el uso de energía celular o la producción de residuos, cambiando el flujo de nutrientes a las células, o la mejora de la productividad y el rendimiento de una vía concreta. Además, los ingenieros metabólicos potencialmente pueden diseñar nuevos organismos que están hechos a la medida para los productos químicos y los procesos de producción deseado. Muchos nuevos compuestos de interés industrial y médico pueden ser producidos por ingeniería metabólica. En el siglo XXI, los principales esfuerzos de ingenieros metabólicos se concentran en biocombustibles y productos farmacéuticos. | 3Ciencia_y_Tecnología
|
El cientificismo o cientifismo es la postura reduccionista que afirma la aplicabilidad universal del método y el enfoque científico, y la idea de que la ciencia empírica constituye la cosmovisión más acreditada o la parte más valiosa del conocimiento humano, con la exclusión de otros puntos de vista.[1] Se ha definido como "la postura de que los métodos inductivos característicos de las ciencias naturales son la única fuente de conocimiento genuina y factual y que, en concreto, solo ellos pueden producir conocimiento auténtico sobre el hombre y la sociedad".[2][3]
El término cientificismo a menudo implica una crítica de la forma más extrema del positivismo lógico[4][5] y se ha usado por científicos sociales como Friedrich Hayek,[6] filósofos de la ciencia como Karl Popper,[7] y filósofos como Hilary Putnam[8] y Tzvetan Todorov[9] para describir un apoyo dogmático al método científico y la reducción de todo el conocimiento a todo lo que es medible.[10] También se ha usado para la postura de que la ciencia es la única fuente confiable de conocimiento por filósofos como Alexander Rosenberg.[11]
Cientificismo puede referirse a la ciencia aplicada "en exceso". El término puede tener uno de dos significados:
Para indicar el uso inapropiado de la ciencia o de afirmaciones científicas.[12] Este uso aplica también en contexto donde la ciencia no podría aplicarse,[13] como cuando el tema se considera estar más allá del ámbito de la investigación científica y en contextos donde no hay suficiente evidencia empírica para justificar una conclusión científica. En este caso el término es una réplica a apelar a la autoridad científica.
Para referirse a "la postura de que los métodos de la ciencia natural o las categorías o cosas aceptadas en ella, forman los únicos elementos adecuados de cualquier filosofía u otra investigación,"[14] o que la "ciencia, y solo la ciencia, describe el mundo como es en sí mismo, independiente de la perspectiva"[8] con la simultánea "eliminación de las dimensiones psicológicas de la experiencia".[15][16]Historiadores, filósofos y críticos culturales lo han usado para destacar los posibles peligros de caer hacia un reduccionismo excesivo en todos los campos del saber humano.[17][18][19][20][21] Para teóricos sociales de la tradición de Max Weber, tales como Jürgen Habermas y Max Horkheimer, el concepto de scientism se relaciona significativamente con la filosofía del positivismo, pero también con la racionalización de la sociedad occidental moderna.[10][22] La escritora británica y feminista Sara Maitland ha llamado al cientifismo como un "mito tan pernicioso como cualquier otra clase de fundamentalismo".[23]
La principal crítica realizada en contra del uso del término es su utilización por parte de los partidarios de las pseudociencias y la religión como escudo, no frente al cientificismo, sino frente a aquellos argumentos científicos y desarrollos teóricos que les resultan incómodos y contradicen sus creencias y dogmas.[24] Desde una perspectiva religiosa se ha tratado de descalificar así los intentos de explicar como fenómenos naturales temas como la biología evolutiva, fenómenos como la moralidad o el impulso religioso por autores como Dennett, Francis Crick o Wolpert. El filósofo estadounidense Daniel Dennett respondió a la críticas de su libro Breaking the Spell: Religion as a Natural Phenomenon afirmando que «cuando alguien postula una teoría científica que a los críticos religiosos les desagrada, tratan de desacreditarla simplemente tachándola de "cientificista"».[25] | 3Ciencia_y_Tecnología
|
La etnografía activista o a veces llamada también investigación militante es una metodología cualitativa introducida por Norman K. Denzin en The Call to Performance (2003), un artículo en forma de manifiesto en el que aboga por una nueva metodología en la que la actividad investigadora es, a su vez, una práctica política que como tal busca unos fines concretos. Junto con la etnografía performativa se puede considerar un tipo de etnografía crítica.[1]
El estudio de campo, término originario de la antropología, enfatiza que los datos para el análisis se recogen en el campo, no en el laboratorio. La etnografía es un método particular de investigación dentro de este contexto y se propone describir una cultura en su contexto mismo de interacción social.
Los sextos y séptimos momentos de lo que hablaba Denzin hacen referencia a expandir las fronteras de la investigación para incluir etnografía autobiográfica, representaciones poéticas y multimedia. Y para añadir el discurso ético-moral, desarrollar textualidades sacras, entender las ciencias sociales como espacios de conversación crítica.
La etnografía activista se entiende como una parte del posicionamiento ontológico y epistemológico de una investigación y no como algo aparte ya que la manera de producir conocimiento en un contexto concreto en el que se forma parte del entramado actante-rizoma, estará ligada a la comprensión del fenómeno, las prácticas que él se lleven a cabo, la responsabilidad, compromiso y la propuesta de cambio social. | 3Ciencia_y_Tecnología
|
Un filtro mangas es un dispositivo para la separación de partículas sólidas en suspensión de una corriente gaseosa. No elimina la contaminación por compuestos volátiles.
Los filtros mangas se utilizan sobre todo en instalaciones industriales como una alternativa a los precipitadores electrostáticos.
Los filtros de mangas son filtros de auto limpieza continua que utilizan elementos filtrantes tipo mangas autos soportados, capaces de retener partículas submicrónicas transportadas por la corriente de aire o gas. La cualidad principal de estos equipos es la enorme simplicidad de diseño y trabajo y la gran versatilidad en su utilización.
Una unidad de filtro de manga consiste de uno o más compartimientos aislados conteniendo hileras de mangas de tela, en la forma de tubos redondos o mangas. El polvo transportado por la masa de aire pasa, por aspiración o depresión, a lo largo del área de las mangas y luego radialmente a través de la tela, reteniendo estas últimas por su parte exterior las partículas de polvo. El aire filtrado, una vez en el interior de las mangas, pasa a la cámara superior de aire limpio (pleno) a través de las boquillas del vénturi y de allí al exterior por medio del aspirador (ventilador). Un manómetro indica la presión diferencial entre la cámara de aire limpio y la cámara de aire sucio, totalmente separadas entre sí por la placa perforada (placa espejo) en la cual se instala el conjunto jaulas-mangas, únicamente conectadas a través del tejido filtrante. El filtro es operado cíclicamente, alternando entre períodos de filtrado relativamente largo y períodos cortos de limpieza. Durante la limpieza, el polvo que se ha acumulado sobre las mangas es eliminado del área de la tela y depositado en una tolva para su disposición posterior.
Los filtros de manga recolectan partículas de tamaños que van desde las submicras hasta varios cientos de micras de diámetro, con eficiencias generalmente en exceso al 99 o 99.9%. La capa de polvo o dusk cake formada sobre la tela es la razón principal de esta alta eficiencia. La torta de polvo es una barrera con poros tortuosos que atrapan a las partículas a medida que viajan por la torta. En algunas configuraciones pueden acomodarse rutinariamente temperaturas de gas hasta , con picos hasta cerca de . La mayor parte de la energía utilizada para operar el sistema aparece como caída de presión a través de las mangas, y de las partes y conductos asociados. Los valores típicos de la caída de presión del sistema varía desde cerca de 5 hasta 6 pulgadas columna de agua. Los filtros de mangas se utilizan donde se requiere una alta eficiencia de recolección de partículas. Se imponen limitaciones por las características del gas (la temperatura, humedad y corrosividad) y por las características de las partículas (principalmente la adhesividad), que afectan a la tela o a su operación y que no pueden ser tomadas en cuenta económicamente.[1]
El funcionamiento de las filtros mangas está determinado entre otros factores, por la tela seleccionada, la frecuencia y el método de limpieza y las características de las partículas. El parámetro de diseño más importante es la relación aire-tela (la cantidad de gas en pies cúbicos por minuto que penetra un pie cuadrado de tela) y el parámetro de operación de interés por lo general es la caída de presión a través del sistema de filtro. La característica de operación principal de los filtros mangas que los distingue de otros filtros de gas es la capacidad de renovar la superficie de filtración periódicamente por medio de limpiezas y no ser desechados después de que se acumule una capa significante de polvo sobre la superficie como los filtros de horno comunes: high efficiency particulate air filters - HEPA (filtros de aire de alta eficiencia para particulados), los high efficiency air filters - HEAF (filtros de aire de alta eficiencia), y los filtros de aire por inducción automotriceses. | 3Ciencia_y_Tecnología
|
ORCID (en inglés "Open Researcher and Contributor ID", en español Identificador Abierto de Investigador y Colaborador) es un código alfanumérico, no comercial, que identifica de manera única a científicos y otros autores académicos.[1][2][3][4][5] Esto responde al problema de que las contribuciones de un autor particular a la literatura científica, o a las publicaciones en Humanidades, pueden ser difíciles de identificar pues la mayoría de nombres personales no son únicos sino que pueden cambiar (por ejemplo en el matrimonio). De esta forma, existen diferencias culturales en el orden de los nombres, hay incongruencias en el uso de las abreviaturas del nombre de pila, o se emplean diferentes sistemas de escritura. Este código proporciona entonces una identidad duradera para humanos, similar a aquellos que son creados para entidades de contenido relacionado con las redes digitales, lo cual se hace a través de identificadores de objetos digitales (DOI).[6]
La organización ORCID ofrece un registro abierto e independiente, el cual pretende ser el estándar de facto para la identificación de colaboradores en investigación y publicaciones académicas. El 16 de octubre de 2012, ORCID lanzó sus servicios de registro y empezó emitir sus identificadores de usuario.[7][8][9] | 3Ciencia_y_Tecnología
|
ALBA es la única fuente de luz de sincrotrón en España. Se trata de un complejo de aceleradores de electrones con los que se genera luz de sincrotrón (o radiación sincrotrón) para analizar a nivel atómico y molecular las propiedades de la materia. Sus aplicaciones abarcan numerosos ámbitos: física, química, ciencias de la vida, medio ambiente, patrimonio histórico, etc. Forma parte de la red de Infraestructuras Científicas y Técnicas Singulares (ICTS). Está emplazada en Sardañola del Vallés, Barcelona (Cataluña, España), en el Parc de l'Alba, cerca del campus de la Universidad Autónoma de Barcelona. Se trata de un instalación pública al servicio de la comunidad científica, financiada a partes iguales por el Gobierno de España y la Generalidad de Cataluña. Está gestionada por el Consorcio para la Construcción, Equipamiento y Explotación del Laboratorio de Luz de Sincrotrón (CELLS). Desde 2012, su directora es la física Caterina Biscari. Forma parte de la Liga Europea de Fotones basadas en Aceleradores (LEAPS), un consorcio formado por otras doce fuentes de luz de sincrotrón y seis láseres de electrones libres de todo el continente, tiene como meta coordinar la política europea de uso y desarrollo de estas infraestructuras.
| 3Ciencia_y_Tecnología
|
El diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa-efecto.
El diseño experimental encuentra aplicaciones en la industria, la agricultura, la mercadotecnia, la medicina, la ecología, las ciencias de la conducta, etc. constituyendo una fase esencial en el desarrollo de un estudio experimental. | 3Ciencia_y_Tecnología
|
El Instituto Complutense de Análisis Económico (ICAE), es un centro de investigación de la Universidad Complutense de Madrid (UCM).[1] Su equipo está conformado por profesores e investigadores de la Facultad de Ciencias Económicas y Empresariales de la UCM, así como de investigadores y docentes de otras universidades españolas e internacionales.
Además de la actividad investigadora (investigación básica y aplicada, documentos de trabajo, seminarios de investigación (semanales), intercambio de investigadores visitantes, publicaciones del personal docente e investigador del instituto, proyectos de investigación en colaboración con otras instituciones, tesis doctorales), la actividad docente del ICAE se desarrolla a través de su participación en el Máster en Banca y Finanzas Cuantitativas y en el Doctorado en Finanzas y Economía Cuantitativas y de la organización de talleres y seminarios.[2][3] | 3Ciencia_y_Tecnología
|
Un documento de posición es un ensayo que presenta una opinión sobre un problema, típicamente de un autor u otra entidad específica, tal como un partido político. Los documentos de posición son publicados en el mundo académico, político, de derecho y otros dominios.
Los documentos de posición van desde el formato más simple como una carta al editor hasta la más compleja forma académica de un documento de posición.[1] Los documentos de posición son también usados por grandes organizaciones para hacer públicas las creencias oficiales y recomendaciones del grupo.[2] | 3Ciencia_y_Tecnología
|
La Foundation for Intelligent Physical Agents (FIPA) es un organismo para el desarrollo y establecimiento de estándares de software para agentes heterogéneos que interactúan y sistemas basados en agentes.
FIPA fue fundada como una organización suiza sin ánimo de lucro en 1996 con el ambicioso objetivo de definir un conjunto completo de normas para la implementación de sistemas en los que se puedan ejecutar agentes (plataformas de agentes) y especificación de cómo los propios agentes se deben comunicar e interactuar.
A lo largo de sus años de vida, la organización contó entre sus miembros con varias instituciones académicas y un gran número de empresas como Hewlett-Packard, IBM, BT (antiguamente British Telecom), Sun Microsystems, Fujitsu y muchos más. Algunas normas fueron propuestas, sin embargo, aparte de varias plataformas de agentes que adoptaron el "estándar FIPA" para la comunicación de agentes, nunca logró obtener el apoyo comercial que se había previsto. La organización suiza se disolvió en 2005 y un comité de estándares IEEE se creó en su lugar.
Los estándares FIPA más ampliamente adoptados son las especificaciones Agent Management y Agent Communication Language (FIPA-ACL). | 3Ciencia_y_Tecnología
|
Reforma[1] es el nombre que se da a un proceso de cambio de aspecto y/o de funcionalidad de una estructura (entendido en sentido amplio), o sea, una modificación en la forma y/o en el tamaño de la misma, y/o una ampliación, con fines de remodelamiento y/o adaptación a otros usos, incluyendo casi siempre también tareas de preservación y mantenimiento (tratamientos contra la acción de los elementos, pintura, impermeabilización, etc).
En el área de la arquitectura, implica en muchos casos una real reconstrucción total o parcial de una edificación, por estar la misma en estado ruinoso y de abandono, o por la necesidad de reparaciones necesarias para mantener o mejorar la estabilidad estructural, o para adaptar lo existente a un nuevo proyecto, etc (en muchos casos usando andamios y/o cimbras y/o cercas y/o redes de protección).[cita requerida]Cuando nos referimos a una reforma generalmente aludimos a un proceso total o parcial de modernización o readaptación de una vivienda unifamiliar, o de un negocio, o de una edificio de renta, pero también podríamos referirnos a un barrio entero o a toda una ciudad o poblado ; en ese caso, el término más adecuado sería el de renovación urbana. En Francia, de la transformación urbana se ocupa particularmente la llamada Agence nationale pour la rénovation urbaine (ANRU), incluso de lo que podríamos llamar ciudad reconstruida sobre ella misma o zona urbana densa; en este último aspecto, lo que se trata es de limitar la periurbanisación, pues ella suele tener efectos negativos sobre el medio ambiente, así como sobre el encarecimiento del transporte y la especulación financiera, y la complejización de servicios tales como el saneamiento y los centros de salud, etc, los que deben ser extendidos a zonas periféricas con baja densidad de población. con la consecuente pérdida progresiva de áreas naturales y rurales así como con otros inconvenientes que ello presupone. | 3Ciencia_y_Tecnología
|
Watringue o Wateringue o Watering (la w en todos estos casos se pronuncia [v]) palabra masculina o femenina, procede del idioma neerlandés watering en singular y wateringen en plural, que proviene del nombre dado en tal idioma al agua: water (pronunciado "váter").
Watringe o wateringen es usado para describir la red de canales y obras de drenaje en zonas costeras, el drenaje se produce durante las bajamares o mareas bajas en las zonas muy húmedas o inundables situadas en llanuras próximas al mar con muy poca elevación respecto al nivel del mar tal cual se observa en los artificiales pólders.
La palabra que se escribe a la francesa como Watringue o Wateringue, es prácticamente sinónima Watergang, zona donde el agua excedente es reenviada al mar durante la marea baja cuando las esclusas son abiertas, o se extrae mediante los molinos de vientos y actualmente merced a poderosas bombas mecánicas -motobombas- (generalmente eléctricas).
Esta palabra es usada en la Región francesa del Nord-Pas-de-Calais, especialmente en las regiones costeras del llamado Flandes "francés", así como en Bélgica y los Países Bajos.
Por metonimia, esta palabra describe también a la asociación (ocasionalmente obligatoria) de los propietarios que financian en común los trabajos de mantenimiento y funcionamiento de este tipo de red hídrica artificial. En el norte de Francia esta red está dividida en «sections de watringues» (secciones de wateringues) donde los asociados deben mantener tal red, con la ayuda de la administración y la subvención de colectividades si se requiere. | 3Ciencia_y_Tecnología
|
AGV se corresponden con las siglas de Automatic Guided Vehicle (o Automated Guided Vehicle), es decir, vehículo de guiado automático. Los sistemas de AGV tienen sus comienzos en 1953, cuando se pensó en hacer realidad un “sueño” un camión remolque sin conductor. Este primer vehículo precisaba de cable que, enterrado en el suelo de la fábrica, creaba un campo magnético que servía de guía al vehículo. Poco a poco, se han ido incorporando al mundo industrial a la vez que crecían en aplicaciones y sofisticación.
El uso de los AGVs en la industria, e incluso en el sector servicios (como guía u otras aplicaciones) proporciona una gran flexibilidad, aumenta la eficiencia, y evita la exposición del personal a tareas potencialmente peligrosas. | 3Ciencia_y_Tecnología
|
Éric Sadin, nacido el 3 de septiembre de 1973,[1] es un escritor y filósofo francés, conocido principalmente por sus escritos tecnocríticos. | 3Ciencia_y_Tecnología
|
La División Digital de Género se define como un conjunto de sesgos de género introducidos en los productos tecnológicos, en el sector de la tecnología y en la educación en materia de conocimientos digitales e informáticos.[1][2] | 3Ciencia_y_Tecnología
|
No debe confundirse con TeheránTeheranno (en coreano "Bulevar de Teherán") es una calle en el distrito de Gangnam-gu en Seúl, Corea del Sur.
Se extiende a través de la estación de Gangnam Yeoksam-dong y en Samseong-dong y se conoce coloquialmente como "Valle de Teherán" (haciendo un paralelismo con Silicon Valley) debido al gran número de empresas relacionadas con internet que operan allí y entre las que se encuentran portales de internet, Daum, Naver, Google, Samsung Electronics o Hynix.
También hay instituciones financieras y otras empresas como POSCO, Standard Chartered y Citibank.
Algunos de los rascacielos más altos de Corea e inmuebles más caros están en Teheranno, mientras que Gobierno Metropolitano de Seúl estima que más de la mitad del capital de riesgo de Corea, unos ₩ 200.000 millones de wongs (aproximadamente $ 200.000.000) se invierten en este "Teherán Valley"[1]
Teheranno es una sección de 3,5 kilómetros de la carretera 90 de Corea, y se extiende hacia el este de Gangnam Station a Samseong Station y COEX / KWTC complejo. Yeoksam y Seolleung también se encuentran en las estaciones de Teheranno. Todas las estaciones están en Línea 2 del metro de Seúl. | 3Ciencia_y_Tecnología
|
Supervivencia, Evasión, Resistencia y Escape (en inglés: Survival, Evasion, Resistance, and Escape; o por su acrónimo, SERE) es un programa de entrenamiento que prepara a personal militar de Estados Unidos, civiles del Departamento de Defensa y contratistas militares privados, para que puedan sobrevivir y "regresar con honores" en diversos escenarios de supervivencia. La instrucción incluye técnicas de supervivencia, evadir capturas, técnicas y métodos para escapar del cautiverio y la aplicación del código de conducta militar. Establecido formalmente por la Fuerza Aérea de Estados Unidos al final de la Segunda Guerra Mundial y al comienzo de la "Guerra Fría", se extendió a la Armada y al Cuerpo de Marines, y se consolidó dentro de la Fuerza Aérea durante la Guerra de Corea con un mayor enfoque en " entrenamiento de resistencia".
El centro de entrenamiento en SERE se encuentra en Fairchild AFB, Washington, mientras que el del ejército se encuentra en Fort Bragg, Carolina del Norte y en Fort Rucker, Alabama. El centro de entrenamiento de la Armada y de los Marines tiene dos localizaciones: en Warner Springs, California y en la Estación Aérea Naval de Brunswick, Maine. | 3Ciencia_y_Tecnología
|
La Fábrica de Luz. Museo de la Energía es un museo situado en Ponferrada, en la comarca del Bierzo, provincia de León, comunidad autónoma de Castilla y León (España). Se ubica junto al Puente del Centenario. | 3Ciencia_y_Tecnología
|
La sociedad industrial y su futuro es un manifiesto escrito bajo el seudónimo de «Freedom Club» por Theodore Kaczynski, alias Unabomber. Bajo aquel nombre, «El club de la libertad» en español, fue reivindicada una serie de envíos de cartas bomba y el asesinato de Thomas Mosser. En abril de 1995, Freedom Club envió una carta a The New York Times en la que ofrecía abandonar de forma permanente sus actividades terroristas a cambio de que se publicara un artículo largo de unas 30 000 palabras.[1] Esta oferta generó cierta controversia[2] que fue resuelta con la publicación de ese artículo en septiembre de aquel mismo año, conocido popularmente a partir de entonces como El manifiesto de Unabomber, aunque su título original en español es La sociedad industrial y su futuro. Traducido a más de doce idiomas, en español existen varias traducciones diferentes aunque de calidad desigual.[3] Sus versiones accesibles a través de la red están incompletas y contienen numerosos errores.[4]
Alston Chase informó en The Atlantic que el texto "fue recibido en 1995 por muchas personas reflexivas como una obra de genio, o al menos profunda, y bastante cuerdo"[5]
El profesor de ciencias políticas de UCLA James Q. Wilson fue mencionado en el manifiesto; escribió en The New Yorker que la sociedad industrial y su futuro era "un artículo cuidadosamente razonado y artísticamente escrito, si es obra de un loco, entonces los escritos de muchos filósofos políticos son apenas más cuerdos".[6]
David Skrbina, profesor de filosofía en la Universidad de Míchigan y ex candidato del Partido Verde a gobernador de Míchigan, ha escrito varios ensayos en apoyo de las ideas de Kaczynski, entre ellos uno que se titula "Un revolucionario para nuestro tiempo". Paul Kingsnorth, ex subdirector de The Ecologist y cofundador de The Dark Mountain Project, escribió un ensayo para la revista Orion en el que describió los argumentos de Kaczynski como "preocupantemente convincentes" y afirmó que "puede cambien mi vida".[7]
| 3Ciencia_y_Tecnología
|
La ingeniería petroquímica es la rama de la química, encargada del estudio de los procesos que involucran la transformación de materias primas (preferiblemente gaseosas) en productos plásticos terminados, así como también la operación de los mismos.
El ingeniero petroquímico está en capacidad de:
Explicar y manejar los conceptos que describen los fenómenos físico-químicos en la naturaleza.
Relacionar el conocimiento integral de las ciencias básicas y sus aplicaciones, seguido por la interpretación de las leyes fundamentales de conservación de la masa, la energía y la cantidad de movimiento.
Integrar el diseño, la operación y el control de unidades industriales de procesos de transformación química y separación.
Manejar conceptos de equilibrio químico, dinámica de sistemas, teorías de medición y control de procesos.
Desarrollar modelos matemáticos que rigen el comportamiento de los procesos industriales, en materia petroquímica.
Proponer estrategias y técnicas de medición e instrumentación.
Proponer y ejecutar alternativas tecnológicas en productos y procesos tecnológicos.
Señalar estrategias en la solución de problemas dentro de su organización o equipo de trabajo. | 3Ciencia_y_Tecnología
|
La Agencia Internacional de la Energía o AIE (en inglés: International Energy Agency o IEA, y en francés: Agence Internationale de l'Energie) es una organización internacional, creada por la Organización para la Cooperación y el Desarrollo Económico (OCDE) tras la crisis del petróleo de 1973, que busca coordinar las políticas energéticas de sus Estados miembros, con la finalidad de asegurar energía confiable, adquirible y limpia a sus respectivos habitantes. | 3Ciencia_y_Tecnología
|
Kiln es un término del idioma inglés equivalente a horno,[1][2] y usado en algunos contextos especializados o medios comerciales para referirse a un tipo de cámara térmicamente aislada y sometida a un control de temperatura. | 3Ciencia_y_Tecnología
|
El asunto de los estudios del agravio (en inglés, Grievance Studies affair), también conocido como Sokal al cuadrado (Sokal Squared, en referencia a un bulo similar de 1996, el escándalo Sokal), fue el proyecto de un equipo de tres autores (James A. Lindsay, Peter Boghossian, y Helen Pluckrose) para crear artículos académicos espurios y entregarlos a revistas especializadas en estudios culturales, queer, de raza, de género, de aceptación de la obesidad, y de la sexualidad. El intento de los autores con estos bulos fue exponer problemas en los llamados «estudios del agravio» (grievance studies), un término que los autores aplican a una subcategoría de estas áreas académicas, en donde, según afirman, «la ciencia deficiente está socavando el trabajo real e importante que se está realizando en otros lugares».[1][2][3]
El bulo comenzó en 2017 y continuó en 2018, cuando fue detectado después de que uno de los documentos llamó la atención de los periodistas, quienes rápidamente encontraron que su supuesta autora, Helen Wilson, no existía.[1][3][2] Esto atrajo una mayor atención por parte de los medios de comunicación, ya que el bulo fue expuesto más ampliamente por los noticieros.[1][4][5][6]
Para el momento de la revelación, cuatro de sus 20 artículos habían sido publicados, tres habían sido aceptados pero aún no publicados, seis habían sido rechazados, y siete estaban todavía bajo revisión. Uno de los artículos publicados había ganado un reconocimiento especial.[7] | 3Ciencia_y_Tecnología
|
Las mujeres han contribuido notablemente a la ciencia desde sus inicios. El estudio histórico, crítico y sociológico de este asunto se ha vuelto una disciplina académica en sí misma.
Involucrar a mujeres en el campo de la medicina ocurrió en varias civilizaciones antiguas y el estudio de la filosofía natural estaba abierto a las mujeres en la Antigua Grecia. Las mujeres también contribuyeron en la protociencia de la alquimia en el siglo I y II d. C. Durante la Edad Media, los conventos fueron un importante lugar para la educación femenina y algunas de estas instituciones proporcionaron oportunidades para que las mujeres pudiesen formar parte y contribuir en el campo de la investigación. Pero en el siglo XI se fundaron las primeras universidades y las mujeres fueron excluidas de la educación universitaria.[1] La actitud de educar a mujeres en el campo de la medicina era más liberal en Italia que en otros lugares.[1] La primera mujer conocida en completar los estudios universitarios en un campo de estudios científicos fue Laura Bassi en el siglo XVIII.
Aunque los roles de género estaban muy definidos en el siglo XVIII, las mujeres experimentaron un gran avance en el campo de la ciencia. Durante el siglo XIX las mujeres seguían excluidas de una educación científica formal, pero empezaron a admitirse en sociedades educativas de menor nivel. Posteriormente en el siglo XX el aumento de mujeres que estudiaban en universidades proporcionó trabajos remunerados para las mujeres que se quisiesen dedicar a la ciencia y oportunidades para educarse. Marie Curie, la primera mujer en recibir un Premio Nobel de Física en 1903, fue también la primera y hasta ahora única persona en obtener dos premios en dos disciplinas científicas, al recoger en 1911 el de química; ambos premios fueron por su trabajo sobre la radiación. 53 mujeres en total han recibido el Premio Nobel entre 1901 y 2019.[2] | 3Ciencia_y_Tecnología
|
Asseco Polonia SA es una de las empresas más grandes en el sector de tecnología de cuantas aparecen en la Bolsa de valores de Varsovia. Fundado en 1991, y proporciona software de ordenador a la industria bancaria. La empresa actual es el resultado de una fusión entre la ASSET Soft AS y COMP Rzeszów SA. Actualmente proporciona una variedad de servicios al bancarios e industrias de finanza. Su sede central está en Rzeszów, Polonia; en España se encuentran situados en Madrid.
Los ingresos consolidados del Grupo Asseco en 2020 ascendieron a 12 190 millones PLN y el beneficio neto ascendió a 401,9 millones PLN. El beneficio operativo ascendió a más de 23,8 millones PLN[1] | 3Ciencia_y_Tecnología
|
La desextinción es el conjunto de técnicas que permiten volver a engendrar a un ejemplar o incluso revivir una especie extinta completa ya desaparecida. Se han postulado tres técnicas de desextinción y se han probado dos de estas con animales extintos recientemente. Por el momento, todos los casos han arrojado pobres resultados, pero ambas han demostrado su viabilidad.
La desextinción presenta multitud de problemas técnicos y también de otra índole, como legales o éticos, por ello muchos científicos se manifiestan en contra de subvencionarla con fondos públicos, dejándola solo para la iniciativa privada.
El sueño de volver a ver vivas especies desaparecidas ha ocupado un espacio considerable dentro de la literatura y el cine, sobre todo en el género de ficción científica. Esta profusión ha contribuido a crear la idea de ser algo al alcance los medios existentes en el siglo XX y XXI. Sin embargo, estas obras abordan el tema considerando a las especies revividas como un peligro en sí mismas, en lugar de prestar atención a otras amenazas más plausibles, caso de la transmisión de plagas o la producción de nuevas epidemias.
| 3Ciencia_y_Tecnología
|
La Comisión Internacional de Unidades y Medidas Radiológicas (ICRU) es un organismo de normalización establecido en 1925 por el Congreso Internacional de Radiología.[1] Su objetivo es desarrollar recomendaciones internacionalmente aceptables para las cantidades y unidades de radiación y la radiactividad, así como los procedimientos de medición asociados y datos físicos. | 3Ciencia_y_Tecnología
|
La tecnología (del griego τέχνη téchnē, ‘arte’, ‘oficio’ y -λογία -loguía, ‘tratado’, ‘estudio’[2]) es la suma de técnicas, habilidades, métodos y procesos utilizados en la producción de bienes o servicios o en el logro de objetivos, como la investigación científica. La tecnología puede ser el conocimiento de técnicas, procesos y similares, o puede integrarse en máquinas para permitir su funcionamiento sin un conocimiento detallado de su funcionamiento. Los sistemas (por ejemplo, máquinas) que aplican tecnología tomando una entrada, cambiándola de acuerdo con el uso del sistema y luego produciendo un resultado se denominan sistemas tecnológicos.[3]
La tecnología tiene muchos efectos. Ha ayudado a desarrollar economías más avanzadas (incluida la economía global actual). Muchos procesos tecnológicos producen externalidades negativas como la contaminación y agotan los recursos naturales, en detrimento del planeta Tierra. Sin embargo, la tecnología también puede ser usada para proteger el medio ambiente, buscando soluciones para resolver de forma sostenible las crecientes necesidades de la sociedad, sin provocar un agotamiento o degradación de los recursos materiales y energéticos del planeta o aumentar las desigualdades sociales.[3]
Las innovaciones influyen en los valores de cada sociedad y cuestiones éticas de la tecnología. Los ejemplos incluyen el surgimiento de la noción de eficiencia en términos de productividad humana y los desafíos de la bioética. El campo interdisciplinario de estudios de ciencia, tecnología y sociedad abarca tales efectos culturales, éticos y políticos.[4]
Han surgido debates filosóficos sobre la tecnología, con desacuerdos sobre si la tecnología mejora o empeora la condición humana. El neoludismo, el anarco-primitivismo y movimientos similares critican la omnipresencia de la tecnología, argumentando que daña el medio ambiente y aliena a las personas. Los defensores de ideologías como el transhumanismo y el tecnoprogresismo ven el progreso tecnológico continuo como beneficioso para la sociedad y la condición humana. | 3Ciencia_y_Tecnología
|
Arkikus App es una aplicación móvil dirigida a dispositivos iOS y Android, creada por una compañía española, Arkikus.
Esta aplicación permite al usuario visualizar reconstrucciones de lugares patrimoniales a través de la realidad virtual, mostrando el estado original de los edificios o patrimonios históricos. | 3Ciencia_y_Tecnología
|
Desarrollo iterativo y creciente (o incremental) es un proceso de desarrollo de software creado en respuesta a las debilidades del modelo tradicional de cascada.
Básicamente este modelo de desarrollo, que no es más que un conjunto de tareas agrupadas en pequeñas etapas repetitivas (iteraciones),[1] es uno de los más utilizados en los últimos tiempos ya que, como se relaciona con novedosas estrategias de desarrollo de software y una programación extrema, es empleado en metodologías diversas.
El modelo consta de diversas etapas de desarrollo en cada incremento, las cuales inician con el análisis y finalizan con la instauración y aprobación del sistema.[2] | 3Ciencia_y_Tecnología
|
Una barrera de aire controla el escape de aire dentro y fuera de la envolvente del edificio. Los productos de barrera del aire pueden tomar varias formas:
Membranas mecánicamente atadas, también conocidas como housewraps; normalmente una poliolefina de fibra de polietileno o no tejida hilada, como el Tyvek, se acepta generalmente que es una barrera a la humedad y al aire (ASTM E2178).
Membranas auto-adheridas, son típicamente también una barrera resistente al agua y una barrera al vapor.
Membranas de aplicación de fluidos, como las pinturas de cuerpo pesado o los recubrimientos, incluyendo materiales basados en s y basados en asfálticos.
Espuma de poliuretano de célula cerrada de densidad media aplicada en espray, que típicamente además proporciona aislamiento.
Algunas espumas de poliuretano de aplicación enespray de célula abierta, que son de densidad alta.
Boardstock, que incluye el contrachapado de 12 mm o OSB, poliestireno extruido de 25 mm, etc.Las barreras de aire se dividen en barreras materiales del aire, accesorios de barrera del aire, componentes de barrera del aire, ensamblajes de barrera del aire y sistemas de barrera del aire. | 3Ciencia_y_Tecnología
|
El concepto de ciencia normal fue acuñado por el epistemólogo estadounidense Thomas S. Kuhn en su obra cumbre "La Estructura de las Revoluciones Científicas" (The structure of scientific revolutions, 1962).
Este término indica una de las fases por las que un paradigma se establece como principal forma de trabajo de una comunidad científica. Durante el período de ciencia normal, los científicos se dedican al fortalecimiento de este por medio de experimentaciones y verificaciones de los postulados principales del mismo.
Después del período de revolución científica inicial causado por una nueva teoría en un determinado campo de la ciencia, si ésta logra solucionar las anomalías de una anterior (aunque pueda tener las suyas propias y generar nuevos interrogantes) y calar en la comunidad de científicos (convirtiendo -de manera análoga a una conversión religiosa- a la mayoría de ellos), con el tiempo pasará a formar parte de la "corriente principal" (mainstream) dentro de esa disciplina, configurando la "ciencia normal" o estándar. Esto será así hasta que una eventual nueva teoría revolucionaria la desafíe en un futuro, al responder mejor a las potenciales anomalías que aquella presente. | 3Ciencia_y_Tecnología
|
Según Gartner, 20,4 mil millones será el total aproximado de dispositivos tecnológicos interconectados entre sí mediante el IoT, en todo el planeta para el 2020. Es creciente la cantidad de individuos que hace uso de la tecnología y se beneficia de sus aportes. Por esta razón, es necesario conocer qué es, para qué sirve la tecnología y cuáles son las consecuencias de su uso.
La tecnología es el resultado de la ciencia e ingeniería que, aplicadas a través de distintos instrumentos y métodos, generan un producto capaz de satisfacer alguna necesidad o resolver algún conflicto. Sin embargo, a lo largo de la historia han sido muchas las necesidades en la humanidad, por lo que es preciso mirar atrás para poder conocer un poco más para qué sirve la tecnología.
¿Para qué sirve la tecnología y cómo ha evolucionado?
Entender para qué sirve la tecnología y cómo ha evolucionado en el pasado nos faculta con la capacidad de planificar nuestra evolución a futuro. Pues la tecnología es un recurso que promueve soluciones inteligentes a las necesidades humanas desde hace más de 3 millones de años, cuando especies como el Australopithecus fabricaban utensilios con palos y rocas para la caza y otras actividades de uso doméstico.
La evolución siguió su curso con el descubrimiento del fuego (hace un millón de años), la creación de la rueda y los sistemas de agricultura (hace 20.000 años). Ya en la edad media, se desarrollaron herramientas más avanzadas entre las que destacan la brújula, la pólvora, el reloj mecánico, el molino y los sistemas de navegación.
Con la edad moderna llega la revolución industrial y, con esta, la máquina de vapor, el ferrocarril, el telégrafo y grandes avances en áreas como la electricidad y la termodinámica. Ya para los siglos XIX y XX, la tecnología avanza rápidamente con la invención del avión, el teléfono, la radio, la televisión y hasta los vuelos espaciales.
En esta misma línea de tiempo, se ha forjado una sociedad digital con la creación de la cámara digital, las primeras computadoras y el internet. Elementos que suponen un gran desarrollo que, junto a las demás tecnologías, se expanden para perfeccionarse en el siglo XXI, en donde los teléfonos inteligentes, los robots y otras herramientas aportan soluciones cada vez más sofisticadas a la vida diaria de personas y empresas.
¿Qué son las tecnologías digitales?
Si bien se mencionó al principio que la tecnología da como resultado la creación de un producto o máquina, la tecnología digital es entonces la aplicación de métodos para desarrollar sistemas que se ven expresados en números o datos y que permiten automatizar ciertos procesos. De esta forma, el ser humano ha pasado de utilizar objetos análogos, a implementar artefactos digitales con funciones automáticas y programadas.
¿Para qué sirve la tecnología digital moderna?
Además de saber qué es, resulta importante conocer para qué sirve la tecnología digital. Actualmente, la tecnología digital es utilizada para funciones como el procesamiento de grandes volúmenes de datos, la automatización de procesos, las comunicaciones masivas, la creación de sistemas que imitan el funcionamiento de la mente humana, los cómputos sumamente potentes, entre otros.
Su amplia capacidad permite desarrollar un gran número de tareas en un tiempo reducido para simplificar las labores del día a día en todos los ámbitos de la humanidad (domésticos, comerciales, industriales, educativos, médicos, etc.). Esto mediante la optimización de los sistemas y la aportación de soluciones efectivas a los problemas.
Ejemplos principales de tecnologías digitales modernas por sectores
Para qué sirve la tecnología en la comunicación digital con los clientes.
Según Harvard Business Review, el 73% de los clientes realiza sus compras tanto en tiendas físicas como virtuales. Esto ha motivado a las empresas a desarrollar plataformas online, capaces de generar una comunicación efectiva con el mercado. Para lograrlo, implementan herramientas como páginas web, chatbots, asistentes virtuales, entre otros recursos tecnológicos.
De igual manera, las organizaciones con logística de entregas, suelen utilizar geolocalizadores capaces de informar a sus clientes el estatus de su pedido en tiempo real. Estos procesos, utilizados de forma conjunta, se han convertido en una práctica que favorece la experiencia del consumidor en todas las etapas de compra de un producto o servicio.
Para qué sirve la tecnología en la seguridad de la información
En el 2021, los daños causados por ciberataques llegarán a los 6 billones de dólares según cifras emitidas por CyberSecurity Ventures. En vista de esto, las empresas hacen uso de tecnologías digitales como el Virtual Private Network (VPN), el Encrypting File System (EFS), los antivirus, entre otros sistemas.
Entonces, ¿para qué sirve la tecnología de seguridad? Sirve como medida preventiva para proteger los datos y mantener la integridad de los sistemas informáticos. De esta manera, toda la información de valor se mantiene resguardada, encriptada y fuera del alcance de los hackers y ciberdelincuentes.
Para qué sirve la tecnología en la investigación, análisis y proyección
Según el informe anual de la Sociedad Europea de Opinión e Investigación de Mercados (ESOMAR), hasta el 2018 la facturación en investigación de mercados cerró en 80.000 millones de dólares. También, enfatiza que la investigación mediante análisis de datos ha incrementado de manera favorable mientras que el uso de métodos los tradicionales, ha disminuido.
Definitivamente, la analítica de datos mediante herramientas como el big data y la inteligencia artificial es la solución para las empresas que buscan resultados precisos, pero ¿para qué sirve la tecnología de investigación? Para la obtención de información, el diagnóstico, la toma de decisiones y la planificación de estrategias en las organizaciones.
Este tipo de investigación hace uso de tecnologías capaces de procesar grandes cantidades de datos en tiempo real. De esta forma, se pueden obtener insights de negocio relevantes sobre el estado actual de la organización e, incluso, es posible predecir elementos puntuales, como el comportamiento del mercado en una temporada determinada.
Beneficios comerciales de conocer para qué sirve la tecnología digital
Las tecnologías digitales han impactado profundamente en los sistemas económicos de muchas empresas. Las organizaciones que saben para qué sirve la tecnología digital y la han aplicado, han visto sus beneficios en la reducción de los costes, la optimización de los procesos, el procesamiento y análisis efectivo de la información y el fortalecimiento de la comunicación empresarial.
Todo esto supone una ventaja competitiva frente a otras compañías, permitiendo el desarrollo de sistemas innovadores en todos los procesos de una organización.
En Enzyme Advising Group sabemos para qué sirve la tecnología digital y desarrollamos soluciones empresariales de última generación. Esto a través de tecnologías como el big data, el machine learning, el natural language processing, el cognitive computing, entre otras. | 3Ciencia_y_Tecnología
|
En administración y en el ámbito empresarial, el mercadeo, mercadotecnia o márquetin[1] (del inglés marketing) es el proceso de exploración, creación y entrega de valor para satisfacer las necesidades de un mercado objetivo en términos de bienes y servicios; incluye potencialmente la selección de un público objetivo; la selección de atributos o temas específicos a destacar en la publicidad; la operación de campañas publicitarias; la asistencia a ferias y eventos públicos; el diseño de productos y embalajes atractivos para los compradores; la definición de las condiciones de venta, como el precio, los descuentos, la garantía y la política de devoluciones; la colocación del producto en los medios de comunicación o con personas que se cree que influyen en los hábitos de compra de otros; los acuerdos con minoristas, distribuidores mayoristas o revendedores; y los intentos de crear conciencia, lealtad y sentimientos positivos hacia una marca. El márquetin lo realiza normalmente el vendedor, que suele ser un minorista o un fabricante. A veces, las tareas se contratan a una empresa de márquetin o a una agencia de publicidad especializada. Más raramente, una asociación comercial o una agencia gubernamental hace publicidad en nombre de toda una industria o localidad, alimentos de una zona concreta, o una ciudad o región como destino turístico.
Es uno de los principales componentes de la gestión empresarial y el comercio. Los responsables de márquetin pueden dirigir su producto a otras empresas o directamente a los consumidores. Independientemente de a quién se dirija el márquetin, se aplican varios factores, entre ellos la perspectiva de los profesionales del márquetin. Conocidas como orientaciones de mercado, determinan la forma en que los profesionales del márquetin abordan la fase de planificación de este.
La mezcla de márquetin, que describe los detalles del producto y la forma en que se venderá, se ve afectada por el entorno que rodea el desarrollo, los resultados de la investigación de márquetin y el estudio de mercado, y las características del mercado objetivo del producto. Una vez determinados estos factores, los responsables de márquetin deben decidir los métodos de promoción del producto, incluidos los cupones y otros incentivos.
Es uno de los componentes principales de la gestión empresarial y el comercio.[2] La mercadotecnia indica que la clave para alcanzar los objetivos de una organización reside en identificar las necesidades y deseos del mercado objetivo y adaptarse para ofrecer las satisfacciones deseadas por el mercado de forma más eficiente que la competencia.[3][4]
El término márquetin o mercadotecnia, comúnmente conocido como captación de clientes, incorpora los conocimientos adquiridos al estudiar la gestión de las relaciones de intercambio y es el proceso empresarial de identificar, anticipar y satisfacer las necesidades y deseos de los clientes. | 3Ciencia_y_Tecnología
|
Nelogica es una fintech brasileña con sede en Porto Alegre, en Río Grande del Sur. Fundada en 2003, está enfocada al desarrollo de softwares de negociación electrónica y otras tecnologías para el mercado financiero, siendo líder en su área en América Latina. Su principal producto es una plataforma de negociación electrónica llamada Profit, distribuida para los sistemas operativos Windows, Android, y iOS. Otros productos desarrollados a través de asociaciones con otras empresas incluyen homebrokers y una plataforma para negociación de criptomoedas llamada Vector. | 3Ciencia_y_Tecnología
|
La wikinomía (conjunción de las voces wiki, del hawaiano 'rápido', y economía) es un concepto utilizado para referirse al arte y a la ciencia de la colaboración masiva.
Fue introducido por Don Tapscott y Anthony D. Williams en el libro Wikinomics: la nueva economía de las multitudes inteligentes (título original: Wikinomics: How Mass Collaboration Changes Everything), publicado en diciembre de 2006, y luego traducido al español y publicado en 2007. En esta obra los autores describen cómo la evolución de Internet hacia la web 2.0, el alcance de la mayoría de edad de la «generación net» y el surgimiento de la economía de la colaboración, provocaron una revolución en el mundo empresarial y el sistema económico. Afirman que las fuerzas de la tecnología, la demografía y la economía global convergieron en el surgimiento de nuevos modos de producción y en un paradigma económico basado en la colaboración masiva y el uso intensivo de las tecnologías de código abierto como la wiki y de hardware abierto.
Para Tapscott y Williams, el uso de las herramientas de la colaboración permite a los consumidores participar en la creación de productos de una manera activa y permanente. Los clientes se organizan para participar en la creación de productos que utilizan ellos mismos, formando comunidades de prosumidores que comparten e intercambian información y desarrollan nuevas herramientas, métodos y versiones de los productos.[1] Algunos ejemplos de este tipo de trabajo son el Proyecto Genoma, Flickr, Myspace, YouTube, Second Life y Wikipedia. Los conceptos de trabajo y producción colaborativa a través de las últimas tecnologías de la información y la comunicación como Internet fueron desarrollados por primera vez en 1996 por Don Tapscott, en su libro Economía digital. | 3Ciencia_y_Tecnología
|
Avanti Communications Group plc es una empresa pionera en la aplicación de la tecnología satelital banda Ka en Europa.
El primer satélite de Avanti, HYLAS 1, lanzado en el 26 de noviembre de 2010 dando cobertura de doble vía en toda Europa.
HYLAS 2 lanzado el 2 de agosto de 2012, extendió la cobertura a África y Oriente Medio.
HYLAS 3 se lanzará en partenariado con ESA en 2015. Proporcionará mayor capacidad a la cobertura existente.[2]
El equipamiento de usuario para el servicio de conexión a Internet está basado en tecnología Hughes (Plataforma HN: Módem satelital HN9260[3] y un transceptor de banda Ka de 1W). | 3Ciencia_y_Tecnología
|
La MaRS Discovery District es una organización sin ánimo de lucro fundada en Toronto en el año 2000. Su objetivo declarado es comercializar investigaciones que se financian públicamente y otras tecnologías con ayuda de empresas locales privadas y, como tal, es una asociación entre el sector público y privado.[1] MaRS, como parte de su misión, dice: «MaRS ayuda a crear negocios de ámbito mundial exitosos con la ciencia, la tecnología y la innovación social canadienses».[2]
El nombre de MaRS partió originalmente del nombre de un archivo, y posteriormente se le atribuyó el nombre de Ciencias Médicas y Relativas» (MaRS, por sus siglas en inglés). Pero esta relación ya no existe, puesto que también trabajan en otros ámbitos como Información y Tecnología de Comunicaciones, Ingeniería, e Innovación Social.[1] | 3Ciencia_y_Tecnología
|
Energy & Fuels (usualmente abreviada como Energy Fuels) [1] es una revista científica revisada por iguales, publicada desde 1987 por la American Chemical Society y dedicada a divulgar artículos de investigación en todas las áreas de la química de las fuentes de energía no-nuclear. Energy & Fuels está actualmente indexada y se pueden ver resúmenes de sus artículos en: CAS, SCOPUS, EBSCOhost, British Library, Thomson-Gale y Web of Science
Recoge estudios teóricos y experimentales sobre formación, exploración, y producción de combustibles fósiles; las propiedades y estructura o composición molecular de los combustibles en crudo y refinados; la química que interviene en el procesado y utilización de los combustibles; las células de combustible y sus aplicaciones; y las técnicas analíticas e instrumentales utilizadas en las investigaciones de las áreas precedentes.[1]
El actual editor-jefe es Michael T. Klein.[2] En 2008 alcanzó un factor de impacto ISI de 2,056 con más de 7000 citas, lo que la convertía en una de las principales revistas de su categoría.[3] | 3Ciencia_y_Tecnología
|
El modelado numérico (a veces llamado modelización numérica) es una técnica basada en el cálculo numérico, utilizada en muchos campos de estudio (ingeniería, ciencia, etc.) desde los años 60 para validar o refutar modelos conceptuales propuestos a partir de observaciones o derivados de teorías anteriores. Si el cálculo de las ecuaciones que representan el modelo propuesto es capaz de ajustar las observaciones, entonces se habla de un modelo consistente con las mismas, y se dice también que el modelo numérico que confirma las hipótesis (el modelo); si el cálculo no permite en ningún caso reproducir las observaciones, se habla de un modelo inconsistente con los datos y que refuta el modelo conceptual.
A menudo, este término se utiliza como sinónimo de simulación numérica. | 3Ciencia_y_Tecnología
|
La ciberocupación es la acción y efecto de registrar un nombre de dominio, aun sabiendo que otro ostenta mejor título a él, con el propósito de extorsionarlo para que lo compre o bien simplemente para desviar el tráfico web hacia un sitio competidor o de cualquier otra índole.
El combate de la ciberocupación condujo en 1999 a la ICANN a promulgar su Política Uniforme de resolución de controversias de nombre de dominio (conocida también por sus siglas en inglés UDRP), para propiciar la solución de disputas por mecanismos arbitrales con la intervención de entidades acreditadas, entre las cuales destaca la Organización Mundial de la Propiedad Intelectual (OMPI).[1]
El término ha sido objeto de uso abusivo, a punto de ser usado para suprimir nombres de dominio críticos o satíricos respecto de corporaciones o entidades gubernamentales, o para apropiar en beneficio de corporaciones poderosas nombres de dominio legítimamente obtenidos por sus titulares. La UDRP ha sido criticada por muchos especialistas, por tratarse de un fuero privado transnacional que ignora los sistemas judiciales soberanos de los países en que se producen las disputas y por el desequilibrio que se manifiesta entre titulares de nombres de dominios con recursos limitados y grandes corporaciones que en general terminan por obtener los sitios registrados por los primeros, a veces sobre bases sumamente endebles, solo porque pueden afrontar sin problemas los costos del proceso. Es prototípico de estos abusos el caso de Mike Rowe, un programador canadiense titular del dominio mikerowesoft.com, que fue reclamado por la corporación Microsoft alegando homofonía. El caso no llegó a someterse a arbitraje: dada la evidente disparidad de fuerzas para litigar, Rowe terminó por ceder su derecho a Microsoft a cambio de una pequeña compensación. | 3Ciencia_y_Tecnología
|
La paradoja de Fermi es la aparente contradicción que hay entre las estimaciones que afirman que hay una alta probabilidad de que existan otras civilizaciones inteligentes en el universo observable y la ausencia de evidencia de dichas civilizaciones. Surgió en 1950 en medio de una conversación informal del físico Enrico Fermi con otros físicos de laboratorio, pero ha tenido importantes implicaciones en los proyectos de búsquedas de señales de civilizaciones extraterrestres (SETI).
Trata de responder a la pregunta: «¿Somos los seres humanos la única civilización avanzada en el Universo?». La ecuación de Drake para estimar el número de civilizaciones extraterrestres con las que finalmente podríamos ponernos en contacto parece implicar que tal tipo de contacto no es extremadamente raro. La respuesta de Fermi a esta conclusión es que si hubiera numerosas civilizaciones avanzadas en nuestra galaxia entonces, «¿Dónde están? ¿Por qué no hemos encontrado trazas de vida extraterrestre inteligente, por ejemplo, sondas, naves espaciales o transmisiones?». Aquellos que se adhieren a las conclusiones de Fermi suelen referirse a esta premisa como el principio de Fermi.
La paradoja puede resumirse de la manera siguiente: La creencia común de que el Universo posee numerosas civilizaciones avanzadas tecnológicamente, combinada con nuestras observaciones que sugieren todo lo contrario, es paradójica, sugiriendo así que nuestro conocimiento o nuestras observaciones son defectuosas o incompletas.
La formulación de la paradoja surgió en una época en la que Fermi estaba trabajando en el Proyecto Manhattan cuyo fin era el desarrollo de la bomba atómica estadounidense. La respuesta de Fermi a su paradoja es que toda civilización avanzada desarrollada en la galaxia, desarrolla con su tecnología el potencial de exterminarse tal y como percibía que estaba ocurriendo en su época. El hecho de no encontrar otras civilizaciones extraterrestres implicaba para él un trágico final para la humanidad.[cita requerida] | 3Ciencia_y_Tecnología
|
La solarización por radiación es un fenómeno físico por el que un material sufre un cambio temporal o permanente en su color o su transparencia como consecuencia de haber sido sometido a una irradiación electromagnética de alta energía, como la luz ultravioleta (UV), los rayos X o la radiación gamma. El vidrio y muchos plásticos transparentes, cuando se someten al efecto de la radiación X, pueden tomar un color ámbar o verdoso, y aun otros colores. El vidrio puede volverse azulado después de una prolongada exposición a la radiación solar en el desierto.
Se cree que este proceso puede ser causado por la formación de defectos internos llamados centros de color que, selectivamente, absorben porciones del espectro de la luz visible.
La solarización por radiación puede también producir una degradación permanente de las propiedades físicas y mecánicas del material, y es uno de los mecanismos que causan fallos y roturas en los plásticos que sufren una exposición prolongada a la intemperie.[1] | 3Ciencia_y_Tecnología
|
Las mujeres han participado en la química desde el inicio en la alquimia e incluso antes. La primera química registrada de la historia es Tapputi-Belatekalllim, en una tablilla de arcilla de Mesopotamia del 1200 a. C y era fabricante de perfumes.[1] También se cree que la primera alquimista también fue una mujer, María la judía, que vivió en el siglo II a. C en Alejandría, a la que se le atribuye la invención de dos dispositivos de destilación y el baño María.[2] Las mujeres siguen participando en la era moderna, como Marie Curie, la primera mujer en ganar un premio nobel, en concreto de física en 1903 y química en 1911[3], y las ganadoras más recientes de este premio, que fueron Emmanuelle Charpentier y Jennifer Doudna en 2020.[4] | 3Ciencia_y_Tecnología
|
La transformada de Hough es una técnica para la detección de figuras en imágenes digitales. Esta técnica es mayormente usada en el campo de Visión por Computadora. Con la transformada de Hough es posible encontrar todo tipo de figuras que puedan ser expresadas matemáticamente, tales como rectas, circunferencias o elipses. | 3Ciencia_y_Tecnología
|
Gestión es asumir y llevar a cabo las responsabilidades sobre un proceso, esto puede ser empresarial o personal, lo que incluye:
La preocupación por la disposición de los recursos y estructuras necesarias para que tenga lugar en el comercio.
La coordinación de sus actividades (y correspondientes interacciones) y sus semejantes.El término gestión es utilizado para referirse al conjunto de acciones, o diligencias que permiten la realización de cualquier actividad o deseo. Dicho de otra manera, una gestión se refiere a todos aquellos trámites que se realizan con la finalidad de resolver una situación o materializar un proyecto. En el entorno empresarial o comercial, la gestión es asociada con la administración de un negocio.
Según el marco de referencia COBIT 5, la gestión planifica, construye, ejecuta y controla actividades alineadas con la dirección establecida por el cuerpo de gobierno para alcanzar las metas empresariales Y esfuerzo de las personas. | 3Ciencia_y_Tecnología
|
Cody Lundin[1] (n. Prescott, 15 de marzo de 1967) es fundador, director y profesor principal de la Escuela de Habilidades de supervivencia indígena, LLC en Prescott Arizona,[2][3] es instructor de supervivencia en la intemperie, vida primitiva, preparador urbano en la Universidad Yavapai, profesor y miembro de la facultad en el Instituto Ecosa[4][5][6] y coanfitrión de la serie de televisión Desafío x 2.[7] Vive sin electricidad en una casa alimentada por energía solar y diseñada por él, en el desierto de Arizona, y al recolectar agua de lluvia y convertir en abono sus residuos evita pagar por servicios públicos.[2][7] Lundin es conocido por no usar zapatos.[4][8] | 3Ciencia_y_Tecnología
|
Un cambio de paradigma (o ciencia revolucionaria) es, según Thomas Kuhn en su influyente libro La estructura de las revoluciones científicas (1962), un cambio en los supuestos básicos, o paradigmas, dentro de la teoría dominante de la ciencia. Contrasta con su idea de ciencia normal.
Según Kuhn, «Un paradigma es lo que los miembros de una comunidad científica, y solo ellos, comparten».[1] A diferencia de un científico normal, Kuhn sostenía que «un estudiante de humanidades tiene ante sí una serie de soluciones competitivas e inconmensurables a estos problemas, soluciones que en última instancia debe examinar por sí mismo.» (La estructura de las revoluciones científicas). Una vez que un cambio de paradigma se ha completado, un científico no puede, por ejemplo, rechazar la teoría de los gérmenes y plantear la posibilidad de que el miasma causa las enfermedades o rechazar la física moderna y la óptica postulando que el éter transporta la luz. Por el contrario, un crítico en Humanidades puede adoptar una serie de posturas (por ejemplo, crítica marxista, crítica freudiana, deconstrucción, crítica literaria al estilo del siglo XIX), que pueden estar más o menos de moda durante un período determinado, pero que son todos considerados legítimos.
Desde la década de 1960, el término también se ha utilizado en numerosos contextos no científicos para describir un cambio profundo en un modelo fundamental o la percepción de acontecimientos, a pesar de que el propio Kuhn restringió el uso de la palabra a las ciencias duras. Se compara con una forma estructurada de Zeitgeist. | 3Ciencia_y_Tecnología
|
La navaja de Hitchens es un principio epistemológico que dice que la carga de la prueba (onus probandi) en un debate recae en quien realiza la afirmación y si este no la sustenta, entonces el oponente no tiene necesidad de refutar una afirmación sin respaldo. Su nombre hace alusión a la navaja de Ockham y fue formulada por el escritor y periodista Christopher Hitchens (1949–2011) en 2003:[1][2]
La navaja de Hitchens realmente es una traducción de un proverbio latino "Quod gratis asseritur, gratis negatur",[3] que se ha usado ampliamente al menos desde el siglo XIX.[4] Hitchens la popularizó al emplearla en inglés. Es usada, por ejemplo, para contrargumentar a la apologética presuposicionalista. Esta cita aparece textual en God Is Not Great: How Religion Poisons Everything, un libro escrito por Hitchens en 2007.[5]
Richard Dawkins, compañero en su activismo ateo, formuló una versión diferente de la misma ley que tiene la misma implicación, en una conferencia TED en 2002:[6]
Dawkins usó está versión para argumentar contra el agnosticismo, al que describió como "pobre" en comparación con el ateísmo,[7] porque rechaza juzgar afirmaciones que, aunque no complementamente falsables, es muy improbable que sean ciertas. | 3Ciencia_y_Tecnología
|
La ingeniería nuclear es la aplicación práctica de los conocimientos sobre el núcleo atómico tratado por los principios de la química nuclear y física nuclear y la interacción entre radiación y materia. Este campo de la ingeniería incluye el diseño, análisis, desarrollo, pruebas, operación y mantenimiento de los sistemas y componentes de fisión nuclear, específicamente reactores. A continuación se describe el entrenamiento típico en la mayoría de los programas de ingeniería de los Estados Unidos, programas de otros países pueden ser similares, pero no necesariamente iguales.
Preparación técnica universitaria: se incluye en los cursos de ingeniería nuclear los cursos de matemáticas que incluyen cálculo, así como cursos básicos de física y química.Preparación universitaria: los cursos deben incluir fundamentos de mecánica y dinámica del movimiento de partículas, termodinámica, programación de computadoras, física y química básica, matemáticas hasta ecuaciones diferenciales.Los cursos de ingeniería nuclear a nivel universitario ofrecen generalmente la opción para elegir una especialización en la cual el estudiante piensa trabajar en un futuro. Especializaciones incluyen mecánica de fluidos, física de los reactores, mecánica cuántica, hidráulica térmica, circuitos lineales, efectos de la radiación y transporte de neutrones.
La especialización en fisión incluye el estudio de reactores nucleares, sistemas de fisión, plantas de energía nuclear, los cursos están enfocados principalmente en el estudio de neutrones y termohidráhulica de electricidad generada por energía nuclear, incluyendo la termodinámica, mecánica de fluidos así como hidrodinámica.
La especialización en fusión nuclear estudios de electrodinámica y plasma. Esta especialización tiene un enfoque de investigación, mucho más que un enfoque práctico.
La especialización en medicina nuclear incluye cursos que tratan con dosis y absorción de radiación por tejidos corporales. Los especialistas en esta área generalmente están enfocados en el campo de la medicina y algunos de ellos estudian medicina así como también la especialización en radiación oncológica, la posibilidad de orientación hacia la investigación también es posible en esta especialidad.
Escuela naval de potencia nuclear en los EE.UU.
La milicia naval de los EE.UU. posee un programa llamado Escuela naval de potencia nuclear o "Naval Nuclear Power School", en este programa se entrenan tanto a oficiales como a cabos de marina para la operación de plantas nucleares. Mientras que algunos oficiales cuentan con estudios universitarios en ingeniería nuclear, la mayoría cuenta con estudios en otras ramas de ingeniería. La mayoría de los marinos enlistados no cuentan con estudios, en los EE.UU., sin embargo todos son entrenados a través de un programa riguroso (el cual dura 65 semanas para maquinistas y 18 meses para técnicos electrónicos), para operar las plantas nucleares y de vapor en los submarinos y aeronaves. El entrenamiento incluye una certificación y muchos marinos toman la decisión de trabajar como civiles después de completar sus seis años obligatorios. | 3Ciencia_y_Tecnología
|
La regulación automática es una rama de la ingeniería que se ocupa del control de un proceso en un estado determinado; por ejemplo, mantener la temperatura de una calefacción, el rumbo de un avión o la velocidad de un automóvil en un valor establecido.
La regulación automática, también llamada teoría de control, estudia el comportamiento de los sistemas dinámicos, tratándolos como cajas o bloques con una entrada y una salida. En general, la entrada al sistema es una señal analógica o digital que se capta en algún punto del sistema. Los bloques intermedios representan las diversas acciones perturbadoras que afectan a la señal, como rozamientos en los actuadores, así como el efecto de los elementos de control interpuestos, los reguladores. Estos efectos se suelen representar mediante las funciones matemáticas que los describen, llamadas funciones de transferencia. La salida del sistema se llama referencia y corresponde al valor de la señal tras actuar sobre ella las anteriores funciones de transferencia. Cuando una o más de las variables de salida de un sistema tienen que seguir el valor de una referencia que cambia con el tiempo, se necesita interponer un controlador que manipule los valores de las señales de entrada al sistema hasta obtener el valor deseado de salida. | 3Ciencia_y_Tecnología
|
Across the Universe es un mensaje interestelar de radio que consiste en la canción "Across the Universe" de Los Beatles que fue transmitido el 4 de febrero de 2008, a las 00:00 UTC por la NASA en dirección de la estrella Polaris.[1] Esta transmisión se realizó con una antena de 70 metros en la Red del Espacio Profundo (DSN, por sus siglas en inglés) en el Madrid Deep Space Communication Complex, ubicado en Robledo, cerca de Madrid, España.
La fecha de esta transmisión fue elegida para celebrar el 40 aniversario de la grabación de la canción, el 45º aniversario de la DSN, y el 50 aniversario de la NASA. La idea de la transmisión fue propuesta por el historiador de los Beatles, Martin Lewis, quien invitó a todos los fanes de los Beatles a reproducir la pista mientras se transmitía a la estrella ya mencionada. Este evento fue la segunda ocasión en la que una canción fue transmitida intencionalmente hacia el espacio exterior (la primera fue Teen Age Message desde Rusia en el 2001[2]), y fue aprobada por Paul McCartney, Yoko Ono, y Apple Records.[3]
Este proyecto tiene algunos defectos significativos en tanto que el mensaje fue dirigido hacia la estrella Polaris, a 431 años luz de distancia de la Tierra y cuyo sistema planetario, incluso si existe, puede no ser apto para la vida, ya que es una estrella supergigante, tipo espectral F7Ib. Además, la tasa de transmisión es muy alta, cerca de 128 kbit/s, para la potencia de transmisión del transmisor (alrededor de 18 kW). | 3Ciencia_y_Tecnología
|
La tensegridad es un principio estructural basado en el empleo de componentes aislados comprimidos que se encuentran dentro de una red tensada continua, de tal modo que los miembros comprimidos (generalmente barras) no se tocan entre sí y están unidos únicamente por medio de componentes traccionados (habitualmente cables) que son los que delimitan espacialmente dicho sistema.[1]
El término tensegridad, proveniente del inglés tensegrity, es un término arquitectónico acuñado por Buckminster Fuller como contracción de tensional integrity (integridad tensional).
Las estructuras de tensegridad fueron exploradas por el artista Kenneth Snelson, produciendo esculturas como Needle Tower, de 18 metros de altura y construida en 1968. El término «tensegrity» fue acuñado por Buckminster Fuller, conocido por uno de sus más famosos diseños arquitectónicos denominado domo geodésico, como la Biosphère construida por Fuller para la Expo 67 en Montreal. | 3Ciencia_y_Tecnología
|
Antonia Rizzo, más conocida como Nina (Rosario, 1929 - La Plata, 24 de octubre de 2008)[1] fue una historiadora y arqueóloga argentina, investigadora científica especialista en las culturas prehispánicas del Noreste argentino y de cementerios desde un enfoque de la antropología de la muerte. | 3Ciencia_y_Tecnología
|
El término cibercirugía está conformado por dos términos bases; cibernética y cirugía. El primero de ellos es definido por la Real Academia Española como el estudio de las analogías entre los sistemas de control y comunicación de los seres vivos y los de las máquinas; en particular, el de las aplicaciones de los mecanismos de regulación biológica a la tecnología.[1]Mientras que el segundo lo define como la rama de la medicina que tiene por objeto curar las enfermedades por medio de operaciones.[2] Esta fusión de palabras nos llevan a definir cibercirugía como las técnicas quirúrgicas realizadas por medio de robots de alta tecnología, los cuales abren la posibilidad de ser comandadas a larga distancia en tiempo real. La cibercirugía es uno de los resultados de la conjunción de ciencias como la informática, la robótica y la telepresencia los cuales han sabido integrarse y desarrollar esta nueva tecnología, la cual está integrando al ser humano con la mecatrónica y revolucionando la medicina y cirugías tradicionales. | 3Ciencia_y_Tecnología
|
El término pulso electromagnético o PEM (en inglés, EMP, de Electromagnetic Pulse) puede referirse a:
una emisión de energía electromagnética de alta intensidad en un breve período de tiempo;
la radiación electromagnética proveniente de una gran explosión (especialmente una explosión nuclear) o de un campo magnético que fluctúa intensamente causado por la fuerza de empuje del efecto Compton en electrones y fotoelectrones de los fotones dispersados en los materiales del aparato electrónico o explosivo, o a su alrededor. Los campos eléctricos y magnéticos resultantes pueden interferir en los sistemas eléctricos y electrónicos provocando picos de tensión que pueden dañarlos. Los efectos no suelen ser importantes más allá del radio de explosión de la bomba, a no ser que ésta sea nuclear o esté diseñada específicamente para producir una onda de choque electromagnética.En el caso de una explosión nuclear o del impacto de asteroide, la mayor parte de la energía del pulso electromagnético se distribuye en la banda de frecuencias de entre 3 Hz y 30 kHz. | 3Ciencia_y_Tecnología
|
Con reciclado energético, reciclado verde, reciclado energético de viviendas,[1] reacondicionamiento energético,[2] readaptamiento energético, entre otras expresiones, se define desde mediados de la década de 1970, una serie de estrategias tecnológicas y de diseño para reacondicionar y/o mejorar la eficiencia energética de viviendas y edificios. | 3Ciencia_y_Tecnología
|
Se denomina revolución neolítica a la primera transformación radical de la forma de vida de la humanidad, que pasó de nómada a sedentaria, al concretarse una economía productora basada en la agricultura y la ganadería. Esta expresión se debe a Vere Gordon Childe (1941).[nota 1]
Este proceso tuvo lugar hace aproximadamente más de 9000 años (VIII milenio a. C.) como respuesta a la crisis climática que se produce en el comienzo del Holoceno, tras la última glaciación, y que, en términos relacionados con la historia de la cultura, corresponde al paso del período Paleolítico (piedra antigua) al Neolítico (piedra nueva), y de ahí su nombre. En primer lugar, los cambios que vienen de señalarse afectaron a una amplia zona que, debido a su apariencia en el mapa, ha recibido el nombre de creciente fértil o media luna fértil,[2] incluyendo desde la parte egipcia del valle del Nilo hasta Mesopotamia (el territorio entre los ríos Tigris y Éufrates), y también pasando por la franja costera del Levante mediterráneo y la región montañosa del sureste de la actual Turquía. Dentro de esta zona, los lugares donde se han encontrado las pruebas arqueológicas más antiguas de neolitización, es decir, de la sustitución de la piedra tallada por la piedra pulida para la confección de armas y herramientas, no proceden precisamente de las llanuras aluviales de los grandes ríos, sino de yacimientos situados en una zona más estrecha en torno a ellos (Jericó o Chatal Huyuk). Ello no tiene nada de extraño, ya que en las llanuras aluviales del Nilo, del Tigris, y del Éufrates, la piedra es más escasa.
Años más tarde se produjeron cambios similares en la India (ríos Indo y Ganges) y en el Extremo Oriente (ríos Huang He y Yangtze en China). La expansión por el resto del Viejo Mundo (Europa, Asia y África) se produjo por difusión de estos primeros focos, aunque en algunas zonas se descubrió localmente la domesticación de animales o plantas autóctonas. De forma autónoma se produce la revolución neolítica en América, con los focos mesoamericano y andino. La difusión de la agricultura y la ganadería por Oceanía en algunos casos es simultánea a la ocupación humana (las migraciones de las islas del Pacífico eran tanto de los grupos humanos como de sus cultivos y ganado) y en otros los usos del suelo continuaron siendo muy arcaicos hasta la llegada de los europeos (aborígenes australianos, en su mayoría cazadores-recolectores, cuya ocupación del continente es muy antigua, quizá desde hace 40 000 años).
Las evidencias históricas y arqueológicas muestran que previamente a la revolución neolítica, los seres humanos en general no mostraban signos ni síntomas de enfermedades crónicas y que, coincidiendo con el desarrollo de la agricultura y la inclusión de los cereales en la dieta se produjo una serie de consecuencias negativas sobre la salud, muchas de las cuales continúan presentes en la actualidad.[3][4] Entre ellas cabe destacar múltiples deficiencias nutricionales, tales como la anemia ferropénica, los trastornos minerales que afectan tanto a los huesos (osteopenia, osteoporosis, raquitismo) como a los dientes (hipoplasias del esmalte dental, caries dentales), y también una alta incidencia de trastornos neurológicos, así como las enfermedades psiquiátricas, la obesidad, la diabetes tipo 2, la ateroesclerosis, y otras enfermedades crónicas o degenerativas.[3][4][5] Algo similar podría haber ocurrido con animales que fueron evolucionando paralelamente al hombre, conviviendo y compartiendo los cambios en los hábitos alimenticios, como los perros y los gatos domésticos.[6][7][8]
| 3Ciencia_y_Tecnología
|
Cosmosociología es una disciplina que se enfoca en comprender las leyes del universo aplicadas a los seres humanos y sus relaciones sociales. El término viene del griego «κόσμος» [kósmos], ‘orden’, el latín «socius», ‘compañero’, ‘aliado’, y del griego «λóγος» [logos], ‘palabra’, ‘inteligencia creadora’.[1] La cosmosociología estudia los patrones de orden que existen en la naturaleza y las leyes naturales que rigen sobre todo lo que sucede en el universo, incluidas las situaciones cotidianas de la vida humana.
Para dicho propósito se vale de diversos modelos teóricos, filosóficos y prácticos, para lograr una comprensión integral y holística de la interrelación del cosmos y los seres humanos.[2] Sin embargo, la cosmosociología no es meramente un modelo filosófico o teórico sino una disciplina que apunta a llevar a la práctica el entendimiento de cómo funciona el universo para desarrollar y aplicar métodos, sistemas y acciones que logren resultados concretos en la vida de las personas. | 3Ciencia_y_Tecnología
|
El lenguaje de marcado generalizado estándar o SGML (por sus siglas en inglés de Standard Generalized Markup Language) (SGML; ISO 8879: 1986) es un estándar para definir lenguajes de marcado generalizados para documentos. ISO 8879 define el Anexo A.1 de marcado generalizado:
El marcado debe ser declarativo: debe describir la estructura y otros atributos de un documento, en lugar de especificar el procesado a realizar en el marcado declarativo, es menos probable que el conflicto con las necesidades de procesamiento futuros imprevistos y técnicas.
El marcado debe ser riguroso para que las técnicas disponibles para el procesamiento de objetos definidos rigurosamente como los programas y bases de datos se puedan utilizar también para el procesamiento de documentos.HTML en teoría era un ejemplo de un lenguaje basado en SGML hasta HTML5, que admite que los navegadores no pueden analizar como SGML (por razones de compatibilidad) y codifica exactamente lo que debe hacer en su lugar.
DocBook SGML y LinuxDoc son ejemplos mejores, ya que se utilizaban casi exclusivamente con herramientas reales SGML. | 3Ciencia_y_Tecnología
|
Manual de Instrucciones: se refiere a un tipo de libro que nos da la información, reglas, buen uso y recomendaciones
de uso de un objeto
Informática, para realizar la instalación de una aplicación correctamente, programación o qué hacer en caso de tener algún problema.
Electrónica, para componentes electrónicos cuando se adquiere alguno.
Seguridad, para manufacturas cuya utilización inadecuada podría acarrear riesgos para la salud del usuario | 3Ciencia_y_Tecnología
|
La Teoría del Actor-Red, conocida como ANT (siglas de la expresión inglesa Actor-Network Theory), es un enfoque ontológico característico de teoría social y de investigación originado en el campo de los estudios sociales de la ciencia en los años 1980. Fue iniciada por Bruno Latour, Michel Callon y otros investigadores del Centro de sociología de la innovación de Mines ParisTech, en Francia. También han colaborado en su elaboración investigadores anglosajones como John Law, Arie Rip, Susan Leigh Star y Geoffrey Bowker.
Aunque es más conocida por su insistencia en la capacidad de los no humanos para actuar o participar en sistemas, redes o ambos, la ANT también se asocia con críticas contundentes de la sociología convencional y crítica.[1] | 3Ciencia_y_Tecnología
|
La Asociación para las Ciencias de Limnología y Oceanografía (ASLO), anteriormente llamada Sociedad Limnológica de América y la Sociedad Americana de Limnología y Oceanografía, es una sociedad científica establecida en 1936 con el objetivo de avanzar en las ciencias de limnología y oceanografía.[1] Con aproximadamente 4,000 miembros en casi 60 países diferentes, ASLO es la sociedad científica más grande en todo el mundo, dedicada a cualquier estudio y aplicación de la limnología u oceanografía o ambos. La misión de la ASLO es el de motivar y adoptar una comunidad científica internacional y diversa que crea, integra y comunica conocimiento a través del espectro completo de las ciencias acuáticas, incluyendo áreas de la educación y concienciación públicas sobre recursos acuáticos e investigación, y promueve la administración científica de los recursos acuáticos para el interés público. Sus productos y las actividades están dirigidas hacia estos fines. | 3Ciencia_y_Tecnología
|
La electromecánica es la combinación de las ciencias del electromagnetismo de la ingeniería eléctrica y la ciencia de la mecánica. La Ingeniería electromecánica es la disciplina académica que la aborda, gracias a ella se han producido importantes avances en el desarrollo tecnológico en la mayoría de los campos científicos. | 3Ciencia_y_Tecnología
|