Datasets:

text
stringlengths
54
15k
label
class label
12 classes
La frase «ni siquiera es falso» (es ist nicht einmal falsch!, en alemán) describe cualquier argumento que afirma ser científico pero fracasa en un nivel fundamental, usualmente debido a una falacia fatal o a que no puede ser falsado por ningún experimento (esto es, someterlo a prueba con la posibilidad de ser rechazado), o no puede usarse para realizar predicciones sobre el mundo. Generalmente es atribuida al físico teórico Wolfgang Pauli, que fue conocido por sus vívidas objeciones al pensamiento incorrecto o desordenado.[1]​ Rudolf Peierls documentó una ocasión en que «un amigo le mostró a Pauli un artículo de un joven físico que no estimaba de gran valor, pero quería conocer la opinión de Pauli. Pauli comentó tristemente: "Ni siquiera es falso"».[2]​ También se ha citado a menudo como «No solo no es correcto, ni siquiera es falso» o «Das ist nicht nur nicht richtig, es ist nicht einmal falsch!» en el alemán nativo de Pauli. Peierls observó que habían circulado muchos relatos apócrifos de este tipo pero que solo anotó los que escuchó él. También cita otro ejemplo en que Pauli respondió a Lev Landáu: «Lo que dijiste fue tan confuso que uno no podría decir si eran tonterías o no».[2]​ La frase se usa a menudo para describir a la pseudociencia o mala ciencia, y es considerada despectiva.[3]​
3Ciencia_y_Tecnología
Un alternador es una máquina eléctrica, capaz de transformar energía mecánica en energía eléctrica, generando una corriente alterna mediante inducción electromagnética. Los alternadores están creados, siguiendo el principio de que en un conductor sometido a un campo magnético variable, durante un determinado tiempo se va a inducir una tensión eléctrica o fuerza electromotriz, cuya polaridad depende del sentido del campo y el valor del flujo que lo atraviesa (ley de Faraday). Un alternador de corriente alterna funciona cambiando constantemente la polaridad para que haya movimiento y genere energía. En el mundo se utilizan alternadores con una frecuencia de 50 Hz (Europa) o 60 Hz (Brasil, Uganda, Estados Unidos), es decir, que cambia su polaridad 100 o 120 veces por segundo. Si el alternador, se utiliza para suministrar energía a la red, su velocidad de rotación se mantiene constante y por lo tanto la frecuencia f de la red. Su relación fundamental es: n = 60 f p {\displaystyle n={\frac {60f}{p}}} Donde n representa la velocidad de giro del rotor (velocidad de sincronismo)
3Ciencia_y_Tecnología
La ingeniería lingüística, también denominada informática aplicada a la lingüística e incluso tecnologías del lenguaje, es una disciplina que, a su vez, tiene carácter multidisciplinario. La ingeniería lingüística utiliza el conocimiento desarrollado en el marco informático del procesamiento del lenguaje natural y del marco lingüístico nutrido por las disciplinas de la traducción, de la terminología y de la lingüística computacional, tanto en sus vertientes teóricas como aplicadas.
3Ciencia_y_Tecnología
Tecnocentrismo es la falacia que refiere todas las cuestiones a la mejor o peor calidad de la tecnología disponible.[1]​ Se refiere a una visión cerrada, la cual está enfocada en el desarrollo de la tecnología y se le otorga la culpa de ciertos hechos, en diversos ámbitos de la sociedad.[2]​ Es decir nos encontramos en una sociedad tecnocéntrica, cuando las tecnologías son aplicadas en nuestro diario vivir, y cada día somos más dependientes de ellas. El concepto es por primera vez utilizado por el matemático, científico y educador del MIT, Seymour Papert enfocándose principalmente en el ámbito de la educación y todos los efectos que produce la tecnología en esta.
3Ciencia_y_Tecnología
La tercera ola es un libro publicado en 1979 por Alvin Toffler. Con aire futurista, se basa en la historia de la humanidad para describir la configuración que tomará el mundo una vez superada la era industrial, lo que significa a la vez la superación de las ideologías, modelos de gobierno, economía, comunicaciones y sociedades estructuradas alrededor de la producción centralizada como en el industrialismo capitalista y comunista. A pesar de tener varias décadas, el concepto expresado en muchos aspectos es bastante actual. Su lectura permite entender que procesos como la globalización están más cerca de la evolución humana o de la evolución cultural que de una conspiración de poderosos.[cita requerida]Para entender en qué consiste la tercera ola, es necesario explicar qué es la primera y la segunda ola.
3Ciencia_y_Tecnología
La gestión tecnológica (también, administración de la tecnología o gestión de la tecnología) se define como el conjunto de conocimientos y actividades capaces de generar valor por medio de un uso tecnológico eficaz, que permitan una producción y administración más efectiva en la ejecución de sus tareas y por ende se aumente la competitividad organizacional en el mercado. El cambio en la apertura comercial y el surgimiento de nuevas tecnologías de la información y la comunicación, han generado modificaciones en los mercados, la manera de hacer los negocios, transición en el nivel productivo de bienes y servicios y hasta mejoras en el área de la sostenibilidad, obligando a las organizaciones modernas a generar nuevas ideas estratégicas para generar una mayor competitividad. Las nuevas organizaciones han encontrado respuestas para mejorar sus tecnologías e ir a la vanguardia de las necesidades de la demanda por medio de la gestión tecnológica. Se ha propuesto que la gestión tecnológica sea extendida a todos los procesos de la empresa: la gestión del conocimiento, procesos administrativos de la información, procesos productivos y en los procesos relacionados con la alta gerencia.
3Ciencia_y_Tecnología
Ruth A Reck, Ruth Annette Gabriel Reck, (15 de diciembre de 1942)[1]​ es una profesora de ciencia atmosférica de Estados Unidos. Fue una de las primeras modelizadoras en realizar pruebas de sensibilidad sobre los efectos de las nubes en los modelos climáticos, incluyendo el papel de las propiedades ópticas y la altura de las nubes.[2]​ Además es la primera científica que alertó sobre el cambio climático.[3]​
3Ciencia_y_Tecnología
En matemáticas y sus aplicaciones, la linealización se refiere al proceso de encontrar la aproximación lineal a una función en un punto dado. En el estudio de los sistemas dinámicos, la linealización es un método para estudiar la estabilidad local de un punto de equilibrio de un sistema de ecuaciones diferenciales no lineales. Este método se utiliza en campos tales como la ingeniería, la física, la economía, y la biología.
3Ciencia_y_Tecnología
Financiamiento de la ciencia se refiere al sostenimiento económico de la investigación científica, tanto en ciencias "duras" y tecnología, como en ciencias sociales y humanidades. El término a menudo connota el financiamiento obtenido a través de un proceso competitivo, en el que un conjunto de proyectos de investigación son evaluados y los más prometedores reciben financiación. Estos procesos son administradas por el gobierno, corporaciones o fundaciones. La mayoría de la financiación de investigación proviene de dos fuentes principales, las empresas (a través de investigación y desarrollo) y los gobiernos (principalmente a través de universidades y organismos gubernamentales especializados, a menudo conocidos como consejos de investigación). Algunas investigaciones científicas son llevadas a cabo (o financiadas) por organizaciones sin ánimo de lucro. Según datos de la OCDE (2015), más del 60% de la investigación en ciencia y técnica se lleva a cabo en industrias, el 20% en universidades y 10% por el gobierno.[1]​ Comparativamente, en los países con menor PIB, como Portugal y México, la contribución de la industria es significativamente menor. El financiamiento gubernamental en ciertas industrias es mayor, y domina la investigación en ciencias sociales y humanidades. De manera similar, con algunas excepciones (por ejemplo, biotecnología) el gobierno provee la mayor parte de los fondos para la investigación en ciencia básica.[cita requerida] La investigación comercial se centra mayormente en el corto plazo, en función de las posibilidades de comercialización de innovaciones y nuevos productos, en lugar de proyectos de aplicación a largo plazo (tales como la fusión nuclear).[2]​ Según datos de UNESCO, el Gasto Bruto en Investigación y Desarrollo (GBID) mundial ascendió, en 2013, a 1.478.000 millones de dólares.[3]​
3Ciencia_y_Tecnología
La privatización del sector energético es un término que se refiere al proceso de conversión del sector energético de un régimen paraestatal hacia uno en el que el sector se encuentre abierto al mercado de las empresas privadas. Es tema de controversia en muchos países.
3Ciencia_y_Tecnología
La ingeniería mecánica eléctrica es una combinación de dos ramas de la ingeniería: la ingeniería mecánica y la ingeniería eléctrica. Es reconocida por contar con los aspectos más importantes de ambas como lo son: el uso eficiente de la energía eléctrica para el desarrollo industrial o la aplicación de las bases de la ingeniería mecánica para la automatización de máquinas y la mejora de procesos en las empresas. Debido a la gran importancia de esta nueva rama, se ha creado una carrera con el mismo nombre. Se considera como el conjunto de conocimientos, manejo y dominio de los principios físicos, mecánicos, mecánica de fluidos así como el estudio de la aplicación de la electricidad, electrónica y electromagnetismo aplicando conocimientos de ciencias físicas, matemáticas, para poder generar y transportar energía eléctrica y elaboración de motores. La Ingeniería Mecánica Eléctrica es una rama muy extensa de la Ingeniería, ya que lleva sus bases en los principios de la física, para análisis y creación de diseños de motores asociados con sistemas eléctricos a gran escala, a diferencia de la Ingeniería Electrónica que se encarga de los sistemas a pequeña escala.
3Ciencia_y_Tecnología
La filosofía es la madre de todas las ciencias, siendo la psicología parte de ella hasta su independencia alrededor de 1879 con el nacimiento de la psicofísica.[1]​ Su significado literal es psyché-logos ("estudio de la mente"). Una rama de la filosofía es la filosofía de la ciencia, que, desde la división hecha por Ferrier en el siglo XIX entre ontología y epistemología, se encarga del análisis del conocimiento científicamente obtenido. Cada ciencia genera su propia epistemología o filosofía especial, con base en las características de su que hacer intrínseco. Otras de las ramas de la filosofía que se relacionan con la psicología y la epistemología es la filosofía de la mente. En el caso de la psicología, según Jacob Robert Kantor, ha habido tres etapas de desarrollo de sus contenidos epistemológicos: una primera ocupándose de entidades aespaciales, como el alma; una segunda en términos de orden organocéntrico-mecanicista, como las variantes estímulo-respuesta y de procesamiento de información; y una tercera, en que se abordan las interacciones complejas entre el individuo y su ambiente. Se ha llegado, pues, aparentemente, a un estudio sistémico del objeto de conocimiento. No obstante, no todas las corrientes de la psicología en vigencia practican ese enfoque sistémico de manera uniforme, debido a que parten de diferentes opciones epistemológicas en pleno debate.
3Ciencia_y_Tecnología
La conciencia pública de la ciencia, comprensión pública de la ciencia, o más recientemente, compromiso público con la ciencia y la tecnología, son términos relacionados con las actitudes, comportamientos, opiniones y actividades que comprenden las relaciones entre el público o la sociedad lega en su conjunto, el conocimiento científico y su organización. Es un enfoque relativamente nuevo para la tarea de explorar la multitud de relaciones y vínculos que la ciencia, la tecnología y la innovación tienen entre el público en general.[1]​ Si bien el trabajo anterior en la disciplina se había centrado en aumentar el conocimiento público de los temas científicos, en línea con el modelo de déficit de información de la comunicación científica, el descrédito de este modelo ha llevado a un mayor énfasis en cómo el público elige usar el conocimiento científico y en el desarrollo de interfaces para mediar entre la comprensión experta y lega de un problema.
3Ciencia_y_Tecnología
Julia Gwynaeth Bodmer, Julia Pilkington de nacimiento, (Mánchester, Gran Mánchester, Inglaterra, 31de julio de 1934 - Oxford, Oxfordshire, Inglaterra, 29 de julio de 2001), fue una genetista británica que tuvo un papel clave en el descubrimiento y definición de los antígenos leucocitarios humanos (HLA), un sistema de marcadores genéticos. Una de las expertas a nivel mundial en el campo de la serología y definición genética del sistema HLA. Sus descubrimientos ayudaron a avanzar en el conocimiento y comprensión de la relación entre el HLA y algunas enfermedades como el cáncer o el síndrome de inmunodeficiencia adquirida (VIH, sida).[1]​ Estudió filosofía, política y economía en Oxford, tras lo cual se convirtió en asistente estadística en la Universidad de Cambridge. Colaboró con su marido, el genetista Walter Bodmer, y formaron el "Cancer Research Fund" en 1979, estableciendo un laboratorio en Oxford para la investigación de la variación genética en las personas.[2]​
3Ciencia_y_Tecnología
Un polo tecnológico, tecnopolo o tecnópolis es un conjunto de industrias tecnológicas, generalmente acompañadas de instituciones educativas y de investigación, situadas en una ubicación física común. Su principal objetivo es acercar la universidad, la investigación y la industria para fomentar el desarrollo de soluciones locales con tecnología de punta, tanto ofreciendo nuevos profesionales a las industrias, como generando fuentes de trabajo para el capital humano egresado de las entidades educativas.
3Ciencia_y_Tecnología
RegTech (del inglés regulatory technology, ‘tecnología regulatoria’) es un término acuñado para definir a aquellas empresas de base tecnológica que crean soluciones dirigidas a cumplir y adaptarse a los requerimientos regulatorios de cada sector. [1]​[2]​ Las RegTech utilizan tecnologías como la computación en la nube, los macrodatos o la cadena de bloques, y se caracterizan por la agilidad y flexibilidad que ofrecen ante cualquier cambio regulatorio.[3]​
3Ciencia_y_Tecnología
El polvo inteligente (en inglés, smartdust) es una hipotética red inalámbrica de minúsculos sensores microelectromecánicos (MEMS), robots o dispositivos que pueden detectar señales de luz, temperatura, vibraciones, etc. Los dispositivos también se llaman motas (motes en inglés: de remote sensing) y se trabaja en disminuir su tamaño hasta el de un grano de arena, o incluso de una partícula de polvo. Imaginariamente cada dispositivo contiene sensores, circuitos que computan, tecnología de comunicaciones sin hilos bidireccional y una fuente de alimentación. Las motas recopilarían datos, realizarían cómputos y se comunicarían por radio con otros en distancias que se acercan a 300 metros (1000 pies). Cuando están muy juntos o apiñados, crean automáticamente redes altamente flexibles, de baja potencia con usos que se extienden desde sistemas de control del Clima a dispositivos de entretenimiento que trabajan conjuntamente con aparatos de gestión de información específica como un PDA o un iPod. El concepto de Smartdust fue introducido por Kristofer Pister (Universidad de California) en 2001¹. Una revisión² reciente discute varias maneras para llevar las redes de polvo inteligente desde dimensiones del milímetro al nivel del micrómetro, aunque hasta la fecha aun no existen.
3Ciencia_y_Tecnología
La crisis de replicación (o crisis de replicabilidad o crisis de reproducibilidad) refiere a una crisis metodológica en las ciencias en que investigadores han encontrado que los resultados de muchos de los experimentos científicos son difíciles o imposibles de replicar en investigaciones posteriores por investigadores independientes o por los investigadores originales de estos estudios.[2]​ Aunque la crisis ha estado presente a lo largo tiempo, la frase fue acuñada a inicios de la década de 2010 como parte de una mayor concienciación sobre el problema. La crisis de replicación representa un tema de investigación importante en el campo de la metaciencia. Considerando que la reproducibilidad de experimentos es una parte esencial del método científico, la incapacidad de replicar los estudios de otros tiene consecuencias potencialmente graves para muchos campos de la ciencia, en los que teorías significativas son hundidas o irreproducibles en su trabajo experimental. La crisis de replicación ha sido particularmente discutida en psicología (y en particular, psicología social) y en medicina, donde un número de esfuerzos ha sido hecho para re-investigar resultados clásicos, con el fin de determinar tanto la fiabilidad de los resultados, y, si se hallan inválidos, las razones para el fracaso de la replicación.[3]​[4]​
3Ciencia_y_Tecnología
La ingeniería electrónica es una rama de la ingeniería que se encarga de resolver problemas de la ingeniería tales como el control de procesos industriales y de sistemas electrónicos de potencia, instrumentación y control, así como la transformación de electricidad para el funcionamiento de diversos aparatos eléctricos. Tiene aplicación en la industria, en las telecomunicaciones, en el diseño y análisis de instrumentación electrónica, microcontroladores y microprocesadores. Es una de las ramas de la ingeniería que más revolucionó la civilización, siendo también una de las ingenierías más técnicas junto con la nuclear, la civil, y la referida a grandes construcciones y telecomunicaciones.
3Ciencia_y_Tecnología
La Junta Regulatoria de la Energía Atómica (en inglés: Atomic Energy Regulatory Board, AERB) fue constituida el 15 de noviembre de 1983 por el presidente de India de acuerdo al acta de Energía Atómica de 1962 (33 de 1962) Sección 27, para llevar a cabo las funciones regulatorias y de seguridad descritas en dicha Acta. La autoridad regulatoria de AERB está derivada de las reglas y notificaciones promulgadas bajo el Acta de Energía Atómica de 1962 y el Acta (de Protección) de 1986. Sus oficinas centrales están en la ciudad de Mumbai.[1]​ La misión de la junta es asegurar que el uso de la radiación ionizante y la energía nuclear en India no causen riesgo indebido a la salud y al ambiente. Actualmente, la junta consiste de un presidente de tiempo completo, un miembro ex-oficio, tres miembros de tiempo parcial y un secretario. El AERB es apoyado por el Comité de Revisión de Seguridad para la Operación de Plantas (en inglés: Safety Review Committee for Operating Plants, SARCOP), el Comité de Revisión de Seguridad para las Aplicaciones de la Radiación (en inglés: Safety Review Committee for Applications of Radiation, SARCAR) y los Comités Asesores para la Revisión de Seguridad de los Proyectos (en inglés: Advisory Committees for Project Safety Review, ACPSRs) (entre otros: los proyectos de energía nuclear, reactor de agua ligera y manejo de los desechos). Los ACPSRs recomiendan al AERB el otorgamiento de autorizaciones en las diferentes etapas de la construcción de una planta del Departamento de Energía Atómica (en inglés: Department of Atomic Energy, DAE), después de revisar las presentaciones hechas por las autoridades de la planta y basados en las recomendaciones de los Comités de Seguridad de Diseño. El SARCOP lleva a cabo la supervigilancia de la seguridad y hacer cumplir las estipulaciones de seguridad en las unidades operativas de la DAE. El SARCAR recomienda las medidas a cumplir para la seguridad de radiación en las instituciones médicas, industriales y de investigación que usan la radiación y las fuentes radioactivas. La AERB también recibe la asesoría del Comité Asesor sobre Seguridad Nuclear (en inglés: Advisory Committee on Nuclear Safety, ACNS). El ACNS está compuesto por expertos de la AERB, DAE e instituciones fuera del DAE. El ACNS proporciona las recomendaciones sobre los códigos de seguridad, guías y manuales preparados para el emplazamiento, diseño, construcción, aseguramiento de calidad y descomisionamiento/extensión de vida de las plantas de energía nuclear que han sido preparados por los respectivos comités asesores para cada una de estas áreas. También asesora a la junta sobre temas de seguridad genéricos. El ACNS examina y asesora sobre cualquier materia específica que le sea referida por el AERB. Los mecanismos administrativos y regulatorios que están establecidos aseguran una revisión de múltiples capas por los expertos disponibles a nivel nacional. Estos expertos provienen de prestigiosas instituciones académicas y agencias gubernamentales.
3Ciencia_y_Tecnología
La NFPA (National Fire Protection Association) es una organización fundada en Estados Unidos en 1896, encargada de crear y mantener las normas y requisitos mínimos para la prevención contra incendio, capacitación, instalación y uso de medios de protección contra incendio, utilizados tanto por bomberos, como por el personal encargado de la seguridad. Sus estándares conocidos como National Fire Codes recomiendan las prácticas seguras desarrolladas por personal experto en el control de incendios.
3Ciencia_y_Tecnología
Telecommunication and Internet Converged Services and Protocols for Advanced Networks (TISPAN) es un organismo de estandarización, perteneciente al ETSI (European Telecommunications Standars Institute), cuyo objetivo es establecer la convergencia de redes basadas en conmutación de circuitos con redes basadas en conmutación de paquetes, es decir, que redes fijas y móviles formen parte de una misma red. En concreto, TISPAN abarca los aspectos relacionados con los servicios, arquitectura y protocolos, estudios de calidad de servicio, seguridad y movilidad en las redes fijas mediante el uso de distintas tecnologías, tanto tecnologías existentes como emergentes.
3Ciencia_y_Tecnología
La economía de la ciencia busca entender el impacto de la ciencia en el avance de la tecnología, para explicar el comportamiento de los científicos, y para entender la eficiencia o ineficiencia de las instituciones científicas. La importancia de la economía de la ciencia es debida sustancialmente a que la ciencia es el principal motor de la tecnología y la tecnología uno de los principales motores del crecimiento y la productividad. Creyendo que la ciencia importa, los economistas han intentado entender el comportamiento de los científicos y las operaciones de instituciones científicas.[1]​
3Ciencia_y_Tecnología
La energía específica es la energía por unidad de masa. Se utiliza para cuantificar, por ejemplo, el calor almacenado u otras propiedades termodinámicas de sustancias, como la energía interna específica, entalpía específica, la energía libre de Gibbs específica y la energía libre de Helmholtz específica. También se puede utilizar para la energía cinética o energía potencial de un cuerpo. La energía específica es una propiedad intensiva, mientras que la energía y la masa son propiedades extensivas. La unidad del SI para la energía específica es el Julio por kilogramo (J/kg). Otras unidades todavía en uso en algunos contextos son las kilocalorías por gramo (Cal/g o kcal/g), sobre todo en temas relacionados con la alimentación, vatios por kilogramo en el campo de las baterías (W/kg). El gray y el sievert son medidas especializadas para la energía específica absorbida por los tejidos del cuerpo en forma de radiación. La siguiente tabla muestra los factores de conversión a J/kg: El concepto de energía específica está relacionada con, pero distinta de, la noción química de energía molar, es decir de energía por mol de una sustancia. Aunque un mol de una sustancia tiene una masa molar definida, el mol es técnicamente una unidad adimensional, un número puro (el número de moléculas de la sustancia que está siendo medido, dividido por la constante de Avogadro). Por lo tanto, para las cantidades molares como la entalpía molar, se utilizan unidades de energía por mol, como J/mol, kJ/mol o el más antiguo (aunque sigue siendo ampliamente utilizado) kcal/mol. Para un cuadro con la energía específica de muchos combustibles diferentes, así como de las baterías, consulte el artículo sobre la densidad de energía.
3Ciencia_y_Tecnología
Según el DRAE, la palabra «poliorcética» viene del griego «πολιορκητική», y significa «arte de atacar y defender las plazas fuertes».[1]​ «Poliorcética» puede tener alguno de los siguientes significados: 1. La disciplina que se encarga de construir fortalezas, bastiones, baluartes o fortificaciones. Se trata de una de las artes marciales o de guerra, dentro de la ingeniería militar. Demetrio I de Macedonia, recibió el sobrenombre de Poliorcetes por ser considerado muy hábil en el arte del asedio o sitio a ciudades (ver, por ejemplo, Sitio de Tiro de 332 a. C.). 2. Por extensión, se trata también de un conjunto de técnicas utilizadas en psicología para fortalecerse frente a las agresiones de los entornos psicológicamente hostiles, o de nuestras propias agresiones endógenas. 3. Obra de Eneas el Táctico (siglo IV a. C.).
3Ciencia_y_Tecnología
La tecnología educativa es "el espacio intelectual pedagógico cuyo objeto de estudio son los medios y las tecnologías de la información y la comunicación, en cuanto formas de representación, difusión y acceso al conocimiento y a la cultura en los distintos contextos educativos: escolaridad, educación no formal, educación informal, educación a distancia y educación superior".[1]​
3Ciencia_y_Tecnología
CIRCE es un centro de investigación privado y sin ánimo de lucro, creado en 1993 por la Universidad de Zaragoza, el Gobierno de Aragón y Endesa. Junto a estos tres miembros fundadores, el patronato de la Fundación cuenta actualmente con el Grupo Samca, Taim-Weser, Grupo Cuerva, Grupo Térvalis y Merytronic.
3Ciencia_y_Tecnología
La prueba de caja negra, test funcional o prueba comportamental, es un tipo de prueba de software directa, cuya finalidad es analizar la compatibilidad entre las interfaces de cada uno de los componentes del software. No tiene en consideración la lógica interna del sistema. Permite la revisión final de las especificaciones y codificación de un programa. La prueba es considerada aceptable cuando su ejecución conlleva una probabilidad elevada de encontrar un error y es satisfactoria cuando lo detecta. El propósito es reducir el número de casos de prueba, pero manteniendo la efectividad de ésta, es decir, conseguir localizar el mayor número de errores posible. Esto se consigue mediante la exhaustiva elección de las condiciones de entrada y salida válidas y no válidas, que cubren todas las funcionalidades del sistema. Este tipo de prueba detecta las siguientes tipologías de errores: funciones incorrectas o ausentes, errores de inicialización y terminación, de rendimiento, errores en estructuras de datos o accesos a bases de datos y en la interfaz. Existen tres técnicas principales: particiones de equivalencia, análisis de valores límites y conjetura de errores. La prueba de caja negra supone un compendio de todos estos métodos.
3Ciencia_y_Tecnología
El Modelo de prototipos, en Ingeniería de software, pertenece a los modelos de desarrollo evolutivo. El prototipo debe ser construido en poco tiempo, usando los programas adecuados y no se debe utilizar muchos recursos. El diseño rápido se centra en una representación de aquellos aspectos del software que serán visibles para el cliente o el usuario final. Este diseño conduce a la construcción de un prototipo, el cual es evaluado por el cliente para una retroalimentación; gracias a esta se refinan los requisitos del software que se desarrollará. La interacción ocurre cuando el prototipo se ajusta para satisfacer las necesidades del cliente. Esto permite que al mismo tiempo el desarrollador entienda mejor lo que se debe hacer y el cliente vea resultados a corto plazo.
3Ciencia_y_Tecnología
El sistema de Linde-Hampson es un sistema de licuefacción de gases muy extendido en aplicaciones poco exigidas de criogenia debido a su sencillez y basa su funcionamiento en el Efecto Joule-Thomson. Los elementos básicos de este sistema son: compresor, cambiador de calor, válvula de expansión y cámara de licuación. Dentro de este sistema de licuación pueden encontrarse algunas variantes. William Hampson y Carl von Linde presentaron de forma independiente la patente del ciclo en 1895.[1]​
3Ciencia_y_Tecnología
El flujo electroosmótico o efecto electroosmótico es el movimiento de un fluido a través de un conducto de muy pequeño diámetro como un capilar o un microcanal cuando se aplica un campo eléctrico. El efecto electroosmótico es utilizado en bioquímica para la purificación mediante electroforesis capilar y en dispositivos de microfluidos.
3Ciencia_y_Tecnología
El falibilismo es la doctrina lógica que sostiene la posibilidad de que una proposición dada puede ser negada, cambiando su valor de verdad y a partir de ella obtener una nueva discriminación certera acerca de lo conocido. Esta doctrina tiene su génesis en el lógico Charles Sanders Peirce, conformando un elemento fundamental de sus sistema lógico y filosófico. Charles Sanders Peirce la esgrimía para criticar a Sócrates : "Sócrates(...)habría quedado muy satisfecho de que se le hubiese vencido en una discusión, porque gracias a ello habría aprendido algo", al mismo tiempo que postulaba con ella la exclusión total de proposiciones infalibles, es decir, proposiciones que se dan como ciertas sin margen de error lógico alguno. Otro de los proponentes del falibilismo será Karl Popper, quien construirá su teoría del conocimiento (el racionalismo crítico) sobre presupuestos falibilísticos, es decir, por el margen lógico de refutación que debe poseer una proposición cualquiera dentro de una hipótesis para que esta sea considerada como científica. Generalmente se confunde esta afirmación (el falsacionismo) con el hecho de que una teoría siempre será refutada, concepción equívoca, pues el Principio de Falsación de Popper es un criterio para exigir cómo sería posible exponer la falsedad de una hipótesis. El falibilismo puede entonces entenderse como la posibilidad de que todo conocimiento puede, en principio, ser erróneo. Se vincula, consiguientemente, con la admisión del conocimiento empírico puede ser siempre revisado por posteriores observaciones, esto es, todo conocimiento empírico es susceptible de sucesivas confirmaciones. Repárese en que la tesis "cualquier cosa que tomamos por conocimiento puede posiblemente convertirse en falsa" no es lógicamente equivalente a la proposición de que "todo cuanto podamos decir es falso", proposición autocontradictoria. La verdad empírica y su falibilidad queda drásticamente separada de la validez formal, propia de las estructuras abstractas de la lógica y las matemáticas. La inducción, sostenía Peirce, se mueve en una línea de hechos homogéneos hasta sus causas, por lo que clasifica y no explica. La deducción, en cambio, fuente del conocimiento matemático y lógico, es un razonamiento que no puede conducir desde premisas verdaderas a conclusiones falsas. Por consiguiente, razonaba Pierce, la inferencia más adecuada para la obtención de la verdad empírica es la abducción. A esto añadía su presupuesto falibilista, creando un sistema filosófico que denominó pragmatismo.
3Ciencia_y_Tecnología
International Aerospace Quality Group (IAQG), comúnmente llamado en castellano Grupo Internacional de Calidad Aeroespacial es una organización sin ánimo de lucro que engloba diferentes compañías, las cuales trabajan de forma cooperativa para proveer productos y servicios de aviación, espacio y defensa. Esta se encuentra ubicada en Bruselas, siguiendo las normas y leyes de este lugar. El IAQG se sustenta mediante tres entidades: La Sociedad de Ingenieros Automotrices (SAE, Society of Automotive Engineers) ASD - Aerospace and Defense Industries Association of Europe SJAC - Society of Japanese Aerospace CompaniesY está dividida en tres áreas geográficas: América (AAQG) - América del Norte, Central y del Sur Europa (EAQG) - Europa, Oriente Medio, Rusia y África Asia-Pacífico (APAQG) - Asia y OceaníaEl IAQG fue creada en el 1998 por entidades de la industria aeroespacial. Este estableció una plataforma internacional con el propósito de implementar iniciativas que provocasen mejoras significativas en la calidad y menores costes en las cadenas de suministros en la industria aeroespacial y de defensa.
3Ciencia_y_Tecnología
La Ingeniería Agroindustrial es la rama de la Ingeniería que basándose en ciencias como: Matemática, Física, Química, Biología, Bioquímica, Biotecnología, Bromatología, Fenómenos de transportes, Ciencias económicas y administrativas, diseña procesos, instalaciones, maquinarias y equipos, así mismo transforma productos de origen biológico del sector primario para fines alimentarios y no alimentario. Productos y procesos como los del papel, cartón, saponificación "jabón", obtención de azúcar, extracción de aceites comestibles, lácteos, cárnicos, panificación, bebidas alcohólicas, biocombustibles, fibras naturales, bioplásticos y biopolímeros, curtiembres, suplementos e insumos alimenticios, nutrición animal, cosméticos, algunos insumos para la industria farmacéutica y textil
3Ciencia_y_Tecnología
La Licenciatura en Administración y Dirección de Empresas es una titulación universitaria de grado, que forma parte de las Ciencias económico-administrativas,[1]​ en donde los alumnos son instruidos en la dirección y administración de organizaciones, tanto públicas como privadas, sea a nivel general como en alguna de sus respectivas áreas funcionales: finanzas, mercadotecnia, recursos humanos, operaciones, auditoría, estrategia empresarial, contabilidad, etc.[2]​ En España, se le conoce como Administración y dirección de empresas, abreviado como ADE, a las correspondientes licenciaturas o grados universitarios cuya principal materia de estudio es la administración. En Latinoamérica, en cambio, se le suele denominar Licenciatura en Administración, pues para poder ejercer la profesión se requieren estudios adicionales de licenciatura una vez culminado el grado de bachiller.[3]​
3Ciencia_y_Tecnología
La contabilidad es una disciplina que se encarga de estudiar, medir y analizar el patrimonio , la situación patrimonial económica y financiera de una empresa u organización, con el fin de facilitar la toma de decisiones en el seno de la misma y el control externo, presentando la información, previamente registrada, de manera sistemática y útil para las distintas partes interesadas. La contabilidad es una disciplina técnica que a partir del procesamiento de datos sobre la composición y evolución del patrimonio de un ente, los bienes de propiedad de terceros en su poder y ciertas contingencias produce información para la toma de decisiones de administradores y terceros interesados y para la vigilancia sobre los recursos y obligaciones del ente.[1]​ La finalidad de la contabilidad es suministrar información en un momento dado de los resultados obtenidos durante un período de tiempo, que resulta de utilidad a la toma de decisiones, tanto para el control de la gestión pasada, como para las estimaciones de los resultados futuros, dotando tales decisiones de racionalidad y eficiencia.[2]​ Actualmente existen discusiones sobre la mesa que intentan definir un estado ontológico de la contabilidad, en las que hay grandes desacuerdos sobre si esta ha logrado un estatus científico, es decir si puede ser denominada como ciencia o en su defecto, arte, lenguaje, o simplemente técnica. Para evadir esta discusión, muchas veces se opta por hacer referencia a la contabilidad como "disciplina", sin embargo, algunos autores se han esforzado por argumentar su posición referente a este tema. Una de las definiciones ontológicas que parece tener mayor capacidad argumentada desde las concepciones de la historia de la ciencia y la epistemología, es la que la denomina como una tecnología de carácter inmaterial o "tecnología blanda".[3]​ Esto no significa abandonar el carácter científico de la profesión contable, por el contrario, desplaza el centro de la atención sobre el punto de definir cierta cientificidad de la profesión contable, de la herramienta (contabilidad) al actor y operario de dicha herramienta Contador. En este sentido, el contador sería el sujeto, que puede adquirir el estatus científico haciendo uso de una herramienta desarrollada socialmente (contabilidad), capaz de ser calibrada bajo las reglas de diferentes "normas contables" para medir de manera razonable los intercambios de recursos en una organización, bien sea una empresa privada, pública, un departamento o un país.[4]​ Asimismo, debe reconocerse que en la mayoría de las publicaciones científicas, la palabra "ciencia" es la más utilizada para hacer referencia a la contabilidad, no obstante, careciendo de argumentos que sustenten el uso de la palabra. Asimismo, el uso de la palabra "disciplina" constituye una opción neutral en esta discusión ya que reúne los aspectos relativos al ejercicio contable sin tener primero que definir su estatus científico.
3Ciencia_y_Tecnología
La lógica empírica es la base del razonamiento empírico y por lo tanto del método empírico. Esta visión de la lógica proviene de la Antigua Grecia, siendo su máximo exponente el propio Aristóteles. El término empírico deriva del griego antiguo de experiencia, έμπειρία, que a su vez deriva de έυ, en, y πεἳρα, prueba, experimento. Su origen se inicia con la observación de las relaciones entre los objetos, lo que la convierte en la base ideal para las leyes del conocimiento. Su aparición en la Antigua Grecia y el mundo árabe provoca la definitiva separación entre las ciencias formales (geometría, álgebra) de las ciencias empíricas (zoología, botánica) y las ciencias aplicadas (ingeniería, medicina). Su paso a través de la historia provoca el descubrimiento de la lógica experimental y se mantiene hasta nuestros días. Observación.
3Ciencia_y_Tecnología
La reproducibilidad es la capacidad de un ensayo o experimento de ser reproducido o replicado por otros, en particular, por la comunidad científica. La reproducibilidad es uno de los pilares del método científico, siendo la falsabilidad el otro. Aunque existen diferencias conceptuales según la disciplina científica,[1]​ en muchas disciplinas, sobre todo en aquellas que implican el uso de estadística y procesos computacionales,[2]​ se entiende que un estudio es reproducible si es posible recrear exactamente todos los resultados a partir de los datos originales y el código informático empleado para los análisis.[3]​ Por el contrario, en este contexto, la repetibilidad se refiere a la posibilidad de obtener resultados consistentes al replicar un estudio con un conjunto distinto de datos, pero obtenidos siguiendo el mismo diseño experimental.[2]​[3]​ Así mismo, el término está estrechamente relacionado al concepto de testabilidad. En años recientes, fracasos reiterados en la reproducción de experimentos han dado lugar a una crisis de replicación en varias ciencias.[4]​
3Ciencia_y_Tecnología
El ensayo Lefranc es uno de los ensayos de permeabilidad, in situ, que se aplica con mayor frecuencia. Consiste en introducir, o bombear agua desde un sondaje, donde la cavidad es mantenida constante, a una determinada profundidad. Se aplica principalmente a suelos sueltos. Para suelos rocosos fracturados se utiliza, para el mismo fin, el ensayo Lugeon. Existen dos modalidades, con presión constante, o, con presión variable.[1]​
3Ciencia_y_Tecnología
El Object Management Group (OMG) es un consorcio, formado en 1989, dedicado al cuidado y el establecimiento de diversos estándares de tecnologías orientadas a objetos, tales como UML, XMI, CORBA y BPMN. Es una organización de lucro que promueve el uso de tecnología orientada a objetos mediante guías y especificaciones. El grupo está formado por diversas compañías y organizaciones con distintos privilegios dentro de la misma.[1]​
3Ciencia_y_Tecnología
En Filosofía de la ciencia, la subdeterminación se refiere a aquellas situaciones en las que la evidencia disponible no es suficiente para determinar la creencia que deberíamos tener acerca de tal evidencia. Por ejemplo, si lo único que sabemos es que se gastaron 10€ en manzanas y naranjas, y que las manzanas cuestan 1€ y las naranjas 2€, entonces sabemos lo suficiente como para descartar ciertas hipótesis (p. ej. no podríamos haber comprado 9 manzanas). Sin embargo tal información no sería suficiente como para que llegásemos a conocer la combinación específica de manzanas y naranjas que se compró. En este caso, diríamos que la creencia en la combinación de manzanas y naranjas compradas, está subdeterminada por la evidencia disponible. La subdeterminación se contrapone a la sobredeterminación en donde existen múltiples causas para un solo efecto.
3Ciencia_y_Tecnología
El preparacionismo (del inglés prepper) o survivalismo (del inglés survivalism)[1]​ es un movimiento social de individuos o grupos, llamados preparacionistas o survivalistas (preppers o survivalists en inglés),[2]​[3]​ que se preparan activamente para las emergencias, incluidas las posibles perturbaciones del orden social o político, en escalas que van desde la local hasta la internacional. El preparacionismo también abarca la preparación para emergencias personales, como la pérdida del empleo o el perderse en la naturaleza o bajo condiciones climáticas adversas. Se hace hincapié en la autosuficiencia, el almacenamiento de suministros y la adquisición de conocimientos y técnicas de supervivencia. Los preparacionistas suelen adquirir formación médica de emergencia y de autodefensa, almacenan alimentos y agua, se preparan para ser autosuficientes y construyen estructuras como refugios de supervivencia o subterráneos que pueden ayudarles a sobrevivir a una catástrofe.
3Ciencia_y_Tecnología
Una beca es un aporte económico que se concede a aquellos estudiantes o investigadores con el fin de llevar a cabo sus estudios o investigaciones. Las aportaciones económicas pueden provenir de organismos oficiales (en España, beca MEC[1]​ del Ministerio de Educación y Formación Profesional, becas de las administraciones autonómicas, etc.) o de organismos privados, ya sean bancos y cajas de ahorro, fundaciones, empresas, etc. Las becas pueden ser generales, para realizar los estudios ordinarios, o pueden pertenecer a programas específicos, para intercambios en el extranjero, o entre distintas universidades dentro de un mismo país, como las becas seneca para financiar la movilidad de estudiantes dentro del programa SICUE o entre universidades europeas (las llamadas Erasmus, o del resto del mundo, por ejemplo), para prácticas en empresa, etc. Las becas para prácticas han proliferado en los últimos años, en gran medida sustituyendo otro tipo de contratos que requerirían mejores condiciones de trabajo y mayores sueldos, surgiendo así la figura del becario. El objetivo de estas becas se centra en facilitar a los alumnos la posibilidad de obtener una educación, incluso cuando cuenten con pocos recursos, y evitar así que se produzca el abandono escolar por cuestiones económicas. Por lo general las becas (a nivel universitario) se entregan a alumnos que cuentan con ciertas habilidades o capacidades, ya sean académicas o de otra índole.
3Ciencia_y_Tecnología
En ciencia ficción y literatura de fantasía, un campo de fuerza es una barrera energética para proteger una persona, un área o un objeto contra ataques o intrusiones. La idea puede estar basada en parte en el concepto de campo vectorial, aunque en esencia se asemeja a un hechizo de resguardo, magia de druidas y shamanes del mundo antiguo. En las ciencias físicas, el término también tiene varios significados específicos (véase campo en física). Las obras de ciencia ficción postulan numerosas aplicaciones potenciales para los campos de fuerza: Una barrera para permitir trabajos en áreas que puedan exponerse al vacío del espacio, preservando en el interior una atmósfera habitable, mientras a su vez se permite que ciertos objetos pasen a través de ellos. En Star Wars también es utilizado para evitar que los objetos o las personas puedan quemarse por contacto directo con lava volcánica, y en los juegos del hambre para evitar que los tributos salgan de la arena. Cuarentena de emergencia en un área afligida por una cierta clase de agente tóxico (ej: gas venenoso) para evitar que se propague. Extinguir el fuego cortándole el suministro de oxígeno. Como escudo deflector para proteger áreas, objetos o personas frente a daños. Para crear un espacio habitable durante un tiempo en un lugar no apto para la vida, en especial para separar atmósferas artificiales de un entorno dañino sin necesidad de sistemas presurizados cerrados herméticamente, como en submarinos y naves espaciales. Como método de seguridad para dirigir a alguien en una dirección particular para capturarlo. Para las puertas de prisiones. En Star Wars, los campos de fuerza también se utilizan para la reentrada atmosférica de tal manera que el objeto no se incendie por la fricción a gran velocidad, sin duda esta sería la aplicación más provechosa en tecnología espacial, no se requeriría de cerámicas espaciales ni de un ángulo especial de reentrada. Como escudo ante disparos de armas de fuego o láser. Ésta es la clásica función de los campos de fuerza en ciencia ficción. Algunos personajes de la literatura o la cinematografía fantástica que poseen la capacidad de generar campos de la fuerza son Susan Storm de Los 4 Fantásticos que genera campos de fuerza y posee otras habilidades con el poder de su mente, Wyatt Halliwell de Charmed, Violeta Parr de Los Increíbles, Aelita de Código Lyoko, y los mechas Evangelion en el manga y anime Neon Genesis Evangelion, (entre otros).
3Ciencia_y_Tecnología
La Autenticación Autónoma Directa (o Direct Autonomous Authentication, "DAA") es una plataforma de ciberseguridad desarrollada por la compañía de tecnología Averon, con sede en San Francisco.[1]​[2]​[3]​ La plataforma DAA habilita la autentificación segura de un usuario móvil mientras preserva simultáneamente su privacidad.[4]​[5]​ La tecnología fue desarrollada de manera discreta desde fines de 2015, y fue por primera vez presentada por Averon en 2018, y luego expuesta en Consumer Electronics Show 2018 como una nueva tecnología nueva que combate las crecientes amenazas del ciberdelito y el hackeo de las cuentas de consumidores.[6]​
3Ciencia_y_Tecnología
Barón Carl Ludwig von Reichenbach ( Stuttgart, 12 de febrero de 1788 - Leipzig, 19 de enero de 1869), fue un químico, geólogo, metalurgista, naturalista, industrialista, filósofo, y botánico alemán. Obtuvo el doctorado en la Universidad de Tubinga. Entre 1821 a 1834, estableció la primera empresa moderna de forja en Alemania, primeramente en Villingen-Schwenningen, luego en Hausach y finalmente en Baden. Estableció también una planta en Moravia. Descubrió varias sustancias químicas, como la parafina en 1830 y la creosota en 1833. Formuló de hipótesis de la fuerza ódica (de Odín), de la cual provendrían la electricidad, el magnetismo y el calor. Dedicó los últimos años de su vida a investigar sobre la existencia de esta fuerza o energía primordial, a la que llegó a considerar también como origen de la vida, acercándose así a las concepciones del vitalismo.
3Ciencia_y_Tecnología
Stemettes es una empresa social qué apoya a mujeres de 5 a 22 años para estudiar carreras en Ciencia, Tecnología, Ingeniería y Matemática (CTIM). Stemettes, organiza paneles, hackatones, el programa de tutoría Estudiante a Stemette apoyado por el Banco Alemán, una incubadora Outbox y la aplicación, OtotheB, una plataforma en línea para mujeres interesadas en CTIM y la creación de empresas.
3Ciencia_y_Tecnología
ARIZ es el acrónimo ruso para «Алгоритм решения изобретательских задач» (Algoritm reshenia izobretatelskij zadach), lo que tiene más o menos el significado de "algoritmo - o método paso a paso - para solucionar problemas inventivos". El método fue desarrollado 1956 por Genrich Altshuller y Rafael Shapiro. ARIZ es un algoritmo para encontrar ideas que consiste de una lista de aproximadamente 85 procedimientos paso a paso. ARIZ ayuda a resolver problemas muy complejos donde otros métodos son insuficientes.
3Ciencia_y_Tecnología
Una tesis (griego θέσις thésis «establecimiento, proposición, colocación», es información de «lo propuesto, lo afirmado, lo que se propone»; originalmente de tithenai, «archivar») es el inicio de un texto argumentativo, una afirmación cuya veracidad ha sido argumentada, demostrada o justificada de alguna manera. Generalmente enuncia una proposición científica, un axioma o un hecho demostrable. Derivada del método científico, una tesis es la afirmación concreta de una idea que se expone de manera abierta y fundamentada. También puede llamársela teoría científica, toda vez que un sustento teórico puede ser considerado como parte del conocimiento establecido. Normalmente en un texto argumentativo se conforma la opinión que tiene el articulista sobre el tema del que está hablando. Después de eso el articulista defiende su tesis con argumentos. En la antigua Grecia, principalmente en el contexto de la medicina, se trataba de una afirmación que el sustentante exponía. Sus ideas se sometían a un interrogatorio, una discusión o prueba dialéctica para sostener en público las posibles objeciones que le oponían los examinadores.[cita requerida]Una tesis se considera como la afirmación culminada de una hipótesis para la cual puede incluso no existir ningún tipo de evidencia inicial y los hechos que la apoyan pueden estar en gran medida por descubrir. Una tesis se interpreta generalmente como una proposición ya demostrable cuyo objetivo consiste en hacer válido, en un sentido eficazmente ya que pragmático, lo «esencial» de lo «complejo de las proposiciones». Los pasos encaminados a validar o invalidar una hipótesis, para establecerla provisionalmente como una tesis justificada, dependen del tipo de reglas propicias para esto. Literalmente la tesis es la opinión, el punto de vista del escritor, y a partir de ella, se crean los argumentos y como conclusión el texto argumentativo, muchas veces representado en cartas al director. Una tesis es un documento de carácter expositivo, donde se presentan los resultados obtenidos por el aspirante en su trabajo de investigación. Los resultados se deben conducir de forma sistemática, lógica y objetiva, para la posible búsqueda de soluciones al problema de estudio planteado. Existen muchas y diversas definiciones de lo que es una tesis. La académica Claudia Gómez Haro propone esta caracterización:[1]​
3Ciencia_y_Tecnología
Experimentos galvánicos es como se conocen a los experimentos realizados por el médico, fisiólogo y físico italiano Luigi Galvani, en los que demostró que por medio de descargas eléctricas pequeñas se generaban ciertas reacciones en los músculos de los seres vivos, dando las primeras pistas de la existencia de electricidad en la actividad neurológica de estos especímenes y los primeros indicios de la naturaleza eléctrica de los impulsos nerviosos en el organismo. Conocidos principalmente por la obra Frankenstein o el moderno Prometeo, de la escritora inglesa Mary Shelley, en la que presenta un oscuro experimento en el que mediante descargas eléctricas, se le da vida a un ser formado de partes humanas. Afirmando una vez más la influencia de los experimentos de Luigi Galvani incluso en la literatura de la época.
3Ciencia_y_Tecnología
El proyecto MELiSSA (Alternativa de Sistema de Soporte Vital Microecológico, por sus siglas en inglés) es un proyecto tecnológico a largo plazo de la Agencia Espacial Europea. Su principal objetivo es construir hábitats autónomos en el espacio, que permitan a los astronautas abastecerse de aire fresco, agua y alimentos a través de un mecanismo de reciclaje microbiano continuo de desechos humanos, es decir, desarrollar un ecosistema cerrado en donde todo lo que se necesite se pueda producir dentro, y los residuos puedan reintegrarse funcionalmente al sistema.[1]​
3Ciencia_y_Tecnología
Cibercultura o cultura de Internet es la cultura que surge, o está surgiendo, del uso de redes informáticas para la comunicación, el entretenimiento y el mercado electrónico. Es una cultura nacida de la utilización de las nuevas tecnologías de la información y comunicación. Cultura basada en las ventajas y desventajas de la libertad absoluta, el anonimato y ciberciudadanos (un ciberciudadano es un ciudadano en el ciberespacio o un ciudadano de Internet. Es aquella persona que es usuaria de Internet, en especial la que participa activamente. En inglés: cybercitizen) con derechos y obligaciones.
3Ciencia_y_Tecnología
Cada vez son más los videos que circulan por la red. La detección de copias de video se basa en detectar a partir de un video ejemplo, cuales han sido copiados con tal de no violar el copyright del video ejemplo. También consideramos un video copiado aquel grabado con una cámara, como podría ser un espectador grabando una película en el cine. Se tiene que tener en cuenta que los videos copiados pueden ser modificados, por ejemplo, pueden llevar un logo, transformaciones de color, bordes negros, disminución de la calidad, más ruido, etc.
3Ciencia_y_Tecnología
Las guerras de la ciencia fueron una serie de polémicas intelectuales que tuvieron lugar en los 90 entre los "postmodernos" y los "realistas" (aunque ninguna de estas partes se denominaría a sí misma usando estos términos) sobre la naturaleza de las teorías científicas. El postmodernismo cuestionaba la objetividad de la ciencia y propuso diferentes críticas al conocimiento y al método científico desde disciplinas como los estudios culturales, la antropología cultural, los estudios feministas, la literatura comparada, los estudios sobre los medios y los Estudios de ciencia, tecnología y sociedad. Desde el realismo se proclamó la existencia de un conocimiento científico objetivo libre de cualquier determinación social y acusaron a los postmodernos de no entender los temas científicos que estaban criticando.
3Ciencia_y_Tecnología
El Instituto Nacional Estadounidense de Estándares, más conocido como ANSI (por sus siglas en inglés: American National Standards Institute), es una organización sin fines de lucro que supervisa el desarrollo de estándares para productos, servicios, procesos y sistemas en los Estados Unidos. ANSI es miembro de la Organización Internacional para la Estandarización (International Organization for Standardization, ISO) y de la Comisión Electrotécnica Internacional (International Electrotechnical Commission, IEC). La organización también coordina estándares del país estadounidense con estándares internacionales, de tal modo que los productos de dicho país puedan usarse en todo el mundo. Por ejemplo, los estándares aseguran que la fabricación de objetos cotidianos, como pueden ser las cámaras fotográficas, se realice de tal forma que dichos objetos puedan usar complementos fabricados en cualquier parte del mundo por empresas ajenas al fabricante original. De este modo, y siguiendo con el ejemplo de la cámara fotográfica, la gente puede comprar carretes para la misma independientemente del país donde se encuentre y el proveedor del mismo. Por otro lado, el sistema de exposición fotográfico ASA se convirtió en la base para el sistema ISO de "velocidad de película" (en inglés: film speed), el cual es ampliamente utilizado actualmente en todo el mundo. Esta organización aprueba estándares que se obtienen como fruto del desarrollo de tentativas de estándares por parte de otras organizaciones, agencias gubernamentales, compañías y otras entidades. Estos estándares aseguran que las características y las prestaciones de los productos son consistentes, es decir, que la gente use dichos productos en los mismos términos y que esta categoría de productos se vea afectada por las mismas pruebas de validez y calidad. ANSI acredita a organizaciones que realizan certificaciones de productos o de personal de acuerdo con los requisitos definidos en los estándares internacionales. Los programas de acreditación ANSI se rigen de acuerdo a directrices internacionales en cuanto a la verificación gubernamental y a la revisión de las validaciones. En la ciudad de Washington D. C. está ubicada la sede de la organización.
3Ciencia_y_Tecnología
El Periodismo computacional se puede definir como un campo interdisciplinar en el que la computación se aplica a las diversas especialidades o dimensiones relacionadas con el periodismo que requieren competencias informáticas. Puede entenderse como una evolución racional del periodismo de investigación, pero con sus propias herramientas y habilidades. La persona que lo lleva a cabo debe ser un periodista con conocimientos en big data, además de crear sus artículos mediante el análisis de datos.
3Ciencia_y_Tecnología
La teoría de la fermentación fue estudiada en profundidad y traída a la luz por primera vez por Louis Pasteur. Esta teoría es la idea o concepto de cómo la fermentación es provocada por los microbios y se pone de acuerdo con el concepto de generación espontánea.[1]​ A pesar de que esta teoría ahora está desactualizada y ha sido reemplazada por la teoría microbiana de la enfermedad, durante mucho tiempo se mantuvo vigente, y Pasteur estuvo a la vanguardia de explicar por qué parecía que los organismos aparecían de la nada en lugar de decir que era simplemente una reacción espontánea, un acto de Dios. La fermentación es un proceso que se ha utilizado durante miles de años, pero nadie pudo explicar exactamente cómo sucedía y qué lo provocaba. Desde el descubrimiento de Pasteur de por qué y cómo se produce la fermentación, el proceso se ha estudiado intensamente y su uso se extiende a la fabricación de diversos productos industriales como las bebidas alcohólicas, algunos alimentos como el yogur o incluso la fabricación de algunos medicamentos.[2]​[3]​
3Ciencia_y_Tecnología
El imperialismo académico es una forma de imperialismo donde hay una relación desigual entre académicos, donde un grupo domina y el otro es dominado o ignorado. Las primeras teorías acerca del imperialismo académico datan de los años 1960.[1]​
3Ciencia_y_Tecnología
Sobreingeniería (o sobre-ingeniería) es el diseño de un producto para ser más robusto o complicado de lo necesario para el uso que se le pretende dar, con el fin de garantizar suficiente seguridad, suficiente funcionalidad, o debido a errores de diseño. La sobreingeniería puede ser deseable cuando la seguridad o el rendimiento en un aspecto particular es crítico, o cuando se requiere una funcionalidad extremadamente amplia, pero generalmente es criticada desde el punto de vista de la ingeniería del valor como un desperdicio. Como filosofía de diseño, tal sobrecomplejidad es lo opuesto a la escuela de pensamiento de "menos es más" (y por lo tanto una violación del Principio KISS y de la parsimonia).[1]​
3Ciencia_y_Tecnología
Günther Anders (nacido el 12 de julio de 1902 como Günther Stern en Breslau, actual Wrocław, Imperio alemán ; muerto el 17 de diciembre de 1992 en Viena, Austria), importante filósofo e intelectual germano-austríaco de origen judío.
3Ciencia_y_Tecnología
La tecnología cívica es tecnología (principalmente tecnología de información) que permite la participación del público con el propósito de aumentar el bienestar social. Por ejemplo, la tecnología cívica puede enfocarse en promover el desarrollo socioeconómico, mejorar el funcionamiento del gobierno, o facilitar la comunicación entre ciudadanos.[1]​[2]​ Abarca aplicaciones cívicas, las plataformas que apoyan cuerpos de gobierno, instituciones y otro software que habilita estos objetivos.
3Ciencia_y_Tecnología
ONGAWA, Ingeniería para el Desarrollo Humano es una Organización No Gubernamental para el Desarrollo (ONGD) que tiene como misión poner la tecnología al servicio del desarrollo humano, para construir una sociedad más justa y solidaria. Esta ONGD trabaja fundamentalmente en cinco líneas de trabajo: agua, tecnologías de la Información y la Comunicación (TIC), energía, empresa y agro/alimentación. Todas estas líneas se trabajan con un enfoque basado en los derechos humanos. Hasta septiembre de 2011, la denominación de esta ONGD era Ingeniería Sin Fronteras Asociación para el Desarrollo y formaba parte de la Federación de Ingeniería Sin Fronteras. A partir de esta fecha, la ONGD cambió de denominación e inició una nueva etapa marcada por el trabajo en red, con un enfoque de derechos en el acceso universal a los servicios básicos, y centrado en el ámbito de la tecnología para el desarrollo humano. ONGAWA está calificada por la Agencia Española de Cooperación Internacional al Desarrollo (AECID) como ONG de Desarrollo acreditada en el sector tecnología desde el año 2005. En noviembre de 2011, el programa Willay de TIC para la gobernabilidad, que ONGAWA desarrolla en Perú junto con otras organizaciones, fue premiado en el Concurso conectarSE de Telefónica Perú,[1]​ cuyo objetivo es identificar iniciativas en zonas rurales que, en base al uso de las telecomunicaciones, hayan tenido un impacto positivo en su desarrollo social y económico.
3Ciencia_y_Tecnología
En filosofía de la ciencia, el uniformismo, también conocido como la doctrina de la Uniformidad, es la suposición de que las mismas leyes y procesos naturales que operan en las observaciones científicas actuales siempre han operado en el universo en el pasado y se aplican en todo el universo.[1]​[2]​ Se refiere a la invariancia en los principios metafísicos que sustentan la ciencia, como la constancia de causa y efecto a lo largo del espacio-tiempo,[3]​ pero también se ha utilizado para describir la invariancia espaciotemporal de las leyes físicas.[4]​ Aunque un postulado no comprobable que no puede verificarse utilizando el método científico, el uniformismo ha sido un primer principio clave de prácticamente todos los campos de la ciencia.[5]​ En geología, el uniformismo ha incluido el concepto gradualista de que «el presente es la clave del pasado» y que los eventos geológicos se producen al mismo ritmo que siempre lo han hecho, aunque muchos geólogos modernos ya no sostienen un gradualismo estricto.[6]​ Acuñado por William Whewell, fue propuesto originalmente en contraste con el catastrofismo[7]​ por los naturalistas británicos a finales del siglo XVIII, comenzando con el trabajo del geólogo James Hutton en sus numerosos libros, entre ellos Theory of the Earth [Teoría de la Tierra].[8]​ El trabajo de Hutton fue refinado más tarde por el científico John Playfair y popularizado por el geólogo Charles Lyell, Principles of Geology en 1830.[9]​ Hoy en día, se considera que la historia de la Tierra fue un proceso lento y gradual, puntuado por ocasionales eventos naturales catastróficos.
3Ciencia_y_Tecnología
La filosofía de la ciencia es la rama de la filosofía que investiga el conocimiento científico y la práctica científica. Se ocupa de saber, entre otras cosas, cómo se desarrollan, evalúan y cambian las teorías científicas, y de saber si la ciencia es capaz de revelar la verdad de las «entidades ocultas» (o sea, no observables) y los procesos de la naturaleza. Son filosóficas las diversas proposiciones básicas que permiten construir la ciencia. Por ejemplo: Existe de manera independiente de la mente humana (tesis ontológica de realismo) La naturaleza es regular, al menos en alguna medida (tesis ontológica de legalidad) El ser humano es capaz de comprender la naturaleza (tesis gnoseológica de inteligibilidad) Tomar conciencia de su propia forma de pensar sobre sí mismaSi bien estos supuestos metafísicos no son cuestionados por el realismo científico, muchos han planteado serias sospechas respecto del segundo de ellos[1]​ y numerosos filósofos han puesto en tela de juicio alguno de ellos o los tres.[2]​ De hecho, las principales sospechas con respecto a la validez de estos supuestos metafísicos son parte de la base para distinguir las diferentes corrientes epistemológicas históricas y actuales. De tal modo, aunque en términos generales el empirismo lógico defiende el segundo principio, opone reparos al tercero y asume una posición fenomenista, es decir, admite que el hombre puede comprender la naturaleza siempre que por naturaleza se entienda "los fenómenos" (el producto de la experiencia humana) y no la propia realidad. En pocas palabras, lo que intenta la filosofía de la ciencia es explicar problemas tales como: Naturaleza y la obtención de las ideas científicas (conceptos, hipótesis, modelos, teorías, paradigma, etc.) Relación de cada una de ellas con la realidad Cómo la ciencia describe, explica, predice y contribuye al control de la naturaleza (esto último en conjunto con la filosofía de la tecnología) Formulación y uso del método científico Tipos de razonamiento utilizados para llegar a conclusiones Implicaciones de los diferentes métodos y modelos de cienciaLa filosofía de la ciencia comparte algunos problemas con la gnoseología —la teoría del conocimiento— que se ocupa de los límites y condiciones de posibilidad de todo conocimiento. Pero, a diferencia de esta, la filosofía de la ciencia restringe su campo de investigación a los problemas que plantea el conocimiento científico; el cual, tradicionalmente, se distingue de otros tipos de conocimiento, como el ético o estético, o las tradiciones culturales. Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y algunos como Galileo Galilei, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos y han preferido seguir haciendo ciencia en vez de dedicar más tiempo a considerar cómo se hace la ciencia. Dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan entre muchos otros Platón, Aristóteles, Epicuro, Arquímedes, Boecio, Alcuino, Averroes, Nicolás de Oresme, Santo Tomas de Aquino, Jean Buridan, Leonardo da Vinci, Raimundo Lulio, Francis Bacon, René Descartes, John Locke, David Hume, Emmanuel Kant y John Stuart Mill. La filosofía de la ciencia no se denominó así hasta la formación del Círculo de Viena, a principios del siglo XX. En la misma época, la ciencia vivió una gran transformación a raíz de la teoría de la relatividad y de la mecánica cuántica. Entre los filósofos de la ciencia más conocidos del siglo XX figuran Karl R. Popper y Thomas Kuhn, Mario Bunge, Paul Feyerabend, Imre Lakatos, Ilya Prigogine, etc.
3Ciencia_y_Tecnología
La célula de Edison-Lalande era un tipo de pila primaria alcalina desarrollada por Thomas Edison de un diseño anterior por Felix Lalande y Georges Chaperon. Se trataba de placas de óxido de cobre y zinc en una solución de hidróxido de potasio. El voltaje de la célula fue bajo (aproximadamente 0,75 voltios), pero la resistencia interna también fue baja, por lo que estas células eran capaces de suministrar grandes corrientes.
3Ciencia_y_Tecnología
La Internet Research Task Force (IRTF), en castellano Fuerza de Tareas de Investigaciones de Internet,[1]​ es un grupo hermano del IETF. Su principal misión es “promover la investigación de la importancia de la evolución de futuro de Internet, a través de grupos, a largo y corto plazo y crear investigación que trabaje sobre los asuntos relacionados con los protocolos, los usos, la arquitectura y la tecnología de Internet.” Se compone de los grupos de investigación que estudian ediciones a largo plazo referentes a Internet y a las tecnologías relacionadas. La lista de grupos actuales se puede encontrar en el sitio del IRTF. El IRTF es manejado por el Internet Research Steering Group (IRSG), que corresponde a la organización similar llamada Internet Engineering Steering Group (IESG), en el lado del IETF. El director de IRTF es designado por el Internet Architecture Board (IAB) por un término de dos años.
3Ciencia_y_Tecnología
Anticiencia es una actitud crítica contra la ciencia y el método científico.[1]​ Los anticientíficos, por lo general, objetan al reduccionismo en el que se basa la ciencia y consideran que esta ni es objetiva ni es universal. La anticiencia critica la percepción de poder y la influencia de la ciencia, y se opone a lo que perciben como una arrogante o cerrada actitud mental entre los científicos. La anticiencia se ha utilizado para referirse tanto a la Nueva Era y los movimientos posmodernos asociados con la izquierda política, y los socialmente conservadores movimientos fundamentalistas relacionados con la derecha política.
3Ciencia_y_Tecnología
La Agencia Australiana para la Seguridad Nuclear y Protección contra la Radiación (en inglés: Australian Radiation Protection and Nuclear Safety Agency, ARPANSA) es una institución australiana que monitorea e identifica riesgos de radiación solar y nuclear para la población de Australia. Es el principal cuerpo gubernamental que tiene que ver con la radiación no ionizante e ionizante[1]​ y que publica material respecto a la protección contra la radiación.[2]​ Publica diariamente los niveles de radiación ultravioleta solar (RUV) para muchos lugares en Australia.[3]​ También fija los estándares de Factor de Protección Ultravioleta (en inglés: Ultraviolet Protection Factor) para la ropa protectora.[4]​
3Ciencia_y_Tecnología
El Cosmic Assembly Near-infrared Deep Extragalactic Legacy Survey (CANDELS, literalmente "Estudio del Legado Extragaláctico Profundo del Infrarrojo Cercano de la Asamblea Cósmica") es el proyecto más grande en la historia del Telescopio Espacial Hubble, con 902 órbitas asignadas (aproximadamente cuatro meses consecutivos) de tiempo de observación. Se llevó a cabo entre 2010 y 2013 con dos cámaras a bordo del Hubble, WFC3 y ACS, y tiene como objetivo explorar la evolución galáctica en el universo temprano y las primeras semillas de la estructura cósmica menos de mil millones de años después del Big Bang.[2]​
3Ciencia_y_Tecnología
Los estudios de software son un campo de investigación interdisciplinario emergente, que estudia los sistemas de software y sus efectos sociales y culturales.
3Ciencia_y_Tecnología
Las técnicas para hacer fuego son numerosas, siendo las más antiguas las que utilizan el calentamiento de la madera por fricción o la producción de chispas mediante la percusión de dos materiales adecuados, como una pieza de hierro (eslabón) contra una piedra específica (como pedernal) o una piedra ferrosa (es decir, que contenga hierro, como la pirita), contra otra de sílex, sobre un material fácilmente inflamable como la yesca o el hongo yesquero, habiéndose encontrado evidencias de sílex en el Pleistoceno.[1]​
3Ciencia_y_Tecnología
Es el proceso de escritura de información de datos binarios mediante la magnetización del elemento usado para tal fin (p.e. Disco duro) A diferencia de las señales analógicas, las digitales no presentan una variación continua, sino que contienen cambios leves, en forma escalonada.
3Ciencia_y_Tecnología
El rol de director de tecnología —o también CTO (del inglés chief technical officer o chief technology officer)— es una posición ejecutiva dentro de una organización en el que la persona que ostenta el título se concentra en asuntos tecnológicos y científicos. A menudo, esa persona es líder de un grupo técnico en una compañía, particularmente construyendo productos o creando servicios que dan cuerpo a tecnologías específicas de la industria. En algunos casos además maneja el trabajo de investigación y desarrollo en las organizaciones. No existe una definición compartida común de la posición del director de tecnología o las responsabilidades de dicha persona. En las compañías jóvenes típicamente existe un conjunto de tareas técnicas para el puesto, mientras que en un conglomerado internacional puede requerirse que se haga cargo del intercambio con representantes de gobiernos extranjeros u organizaciones industriales. Se cree que la posición emergió en la década de 1980 a partir del director de investigación y desarrollo, y que tuvo un uso significativo en la burbuja puntocom durante la época de los 1990. Esta época también dio a luz otra definición más para la posición. En algunas compañías el puesto de director de tecnología es simplemente el de director de sistemas de información (DSI). En otras, el DSI informa al CTO. También se conocen casos de directores de tecnología que trabajan en departamentos de Tecnología de la Información e informan al DSI. En este caso, el director de tecnología a menudo maneja los detalles más técnicos de los productos de tecnologías de la información y su implementación. A pesar de la diversidad de su rol, este ejecutivo del departamento tecnológico se va convirtiendo de forma incremental en el sénior tecnológico de la organización, responsable de prever tendencias tecnológicas actuales, y más importante aún, de desarrollar la visión tecnológica para los negocios. Cuando se le preguntó qué es un director de tecnología a Nathan Myhrvold, el anterior director de tecnología de Microsoft y cabeza de su masiva organización de desarrollo, replicó:
3Ciencia_y_Tecnología
Un informe técnico (también informe científico) es un documento que describe el proceso, progreso o resultados de una investigación científica o técnica o el estado de un problema de investigación científica o técnica.[1]​ También puede incluir recomendaciones y conclusiones de la investigación. A diferencia de otras publicaciones científicas, como las revistas científicas y las actas de algunas conferencias académicas, los informes técnicos rara vez se someten a una revisión exhaustiva por pares independientes antes de su publicación. Pueden considerarse literatura gris. Cuando hay un proceso de revisión, a menudo se limita a dentro de la organización de origen. Del mismo modo, no existen procedimientos formales de publicación para dichos informes, excepto cuando se establezcan localmente.
3Ciencia_y_Tecnología
TRIZ es un acrónimo ruso para Teoría para Resolver Problemas de Inventiva ("Tieoriya Riesheniya Izobrietatielskij Zadach" o Теория решения изобретательских задач), la teoría de resolución de problemas y de invención, desarrollada por el inventor y escritor de ciencia ficción Genrich Altshuller y sus colegas desde 1946. Siguiendo la visión de Altshuller, la teoría se desarrolla sobre una amplia investigación que cubre cientos de miles de boletines soviéticos de patentes de muchos campos técnicos diferentes para definir patrones generales en el proceso de invención. Una parte importante de la teoría se ha dedicado a revelar patrones de evolución y uno de los objetivos que se ha perseguido por los principales practicantes de TRIZ ha sido el desarrollo de un enfoque algorítmico para la invención de nuevos sistemas técnicos, y el perfeccionamiento de los ya existentes. La teoría incluye una metodología práctica, herramientas, una base de conocimientos y una tecnología basada en modelos abstractos para generar nuevas ideas y soluciones para la resolución de problemas. Hay tres hallazgos principales de esta investigación: Los problemas y las soluciones se repiten en todas las industrias y las ciencias. Los patrones de evolución tecnológica también se repiten en todas las industrias y las ciencias. Las innovaciones se basan en el uso de conocimientos científicos fuera del ámbito en que se han desarrollado.En la aplicación de TRIZ se aplican todos estos hallazgos para crear y mejorar productos, servicios y sistemas.
3Ciencia_y_Tecnología
Nunca fuimos modernos. Ensayo de antropología simétrica (Nous n'avons jamais été modernes) es un libro de Bruno Latour, publicado por primera vez en Francia en 1991. Gira en torno a la división entre naturaleza y cultura. Es uno de los libros más famosos del autor y ha sido traducido a dieciséis idiomas.
3Ciencia_y_Tecnología
Internet Engineering Task Force (IETF en español: Grupo de Trabajo de Ingeniería de Internet)[1]​ es una organización internacional abierta de normalización, que tiene como objetivos el contribuir a la ingeniería de Internet, actuando en diversas áreas, como transporte, enrutamiento y seguridad. Se creó en los Estados Unidos en 1986. Es mundialmente conocido porque se trata de la entidad que regula las propuestas y los estándares de Internet, conocidos como RFC. Es una institución sin fines de lucro y abierta a la participación de cualquier persona, cuyo objetivo es velar para que la arquitectura de Internet y los protocolos que la conforman funcionen correctamente. Se la considera como la organización con más autoridad para establecer modificaciones de los parámetros técnicos bajo los que funciona la red. El IETF se compone de técnicos y profesionales en el área de redes, tales como investigadores, integradores, diseñadores de red, administradores, vendedores, entre otros. Dado que la organización abarca varias áreas, se utiliza una metodología de división en grupos de trabajo, cada uno de los cuales trabaja sobre un tema concreto con el objetivo de concentrar los esfuerzos.
3Ciencia_y_Tecnología
Nariman Point es el distrito financiero de Bombay, y el más importante de la India.[2]​ Se nombró en honor a Khursheed Framji Nariman, un visionario Parsi. La zona se sitúa en tierras ganadas al mar. En 1995 tenía el espacio de oficinas con el alquiler más caro del mundo, $1880/m². Nariman Point estableció un nuevo récord cuando se vendió un piso por $8,62 millones (USD) el 26 de noviembre de 2007 [1], a unos increíbles $26780 (1 053 200) por metro cuadrado. Según el informe de Cushman & Wakefield "Office Space Across the World 2012", Nariman Point es el 15º distrito financiero más caro del mundo.[3]​ Se sitúa en el sur de Marine Drive. Contiene las sedes de algunas de las empresas más importantes de India.
3Ciencia_y_Tecnología
Irma Pennacchiotti Monti (Santiago de Chile, 14 de marzo de 1921) es química farmacéutica, magíster en Tecnología de Alimentos y Profesora Emérita[1]​ de la Universidad de Chile. Egresó en la primera generación desde que se creara la Facultad de Ciencias Químicas y Farmacéuticas en 1945 y es considerada pionera en el campo de la bromatología, la nutrición y la ingeniería en alimentos, pues contribuyó a crear las primeras tablas de composición química de los alimentos chilenos y las mallas curriculares que crearon la carrera profesional de Ingeniería en Alimentos.[2]​ Fue, además, directora del Museo de Química y Farmacia de la Universidad de Chile entre 1996 y 2017.[3]​[4]​
3Ciencia_y_Tecnología
Se denomina pliego de condiciones a un documento contractual, de carácter exhaustivo y obligatorio en el cual se establecen las condiciones o cláusulas que se aceptan en un contrato de obras o servicios, una concesión administrativa, una subasta, etc.[1]​
3Ciencia_y_Tecnología
Thermo Fisher Scientific es una empresa de desarrollo de productos multinacional estadounidense de biotecnología creada en 2006 por la fusión de Thermo Electron y Fisher Scientific.[1]​[2]​ En abril de 2013, tras una licitación pública con Hoffmann-La Roche,[3]​ Thermo Fisher adquirió Life Technologies Corp por $ 13.6 mil millones en un acuerdo que ubicaría a la empresa como una de las empresas líderes en los mercados de equipos de pruebas genéticas y de laboratorio de precisión.[4]​[5]​[6]​
3Ciencia_y_Tecnología
Se conoce como era espacial al período que comprende las actividades relacionadas con la carrera espacial, la exploración espacial, la tecnología espacial y los desarrollos culturales influidos por estos acontecimientos. La carrera espacial fue una pugna entre Estados Unidos y la Unión Soviética por la conquista del espacio que duró aproximadamente de 1955 a 1975. Supuso el esfuerzo paralelo de ambos países de explorar el espacio exterior con satélites artificiales y de enviar humanos al espacio y a la superficie lunar.
3Ciencia_y_Tecnología
Tangier Tech City, oficialmente Cité Mohammed VI Tanger Tech (en árabe, مدينة محمد السادس طنجة تيك; en chino, 穆罕默德六世丹吉尔科技城), es un ambicioso proyecto para crear una ciudad inteligente en las inmediaciones de Tánger, en Marruecos. Situada en el estrecho de Gibraltar, Tánger es la puerta del Mediterráneo y por lo tanto un concurrido puerto comercial. El proyecto, promovido por el rey Mohammed VI de Marruecos, forma parte de la iniciativa Belt and Road lanzada por el Gobierno chino para aumentar su influencia geopolítica en el mundo, y ha sido financiado por China Communications Construction Co (CCCC), empresa estatal china, y gestionado por su subsidiaria China Road and Bridge Corp.[1]​ Tangier Tech City ocupará 2167 ha de tierra cultivada en Ain Dalia (comuna de Laauama),[2]​ 10 km al sur de Tánger. Con el apodo mediático de «el Shanghai de Marruecos», Tangier Tech es considerado como uno de los mayores proyectos económicos y tecnológicos, si no el mayor, que ha conocido el reino alauita.[3]​
3Ciencia_y_Tecnología
Conforme ha sido desarrollada la explicación científica de la diversidad de la vida (rechazo implícito de la creación de los humanos descrita en la Biblia), ha llevado a un encendido debate entre creación y evolución en la educación pública, sobre todo en Estados Unidos. Una de los primeros efectos de la teoría de la evolución es que algunas personas se niegan a una explicación sobre la evaluación
3Ciencia_y_Tecnología
Una microgrid,[1]​ también llamada microrred, es un grupo descentralizado de fuentes de electricidad y cargas que normalmente funciona conectado y sincrónico con la red síncrona tradicional de área amplia (macrorred), pero que puede desconectarse de la red interconectada y funcionar de forma autónoma en "modo isla",[2]​ según lo dicten las condiciones técnicas o económicas. De esta manera, las microrredes mejoran la seguridad del suministro dentro de la celda de la microrred y pueden suministrar energía de emergencia, cambiando entre los modos de isla y conectado.[3]​
3Ciencia_y_Tecnología
Una teoría (del griego theōría[1]​) es un sistema lógico-deductivo (o inductivo)[2]​ constituido por un conjunto de hipótesis, un campo de aplicación (de lo que trata la teoría, el conjunto de cosas que explica) y algunas reglas que permitan extraer consecuencias de las hipótesis. En general, las teorías sirven para confeccionar modelos científicos que interpreten un conjunto amplio de observaciones, en función de los axiomas o principios, supuestos, postulados y consecuencias lógicas congruentes con la teoría.
3Ciencia_y_Tecnología
El antipositivismo (también conocido como no positivismo, negativismo, sociología interpretativa, interpretativismo o interpretivismo) es el punto de vista en las ciencias sociales según el cual los académicos deben necesariamente rechazar el empirismo y el método científico en el desarrollo de teorías sociales e investigación. El antipositivismo es una reacción al positivismo. Se critica la incapacidad que posee el método de las ciencias físico-naturales para conocer los objetos de estudio de las ciencias sociales (la sociedad, el hombre, la cultura) ya que poseen propiedades como la intencionalidad, la autorreflexividad y la creación de significado, que son dejados de lado por la epistemología positivista. También se critica la búsqueda de leyes generales y universales, pues deja de lado los elementos que no pueden ser generalizados; defiende el conocimiento de conocimientos más precisos, pero menos generalizables; y plantea la necesidad de conocer las causas internas de los fenómenos, en vez de la explicación externa de estos, en busca de la comprensión en lugar de explicación. El antipositivismo se relaciona con diversos debates históricos en la filosofía y la sociología de la ciencia. En la práctica moderna, sin embargo, el antipositivismo se podría equiparar con métodos de investigación cualitativos, mientras que la investigación positivista es más cuantitativa. Los positivistas suelen utilizar experimentos y encuestas estadísticas como métodos de investigación, mientras que antipositivistas utilizan métodos de investigación que se basan más en las entrevistas no estructuradas o la observación participante. En la actualidad, se combinan a menudo métodos positivistas y no positivistas.[1]​[2]​
3Ciencia_y_Tecnología
La convergencia tecnológica es la tendencia de diferentes sistemas tecnológicos en la evolución hacia la realización de tareas similares. El concepto de convergencia tecnológica se perro principalmente en el ámbito de las telecomunicaciones para denominar las redes, sistemas y servicios que se generan a partir de tales redes, sistemas y servicios o combinándolos. Además, puede hacer referencia a tecnologías previamente separadas como la voz datos (y aplicaciones de productividad) que ahora comparten recursos e interactúan entre sí sinérgicamente, creando nuevas posibilidades.[1]​
3Ciencia_y_Tecnología
Un nómada digital es un profesional que usa las nuevas tecnologías para trabajar, y que lleva a cabo un estilo de vida nómada. Por lo general, los nómadas digitales trabajan de forma remota (desde casa, cafeterías o bibliotecas públicas) en lugar de hacerlo en un lugar de trabajo fijo.
3Ciencia_y_Tecnología
Sandra G. Harding (1935) es una filósofa y feminista estadounidense. Obtuvo su doctorado por la Universidad de Nueva York en 1973. Sus trabajos se enmarcan dentro de la Filosofía de la Ciencia, la epistemología feminista, la Teoría postcolonial y la metodología en investigación. Actualmente, Harding es profesora en la Universidad de California en Los Ángeles. Harding fue la primera directora del 'Centro de estudio de la mujer' de la Universidad de California en Los Ángeles (1996-2000), y codirectora de la prestigiosa revista feminista publicada por University of Chicago Press, Signs: Journal of Women in Culture and Society (2000-2005). También trabajó como profesora en la Universidad de Delaware, y ha sido profesora invitada en la Universidad de Ámsterdam, la Universidad de Costa Rica y la Escuela politécnica federal de Zúrich, Suiza. Harding ha contribuido al desarrollo de la Teoría del punto de vista, siendo una de las fundadoras del campo de la Epistemología Feminista, así como a los Estudios de ciencia, tecnología y género. Sus contribuciones en estas áreas, así como su aproximación y crítica al concepto de objetividad en la ciencia, han sido de gran influencia para las Ciencias Sociales y para la Filosofía, y ha generado discusiones en el campo de las Ciencias Naturales. Sandra Harding ha sido consultada por numerosos organismos acerca de temas relacionados con el feminismo y la ciencia postcolonial, como son por ejemplo la Organización Panamericana de la Salud, el Fondo de Desarrollo de las Naciones Unidas para la Mujer y la Comisión de Ciencia y Tecnología para el Desarrollo de la Organización de las Naciones Unidas (ONU). Fue invitada como coautora en un capítulo del World Science Report[1]​ de la Unesco de 1996. Harding participó del debate acerca de la neutralidad de la ciencia en lo que se ha venido a llamar las Guerras de la ciencia.
3Ciencia_y_Tecnología
Los ambientes inteligentes son espacios que usan la tecnología de sistemas embebidos así como otras tecnologías de la información y la comunicación, para crear ambientes interactivos que acerquen la computación al mundo físico y a los problemas cotidianos. Según Alan Steventon y Steve Wright, los "ambientes inteligentes son sistemas en los que la computación es usada para introducir mejoras imperceptibles o superficiales en las actividades comunes" (estos sistemas resultan ser casi transparentes y poco perceptibles para la mayoría de los usuarios). Una de las fuerzas motoras del interés emergente en los ambientes altamente interactivos, no solamente es lograr que las computadoras y los sistemas sean verdaderamente amigables con los usuarios, sino lograr que esencialmente sean invisibles o casi inexistentes para él.[1]​ Los ambientes inteligentes describen y manejan entornos físicos en los cuales las tecnologías de la información y la comunicación así como los sistemas de sensores, pasan mayoritariamente desapercibidos para los usuarios, puesto que se hallan discretamente integrados a objetos físicos, a infraestructuras, y al entorno cotidiano en el cual vivimos, viajamos, y trabajamos. El objetivo con estos sistemas, es el de permitir que ordenadores y sensores participen en actividades y resultados en los que nunca antes habían estado involucrados, posibilitando a la gente (a los usuarios) interactuar con los distintos dispositivos vía gestos, voz, movimientos, o simple información de contexto. Las conferencias anuales sobre 'Entornos Inteligentes' (IE06; IE07; etc) permiten a los especialistas intercambiar ideas entre sí, y ponerse al día en esta materia en cuanto a tendencias, usos, y avances tecnológicos.[2]​
3Ciencia_y_Tecnología
La ingeniería biónica es una rama de la ingeniería que estudia y desarrolla aplicaciones tecnológicas que tengan la finalidad de simular el comportamiento, forma o funcionamiento de los organismos vivos con el objetivo de crear un sistema que sea de utilidad a la sociedad, ya sea para uso en la industria, en el sector salud, con fines militares, etc. También se llama así a la rama de la ingeniería que intenta hacer trabajar juntos sistemas biológicos y electrónicos, por ejemplo para crear prótesis activadas por los nervios o brazos robóticos controlados por una señal biológica como el implante coclear o la retina artificial. Es una carrera multidisciplinaria en la que se concentran conocimientos de electrónica, mecánica, física, biología, robótica y con desarrollo próximo y potencia la psicología, cuya finalidad es crear sistemas que igualen o mejoren las capacidades naturales de los seres vivos o inventar nuevos dispositivos para aplicaciones existentes e incluso nuevas aplicaciones, también gracias al estudio de la biónica se pueden concebir un sinfín de productos con mejores diseños y mejores características morfológicas-funcionales.
3Ciencia_y_Tecnología
ASTech Clúster es un clúster francés especializado en aeronáutica, aeroespacial y sistema embebido creado en 2007.[1]​ Está centrado geográficamente en la región de Isla de Francia. Sus miembros se reúnen cada dos años en octubre en la convención de negocios "AeroSpaceDays Paris" para encontrarse con todos los actores mundiales de la industria aeronáutica y espacial en reuniones de trabajo preprogramadas.[2]​ ASTech tiene el estatus de Asociación según la ley de 1901. Su sede se encuentra en el aeropuerto de París-Le Bourget.[3]​
3Ciencia_y_Tecnología
El principio antrópico (del griego ἄνθρωπος ánthrōpos, «humano») es un principio que se suele enunciar como sigue: En cosmología el principio antrópico establece que cualquier teoría válida sobre el universo tiene que ser consistente con la existencia del ser humano. En otras palabras: «Si en el Universo se deben verificar ciertas condiciones para nuestra existencia, dichas condiciones se verifican ya que nosotros existimos». Los diferentes intentos de aplicar este principio al desarrollo de explicaciones científicas sobre la cosmología del Universo han conducido a una elevada controversia. Stephen W. Hawking, en su libro Historia del tiempo, habla del principio antrópico aplicado al tema del origen y formación del universo. Hawking dice: «vemos el universo en la forma que es porque nosotros existimos». Expone que hay dos versiones del principio antrópico: la débil y la fuerte. Sobre el tema de la formación del universo, concluye diciendo que si no fuese como es (o que si no hubiese evolucionado como evolucionó) nosotros no existiríamos y que, por lo tanto, preguntarse cómo es que existimos (o por qué no, "no existimos") no tiene sentido. El Principio antrópico cosmológico también es el título de un controvertido libro de John D. Barrow y Frank J. Tipler publicado en el año 1986 en el que se expone la versión más fuerte del principio antrópico, la cual implicaría la aparición forzosa de vida inteligente como consecuencia cosmológica de la evolución del Universo. El razonamiento de Barrow y Tipler es, para muchos científicos, sin embargo, un razonamiento puramente tautológico. En efecto, el principio antrópico en su forma más básica se puede considerar casi un lugar común, ya que indica que cualquier teoría sobre la naturaleza del universo debe permitir nuestra existencia como seres humanos y entes biológicos basados en el carbono en este momento y lugar concretos del universo.
3Ciencia_y_Tecnología
Se llama circulador a un dispositivo óptico o de microondas con tres puertas, numeradas 1, 2 y 3. Toda la energía que incide por la puerta 1 se transmite a la puerta 2; la incidente por la puerta 2 pasa a la 3 y la incidente por la puerta 3, sale por la 1. La transmisión en sentido inverso no se produce. Directividad: Es la relación entre la potencia que se tiene en la puerta 2 (Acoplada) y la de la puerta 3 (Aislada), cuando se alimenta por la puerta 1. Se expresa en decibelios (dB). Su valor típico es 20 dB. Perdidas o pérdidas de inserción: Es la relación entre la potencia incidente y la potencia de salida. Se expresa en dB.El circulador fue inventado por Lester Hogan, en los Laboratorios Bell al final de la Segunda Guerra Mundial. Estudiando las ecuaciones de Maxwell, un matemático de los laboratorios Bell había llegado a la conclusión de que si las ecuaciones eran correctas y completas, tendrían que existir dispositivos no recíprocos. El personal de Bell se lanzó a la búsqueda de dichos dispositivos, pero no fue hasta la llegada de Hogan que produjeron el primer circuito real.
3Ciencia_y_Tecnología
La Federación Internacional de Lechería, FIL (por sus siglas) o IDF (por sus siglas en inglés) es una federación compuesta por comités nacionales, que representan de la manera más amplia posible a las actividades lecheras de su país.
3Ciencia_y_Tecnología
Miles de millones[1]​ (título original en inglés: Billions and Billions: Thoughts on Life and Death at the Brink of the Millennium)[2]​ es el último libro escrito por el astrónomo estadounidense Carl Sagan antes de su muerte en 1996. Los diecinueve ensayos o capítulos que componen la obra brindan la visión de Sagan sobre temas que considera fundamentales «en la antesala del milenio», a través de su estilo habitual para explicar en términos asequibles las cuestiones científicas más complejas. Se tratan temáticas como el calentamiento global, la explosión demográfica, la vida extraterrestre, la moralidad y el debate sobre el aborto. El último capítulo, «En el valle de las sombras», es un relato de la lucha contra la mielodisplasia que finalmente puso fin a su vida en diciembre de 1996. La esposa de Sagan, Ann Druyan, escribió el epílogo del libro luego de la muerte del autor. La obra es, al mismo tiempo, el «testamento» ideológico de Sagan y una reedición de textos ya publicados, incluyendo: «El ajedrez persa»[3]​ en la revista Parade el 5 de febrero de 1989. «El mundo que llegó por correo»[4]​ publicado en Parade en 1986. «La cuestión del aborto: una búsqueda de respuestas», publicado en la misma revista el 22 de abril de 1990, sirvió como base a uno de los artículos de la segunda parte del libro. «El enemigo común», escrito en 1988 para la publicación simultánea en Estados Unidos y la entonces Unión Soviética.Una de las críticas que frecuentemente ha recibido el libro desde el punto de vista literario ha sido este conjunto ecléctico de ideas originado en el carácter recopilatorio de textos y conocimientos. Sin embargo, el hilo unificador es el mensaje póstumo del autor sobre cuestiones fundamentales del universo y del misterio de la vida; una invitación a observar desde un punto de vista científico la realidad, una constante en la carrera de Sagan.
3Ciencia_y_Tecnología
La energía radiante es la energía que poseen las ondas electromagnéticas[1]​ como la luz visible, las ondas radiantes, los rayos ultravioletas (UV), los rayos infrarrojos (IR), etc. La característica principal de esta energía es que se propaga en el vacío sin necesidad de soporte material alguno. Se transmite por unidades llamadas fotones. pelón según llamadas hací hace que se an propagandas en el espacio vuelve a mil kilómetros por hora.pn
3Ciencia_y_Tecnología
Un naturalista es un científico o un entusiasta ilustrado[1]​[2]​[3]​ que practica las ciencias naturales, en particular la botánica, la zoología, la mineralogía e incluso la astronomía. El adjetivo naturalista califica a una persona, un grupo (asociación, sociedad científica) o una actividad (senderismo, exploración, dibujo). Dependiendo de cómo y donde trabaja, el naturalista puede ser llamado «naturalista de campo» (que explora, hace prospección, minería, inventariado, muestreo o captura de imágenes), «de laboratorio» (que estudia, compara, cuantifica, experimenta, analiza, demuestra, describe), «de recolección» (que acondiciona, conserva, clasifica, tipifica), «de preservación» (que monitorea, administra, protege ambientes naturales) y «de medición» (que valora, explica, exhibe investiga, colecta, escribe libros, hace películas u otras herramientas de comunicación). La palabra «naturalista» también designa en ocasiones al taxidermista que practica la naturalización de animales, por ejemplo, para exhibirlos en un museo de historia natural.
3Ciencia_y_Tecnología
La criónica (del griego κρύος [kryos] que significa "frío", "helado", "gélido") es la preservación de seres vivos a bajas temperaturas (criopreservación), cuando la medicina actual ya no puede hacer nada por ellos. Así, estas personas se conservarán hasta que haya nuevas formas de tratarlos médicamente y revivirlos. Comúnmente se confunde con varios términos como criobiología, criogenia y criopreservación. La criobiología es una rama de la biología que estudia los efectos que producen las bajas temperaturas en los organismos vivos, por lo que las investigaciones realizadas en este campo representan la base biológica de la criónica. La base física se establece por la criogenia, el conjunto de técnicas empleadas para la obtención de temperaturas iguales o inferiores a la ebullición del nitrógeno; es decir, la relación se limita a la dada por la tecnología usada.[1]​ Los dos campos anteriores modelan las premisas indispensables de la criónica: la criopreservación, que se refiere al proceso por el cual los tejidos u organismos son congelados; y el desarrollo tecnológico en reparación y descongelamiento.[2]​ La criónica es vista con escepticismo dentro de la comunidad científica y no forma parte oficial de la medicina. No se sabe si será posible revivir a un cadáver humano criopreservado. La criónica depende de la creencia de que un cuerpo congelado no ha sufrido la muerte teórica de la información (es decir, destrucción del tejido cerebral humano (o cualquier estructura capaz de constituir a la persona) y de la información contenida en él de forma tan extensa, que la recuperación de la personalidad original se vuelve teóricamente imposible por cualquier medio físico).[3]​ Tales creencias son consideradas especulativas por parte de la ciencia.[4]​ Actualmente, la criopreservación de personas o grandes animales no es reversible; no sucede así con organismos inferiores, llegándose inclusive a demostrar la persistencia de la memoria en el Caenorhabditis elegans como modelo experimental.[5]​ Otros animales como las ranas pueden sobrevivir durante algunos meses en un estado parcialmente congelado con ciclos sucesivos de congelación-descongelación. [6]​ Por ejemplo, Lithobates sylvaticus, la rana de la madera puede sobrevivir en condiciones naturales durante 7 meses a temperaturas inferiores a –18°C.[7]​ Hyla japonica, la rana arbórea japonesa (antes llamada rana de la madera), es considerada la especia anfibia más resistente al frío, llegando a soportar temperaturas máximas de –30°C a -35°C durante cuatro meses. [8]​ A pesar de los avances que se han desarrollado, la criónica es un tema tratado con escepticismo por determinadas partes de la comunidad científica,[9]​ tachándola de pseudociencia. Las críticas sostienen que la práctica actual tiene limitaciones debido a la tecnología; sin embargo, los crionicistas responden que la demostración de la reversibilidad de la preservación no es necesaria para alcanzar el objetivo actual de la criónica, que es la preservación del cerebro, suficiente para prevenir la muerte teórica de información hasta que sea posible repararla en el futuro. Entre los crionicistas se encuentran científicos de diversas disciplinas como la biología, la ética, la teología, la física, la nanotecnología, la computación y la neurociencia.[10]​ El apoyo se basa en proyecciones de tecnología futura, especialmente de nanotecnología molecular y de nanomedicina; se espera que en algunas décadas o siglos sean posibles la reparación y regeneración a nivel molecular de los órganos y tejidos dañados.[11]​ De acuerdo a la ley, las prácticas criónicas solo se puede efectuar después de la muerte legal del paciente,[12]​ dictamen que habitualmente suele basarse en el paro cardíaco (solo en contadas ocasiones se basa en mediciones de actividad cerebral). En 2020, un procedimiento a base de desmantelamiento del cerebro en neuronas individualmente excitadas por ordenador está teorizado en un ensayo. [13]​ [14]​
3Ciencia_y_Tecnología