Monografías
Publicar | Monografías por Categorías | Directorio de Sitios | Software Educativo | Juegos Educativos | Cursos On-Line Gratis

 

Ciencia Parte 1 - Monografía



 
DESCARGA ESTA MONOGRAFÍA EN TU PC
Esta monografía en formato html para que puedas guardarla en tu pc e imprimirla.



Vínculo Patrocinado




Aquí te dejamos la descarga gratuita
Nota: para poder abrir archivos html solo necesitas tener instalado internet explorer u otro navegador web.




Historia de la ciencia. Fisica. Química. Electricidad. Método científico. Mecánica. Sistema métrico decimal



1. ¿Qué es la ciencia?



1.1 Aproximación del concepto de ciencia.



Ciencia (en latín scientia, de scire, ‘conocer’), término que en su sentido más amplio se emplea para referirse al conocimiento sistematizado en cualquier campo, pero que suele aplicarse sobre todo a la organización de la experiencia sensorial objetivamente verificable. La búsqueda de conocimiento en ese contexto se conoce como ‘ciencia pura’, para distinguirla de la ‘ciencia aplicada’ -la búsqueda de usos prácticos del conocimiento científico- y de la tecnología, a través de la cual se llevan a cabo las aplicaciones.

1.2 División y caracterización de ciencia



El conocimiento de la naturaleza era en gran medida la observación e interrelación de todas las experiencias, sin establecer divisiones. Los eruditos pitagóricos sólo distinguían cuatro ciencias: aritmética, geometría, música y astronomía. En la época de Aristóteles, sin embargo, ya se reconocían otros campos: mecánica, óptica, física, meteorología, zoología y botánica. La química permaneció fuera de la corriente principal de la ciencia hasta la época de Robert Boyle, en el siglo XVII, y la geología sólo alcanzó la categoría de ciencia en el siglo XVIII.

Para entonces el estudio del calor, el magnetismo y la electricidad se había convertido en una parte de la física. Durante el siglo XIX los científicos reconocieron que las matemáticas puras se distinguían de las otras ciencias por ser una lógica de relaciones cuya estructura no depende de las leyes de la naturaleza. Sin embargo, su aplicación a la elaboración de teorías científicas ha hecho que se las siga clasificando como ciencia.

Las ciencias naturales puras suelen dividirse en ciencias físicas y químicas, y ciencias de la vida y de la Tierra. Las principales ramas del primer grupo son la física, la astronomía y la química, que a su vez se pueden subdividir en campos como la mecánica o la cosmología. Entre las ciencias de la vida se encuentran la botánica y la zoología; algunas subdivisiones de estas ciencias son la fisiología, la anatomía o la microbiología. La geología es una rama de las ciencias de la Tierra.

Sin embargo, todas las clasificaciones de las ciencias puras son arbitrarias. En las formulaciones de leyes científicas generales se reconocen vínculos que relacionan las ciencias entre sí.


El esquema principal sería:



a1604.gif

1.3 Diferencia entre Física y Química



Los campos de que tratan la química y la física están bien delimitados, puesto que la física se ocupa de los fenómenos en los que se modifican temporalmente algunas propiedades de ciertas sustancias sin que dichas sustancias cambien en su esencia, mientras que la química trata de los cambios (o reacciones un cuerpo, de tal modo que pasa a ser otra sustancias distinta, existen no obstante una serie de fenómenos en los que estas dos ciencias se hallan inevitablemente superpuestas y constituyen el campo de la química física, también denominada fisicoquímica.

1.4 Partes de la Física



FISICA CLASICA



Hacia 1880 la física presentaba un panorama de calma: la mayoría de los fenómenos podían explicarse mediante la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas, como la determinación de las propiedades del éter y la explicación de los espectros de emisión y absorción de sólidos y gases.

Sin embargo, estos fenómenos contenían las semillas de una revolución cuyo estallido se vio acelerado por una serie de asombrosos descubrimientos realizados en la última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en 1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899, Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales de la física, unidos a los inquietantes resultados del experimento de Michelson-Morley y aldescubrimiento de los rayos catódicos, formados por chorros de electrones, desafiaban a todas las teorías disponibles.


FÍSICA MODERNA



Dos importantes avances producidos durante el primer tercio del siglo XX -la teoría cuántica y la teoría de la relatividad- explicaron estos hallazgos, llevaron a nuevos descubrimientos y cambiaron el modo de comprender la física.

Relatividad



Para ampliar el ejemplo de velocidad relativa introducido a propósito del experimento de Michelson-Morley se pueden comparar dos situaciones. En una de ellas, una persona A avanza hacia delante con una velocidad v en un tren que se mueve a una velocidad u. La velocidad de A con respeto a un observador B situado en el andén es V = u + v. Si el tren está parado en la estación y A avanza hacia delante con una velocidad v mientras el observador B camina en sentido opuesto con velocidad u, la velocidad relativa de A respecto a B sería exactamente la misma que en el primer caso. En términos más generales, si dos sistemas de referencia se mueven uno respecto del otro a velocidad constante, las observaciones de cualquier fenómeno realizadas por un observador en cualquiera de los sistemas son Físicamente equivalentes. Como ya se indicó, el experimento de Michelson-Morley no logró confirmar esta simple suma de velocidades en el caso de un haz de luz: dos observadores, uno de los cuales estaba en reposo y el otro avanzaba hacia una fuente de luz a velocidad u, midieron el mismo valor de la velocidad de la luz, que suele simbolizarse con la letra c.

Einstein incorporó la invariancia de c a su teoría de la relatividad. La teoría también exigió un cuidadoso replanteamiento de los conceptos de espacio y tiempo, y puso de manifiesto la imperfección de las nociones intuitivas sobre los mismos. De la teoría de Einstein se desprende que un reloj perfectamente sincronizado con otro reloj situado en reposo en relación con él se retrasará o adelantará con respecto al segundo reloj si ambos se mueven uno respecto del otro. Igualmente, dos varillas que tengan igual longitud cuando están en reposo tendrán longitudes distintas cuando una se mueva respecto a la otra. Las diferencias sólo son significativas cuando las velocidades relativas son comparables a c. El espacio y el tiempo están estrechamente ligados en un continuo de cuatro dimensiones: las tres dimensiones espaciales habituales y una cuarta dimensión temporal.

Dos consecuencias importantes de la teoría de la relatividad son la equivalencia entre masa y energía y el límite máximo a la velocidad de los objetos materiales dado por c. La mecánica relativista describe el movimiento de objetos cuyas velocidades son fracciones apreciables de c, mientras que la mecánica newtoniana sigue siendo útil para las velocidades propias de los movimientos de los objetos macroscópicos en la Tierra. En cualquier caso, ningún objeto material puede tener una velocidad igual o mayor a la velocidad de la luz.

La masa m y la energía E están ligadas por la relación E = mc2. Como c es muy grande, el equivalente energético de la masa es gigantesco. La transformación de masa en energía resulta significativa en las reacciones nucleares, como las que tienen lugar en una central nuclear o en una bomba atómica, y en las estrellas, donde la liberación de cantidades ingentes de energía se ve acompañada de una pérdida significativa de masa.

La teoría original de Einstein, formulada en 1905 y conocida como teoría de la relatividad especial o restringida, se limitaba a sistemas de referencia que se mueven a velocidad constante uno respecto del otro. En 1915, Einstein generalizó su hipótesis y formuló la teoría de la relatividad general, aplicable a sistemas que experimentan una aceleración uno con respecto al otro. Esta extensión demostró que la gravitación era una consecuencia de la geometría del espacio-tiempo, y predijo la desviación de la luz al pasar cerca de un cuerpo de gran masa como una estrella, efecto que se observó por primera vez en 1919. La teoría de la relatividad general, aunque no está tan firmemente establecida como la relatividad restringida, tiene una importancia decisiva para la comprensión de la estructura del Universo y su evolución.


Fórmulas usadas en Física


a1605.gif


MECÁNICA CUÁNTICA



La mecánica cuántica es el estudio del comportamiento observable de las partículas, incluyendo la radiación electromagnética con todos sus detalles. Sobre todo, es la única teoría apropiada para describir los efectos que tienen lugar a escala atómica.

La mecánica cuántica se dedica exclusivamente a lo que se puede observar, no intente explicar lo que ocurre entre las medidas tomadas. No así las teorías clásicas, que de hecho en esencia son descripciones completas de lo que ocurre, se mida o no. En la mecánica cuántica el experimentador forma parte de la teoría. Se predicen todos los valores posibles de una medición, pero cuando de hecho se realiza un experimento, no se predice el valor concreto del resultado. Sólo se puede conocer la probabilidad de lo que va a ocurrir. En algunos experimentos ocurre algo que es mucho más probable que las demás posibilidades, por lo tanto en la mayoría de las ocasiones será el resultado, pero de tanto en tanto ocurrirá algo menos probable.

Es imposible predecir lo que va ocurrir; la única manera de descubrirlo es haciendo las medidas adecuadas. Por ejemplo, en un isótopo del elemento americio el 19% de los núcleos se descomponen por la emisión de partículas alfa y el 81% por emisiones alfa seguidas de emisiones de fotones. No es posible predecir la forma de descomposición que tendrá un núcleo de americio en particular, sólo lo que se suele observar.

En algunos experimentos puede acontecer lo mismo, pero de diferentes maneras. Lo que se mide depende de si se sabe cuál de los caminos posibles se ha tomado. Así cualquier conocimiento adicional, que sólo se puede obtener tomando una medida adicional, cambia el resultado del primer experimento.


Teoría cuántica



Esta teoría, esta basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación.

Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud simultáneamente la posición y el momento lineal de una partícula subatómica.

1.5 División clásica de la química y la física



Los principales campos de la física son:



- Acústica. Estudia las propiedades del sonido.
- Física atómica. Estudia la estructura y las propiedades del átomo.
- Criogénica. Estudia el comportamiento de la materia a temperaturas extremadamente bajas.
- Electromagnetismo. Estudia los campos eléctrico y magnético, y las cargas eléctricas que los generan.
- Física de partículas. Se dedica a la investigación de las partículas elementales.
- Dinámica de fluidos. Examina el comportamiento de los líquidos y gases en movimiento.
- Geofísica. Aplicación de la física al estudio de la Tierra. Incluye los campos de la hidrología, la meteorología, la oceanografía, la sismología y la vulcanología.
- Física matemática. Estudia las matemáticas en relación con los fenómenos naturales.
- Física molecular. Estudia las propiedades y estructura de las moléculas.
- Física nuclear. Analiza las propiedades y estructura del núcleo atómico, las reacciones nucleares y su aplicación.
- Óptica. Estudia la propagación y el comportamiento de la luz.
- Física del plasma. Estudia el comportamiento de los gases altamente ionizados (con carga eléctrica).
- Física cuántica. Estudia el comportamiento de sistemas extremadamente pequeños y la cuantización de la energía.
- Física de la materia condensada. Estudia las propiedades físicas de los sólidos y los líquidos.
- Mecánica estadística. Aplica principios estadísticos para predecir y describir el comportamiento de sistemas compuestos de múltiples partículas.
- Mecánica. Estudia el movimiento de los objetos materiales sometidos a la acción de fuerzas.
- Termodinámica. Estudia el calor y la conversión de la energía de una forma a otra.
- Termología: se transmite el calor por transmisión simple. El calor del sol lo recibimos por radiación.

Dentro de la mecánica se puede observar varias partes:



Cinemática



La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La velocidad (la tasa de variación de la posición) se define como la distancia recorrida dividida entre el intervalo de tiempo. La magnitud de la velocidad se denomina celeridad, y puede medirse en unidades como kilómetros por hora, metros por segundo,…

La aceleración se define como la tasa de variación de la velocidad: el cambio de la velocidad dividido entre el tiempo en que se produce. Por tanto, la aceleración tiene magnitud, dirección y sentido, y se mide en unidades del tipo metros por segundo cada segundo. En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el centro de masas. Existen varios tipos especiales de movimiento fáciles de describir.

En primer lugar, aquél en el que la velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no cambiaría en el intervalo de tiempo considerado. Si la velocidad es constante, la velocidad media (o promedio) es igual a la velocidad en cualquier instante determinado. Si el tiempo t se mide con un reloj que se pone en marcha con t = 0, la distancia d recorrida a velocidad constante v será igual al producto de la velocidad por el tiempo: d = vt.

Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la velocidad varía, hay que definir la velocidad instantánea, que es la velocidad en un instante determinado. En el caso de una aceleración a constante, considerando una velocidad inicial nula (v = 0 en t = 0), la velocidad instantánea transcurrido el tiempo t será v = at. La distancia recorrida durante ese tiempo será d = ?at2 Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t2, o “t al cuadrado”, es la forma breve de escibir t × t). Un objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es aproximadamente de 9,8 m/s cada segundo.

Al final del primer segundo, una pelota habría caído 4,9 m y tendría una velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una velocidad de 19,6 m/s. El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad constante pero la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un círculo. La aceleración está dirigida hacia el centro del círculo y se denomina aceleración normal o centrípeta (véase Fuerza centrípeta).

En el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la aceleración centrípeta es a = v2/r. Otro tipo de movimiento sencillo que se observa frecuentemente es el de una pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la gravedad, la pelota experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el suelo. Entretanto, la componente horizontal de la velocidad inicial permanece constante (si se prescinde de la resistencia del aire), lo que hace que la pelota se desplace a velocidad constante en dirección horizontal hasta que alcanza el suelo. Las componentes vertical y horizontal del movimiento son independientes, y se pueden analizar por separado. La trayectoria de la pelota resulta ser una parábola.

Dinámica



Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Puede medirse en función de uno de estos dos efectos: una fuerza puede deformar algo, como un muelle, o acelerar un objeto. El primer efecto puede utilizarse para calibrar la escala de un muelle, que a su vez puede emplearse para medir la magnitud de otras fuerzas: cuanto mayor sea la fuerza F, mayor será el alargamiento del muelle x. En muchos muelles, y dentro de un rango de fuerzas limitado, es proporcional a la fuerza: F = kx donde k es una constante que depende del material y dimensiones del muelle.

Estática


En mecánica, un sistema está en equilibrio cuando la fuerza o total resultante que actúa sobre un cuerpo y el momento resultante son nulos. En este caso, la propiedad macroscópica del cuerpo que no cambia con el tiempo es la velocidad. En particular, si la velocidad inicial es nula, el cuerpo permanecerá en reposo. El equilibrio mecánico puede ser de tres clases: estable, indiferente o inestable.

Si las fuerzas son tales que un cuerpo vuelve a su posición original al ser desplazado, como ocurre con un tentetieso, el cuerpo está en equilibrio estable. Si las fuerzas son tales que el cuerpo permanece en su nueva posición al ser desplazado, como en una esfera situada sobre una superficie plana, el cuerpo se encuentra en equilibrio indiferente. Si las fuerzas hacen que el cuerpo continúe moviéndose hasta una posición distinta cuando se desplaza, como ocurre con una varita en equilibrio sobre su extremo, el cuerpo está en equilibrio inestable.

Aunque la configuración o propiedades macroscópicas de un sistema en equilibrio no cambian con el tiempo, su configuración microscópica no es necesariamente estática. Por ejemplo, consideremos una reacción química reversible.

En uno de los sentidos (reacción directa), las moléculas A y B reaccionan para formar las moléculas C y D; en el otro sentido (reacción inversa), las moléculas C y D reaccionan para formar las moléculas A y B. Un sistema así está en equilibrio cuando la velocidad de la reacción directa es igual a la velocidad de la reacción inversa; en este caso, las propiedades macroscópicas del sistema, esto es, las concentraciones de las moléculas A, B, C y D, no cambian con el tiempo. Sin embargo, desde el punto de vista microscópico, la configuración del sistema no es estática, porque en todo momento se están produciendo la reacción directa e inversa. En general, las propiedades microscópicas de un sistema en equilibrio se compensan de forma que las propiedades a gran escala sean constantes.

1.6 Electricidad



La fuerza eléctrica es una de las interacciones fundamentales de la naturaleza, responsable, entre otros fenómenos, de la existencia de los átomos. Además, la cotidiana presencia de la corriente eléctrica ha marcado especialmente las costumbres de la sociedad actual. La palabra electricidad deriva del griego electrón, que significa ámbar.

Parece que las primeras observaciones sobre electricidad, realizadas en la antigua Grecia, corresponden a la atracción que ejercían trozos de ámbar frotados con ropa sobre el vidrio. Hasta el siglo XVII no se observaron fuerzas de repulsión entre cuerpos eléctricamente cargados por frotamiento y hasta el siglo XVIII no
aparecieron las primeras teorías verdaderamente físicas sobre la electricidad, debidas a Benjamin Franklin (1706-1790) inventor del pararrayos y presidente de los Estados Unidos.

A partir de sus investigaciones y las del físico alemán Franz Aepinus (1759) se admitió la existencia de dos tipos de cargas eléctricas, positivas y negativas, y que cargas de igual signo se repelen pero de distinto signo se atraen.La expresión matemática de la ley exacta mediante la cual interaccionan las cargas eléctricas fue obtenida experimentalmente por el físico francés Charles Augustin Coulomb en 1785 y es conocida como la ley de Coulomb.

La precisión de esta ley, que establece que, al igual que la ley de la gravedad de Newton, la fuerza decrece como la inversa de la distancia al cuadrado, ha sido corroborada con una exactitud de hasta una parte en un billón.Aunque ya se conocían la existencia de corrientes eléctricas, descubiertas gracias al contacto con ciertos metales de los nervios de una anca de rana, no se disponía de ningún método práctico de mantener una corriente eléctrica estacionaria hasta la invención de la pila por Alessandro Volta en 1800. Consistía en una serie de células eléctricas compuestas por discos de cobre y zinc separados por un paño humedecido.

La ley básica que relaciona la diferencia de potencial aplicada con la corriente eléctrica de un circuito fue establecida por Georg Simon Ohm (1787-1854) y es conocida hoy día como ley de Ohm.Pero la relación de la corriente eléctrica, entendida como un fluido (el fluido eléctrico), con la carga eléctrica no estaba aún nada clara. En 1800 Alessandro Volta pudo estudiar, gracias a su invención de la pila, qué relación hay entre la electricidad y la estructura de la materia. La corriente eléctrica podía separar materiales en sus componentes que no podían ser separados por métodos fisicoquímicos. Mediante este proceso Davy, en 1807, obtuvo los elementos potasio y sodio.

Así este fenómeno, cuya primera explicación teórica se debe a Faraday (1833), también llevó a la hipótesis atómica por un camino distinto al de Dalton. Pero la electricidad no sólo implicaba la estructura atómica de la materia, sino que la carga se presentaba en unidades discretas llamadas electrones. Esta hipótesis, propuesta en 1874 por Johnstone Stoney, no fue completamente aceptada hasta los experimentos de Thomson 20 años después, en que la masa y la carga del electrón fueron medidas en un tubo de rayos catódicos.

Así, se unificaban corriente eléctrica y electricidad estática: la corriente eléctrica no era más que el movimiento de partículas cargadas eléctricamente. Los primeros modelos del átomo, propuestos por Thomson, Rutherford y Bohr entendían a la materia como formada por átomos divisibles, formados por partículas cargadas eléctricamente: el electrón y el protón. El modelo de Bohr (1913), en boga hasta la llegada de la mecánica cuántica, proponía un átomo eléctricamente neutro formado por electrones que orbitan alrededor de protones situados en el núcleo. La conducción eléctrica se debería, según la teoría de Lorentz-Drude (1909), al movimiento de electrones dentro de la materia que se desplazan cuando actúa sobre ellos un campo eléctrico.Hasta la segunda mitad del siglo XX no se ha comprendido plenamente la razón del comportamiento conductor o aislante de los materiales. Para ello ha sido necesario aplicar la mecánica cuántica al estudio de los sólidos.

Gracias a estos estudios se han podido descubrir materiales semiconductores a los cuales debe su desarrollo la industria de la electrónica. Los materiales semiconductores permitieron a Bardeen, Brattain y Shokley inventar el transistor en 1949, lo que supuso el nacimiento de la electrónica que ha revolucionado completamente nuestra sociedad. La obtención de nuevos semiconductores y la miniaturización de los chips, es uno de los temas de investigación básico en este campo. Hoy en día la investigación también se centra en la obtención de materiales superconductores (materiales sin resistencia eléctrica) a temperaturas útiles para la industria, aunque de momento su utilidad está restringida a la investigación básica.


La electricidad se puede dividir en varias partes:



- Electrostática: parte del electromagnetismo que estudia las cargas eléctricas en reposo, los campos eléctricos que crean y las interacciones que producen.
- Electrodinámica: parte de la física que estudia los efectos de la corriente eléctrica.
- Magnetostática: parte de la física que estudia los campos magnéticos creados por los imanes permanentes.
- Electromagnetismo: parte de la física que estudia las acciones mutuas entre los fenómenos eléctricos y los magnéticos.
- Corriente alterna: corriente eléctrica cuya intensidad cambia de magnitud y sentido según una ley sinusoidal.

1.7 Parte de la Química



La Química es el estudio de la composición, estructura y propiedades de las sustancias materiales, de sus interacciones y de los efectos producidos sobre ellas al añadir o extraer energía en cualquiera de sus formas. Desde los primeros tiempos, los seres humanos han observado la transformación de las sustancias -la carne cocinándose, la madera quemándose, el hielo derritiéndose- y han especulado sobre sus causas. Siguiendo la historia de esas observaciones y especulaciones, se puede reconstruir la evolución gradual de las ideas y conceptos que han culminado en la química moderna

- 2500 a 600 a.C.



Desde los primeros tiempos, los seres humanos han observado la transformación de las sustancias -la carne cocinándose, la madera quemándose, el hielo derritiéndose- y han especulado sobre sus causas. Siguiendo la historia de esas observaciones y especulaciones, se puede reconstruir la evolución gradual de las ideas y conceptos que han culminado en la Química moderna.

Los primeros procesos químicos tienen su origen en las cavernas, a la altura de la Edad de Piedra , cuando el hombre comenzó a darse cuenta de que podía cocinar sus alimentos y procurarse calor con el fuego proveniente de la combustión de la madera, saciar su sed con el agua, etc. , ademas de dar distintas utilidades a la piedra.

En la llamada Edad de Bronce (2500 a 1000 a.C.) el hombre se dio cuenta de las ventajas que tenía el cobre sobre la piedra. Un remoto día este metal debió surgir por casualidad desde unas piedras en contacto con el fuego. Entonces el hombre primitivo, intrigado por este hecho, buscó más piedras similares para obtener así mayor cantidad de metal. Lo vertió en estado líquido y caliente en moldes de arcilla y vio nacer ante sus ojos las primeras herramientas de cobre.

Un buen día, alguien arrojó al cobre caliente y fundido un misterioso polvo de color gris, y entonces surgió un metal más resistente: el bronce. También de manera fortuita, algún otro, al calentar ciertas piedras rojizas sobre carbón de leña, logró obtener un nuevo metal: el hierro, dando origen a lo que conocemos como la Edad de Hierro(900 a 500 a.C.). Esta etapa conciste basicamente en el período en que el hombre aprendió a extraer el cobre y el hierro de sus minerales.
Aquí es donde vemos nacer la Química más antigua que conocemos con el nombre de metalurgia, que es el arte de tratar los metales aplicando un conocimiento que mezcla la magia, la mística y la técnica de los pueblos antiguos.

Estos pueblos antiguos fueron los que desarrollaron alrededor de los 1500 años a. C. los primeros procesos químicos conocidos, que fueron realizados por los artesanos de Mesopotamia, Egipto y China. En estas culturas se inició también una tecnología Química primitiva, conforme los tintoreros descubrían métodos para fijar los tintes en los distintos tipos de tejidos y los alfareros aprendían a preparar barnices y más tarde a fabricar vidrio. La mayoría de esos artesanos trabajaban en los monasterios y palacios haciendo artículos de lujo. En los monasterios especialmente, los monjes tenían tiempo para especular sobre el origen de los cambios que veían en el mundo que los rodeaba. Sus teorías se basaban frecuentemente en la magia, pero también elaboraron ideas astronómicas, matemáticas y cosmológicas, que utilizaban en sus intentos de explicar algunos de los cambios que hoy se consideran químicos.


- 600 a.C. a V d.C.



Las explicaciones que solían dar los antiguos a los fenómenos naturales se basaban principalmente en especulaciones filosóficas, astrológicas y místicas. Es entonces que desde los tiempos de Tales de Mileto, unos 600 años a.C., los filósofos griegos empezaron a hacer especulaciones lógicas sobre el mundo físico, en lugar de confiar en los mitos para explicar los fenómenos. El mismo Tales pensaba que toda la materia procedía del agua, que podía solidificarse en tierra o evaporarse en aire. Sus sucesores ampliaron esta teoría en la idea de que el mundo estaba compuesto por cuatro elementos: tierra, agua, aire y fuego.

Según Demócrito, esos elementos estaban compuestos por átomos, partículas diminutas que se movían en el vacío. Otros, especialmente Aristóteles, creían que los elementos formaban un medio continuo de materia y, por tanto, el vacío no podía existir. La idea atómica perdió terreno rápidamente, pero nunca fue completamente olvidada. Cuando fue revisada durante el renacimiento, formó la base de la teoría atómica moderna.

Aristóteles fue el más influyente de los filósofos griegos, y sus ideas dominaron la filosofía natural durante casi dos milenios después de su muerte, en el 323 a.C., año en el que sus teorías fueron aceptadas por los prácticos artesanos, especialmente en Alejandría y Egipto. Creía que la materia poseía cuatro cualidades: calor, frío, humedad y sequedad. Cada uno de los cuatro elementos estaba compuesto por pares de esas cualidades; por ejemplo, el fuego era caliente y seco, el agua fría y húmeda, el aire caliente y húmedo, y la tierra fría y seca.

Esos elementos con sus cualidades se combinaban en diferentes proporciones para formar los componentes del planeta terrestre. Puesto que era posible cambiar las cantidades de cada cualidad en un elemento, se podía transformar un elemento en otro; así, se pensaba que era posible cambiar las sustancias materiales formadas por los elementos, por ejemplo, el plomo en oro.

Fue sobre la base de esta idea que surgió la alquimia en el siglo I de la era cristiana. La alquimia consiste en la idea de los pensadores de que los metales de la Tierra tendían a ser cada vez más perfectos y a convertirse gradualmente en oro, y creían que podían realizar el mismo proceso más rápidamente en sus talleres, transmutando así de forma artificial los metales comunes en oro. Casi al mismo tiempo (y probablemente de forma independiente) apareció en China una alquimia similar. Aquí el objetivo también era fabricar oro, aunque no por el valor monetario del metal.

Los chinos consideraban al oro como una medicina que podía conferir larga vida o incluso la inmortalidad a cualquiera que la consumiera. Al igual que los egipcios, los chinos aumentaron sus conocimientos de la Química práctica a partir de teorías incorrectas. Se escribió un gran número de tratados sobre el arte de la transmutación que empezaba a conocerse como alquimia pero, aunque nadie consiguió hacer oro, en la búsqueda de la perfección de los metales se descubrieron muchos procesos químicos. Entre los siglos III y V se fundaron distintas escuelas de alquimia como por ejemplo la de Zósimo en Alejandría.

- Siglos V a XIV d.C. (Edad Media)


Después del declive del Imperio romano, en la Europa occidental empezaron a estudiarse menos los escritos griegos, e incluso fueron bastante abandonados en el Mediterráneo oriental. Sin embargo, en el siglo VI, un grupo de cristianos conocidos como los nestorianos, cuyo idioma era el sirio, expandieron su influencia por Asia Menor. Establecieron una universidad en Edessa, Mesopotamia, y tradujeron al sirio un gran número de escritos filosóficos y médicos griegos para que pudieran ser utilizados por los estudiantes.

En los siglos VII y VIII, los conquistadores árabes expandieron la cultura islámica sobre gran parte de Asia Menor, norte de África y España. Los califas de Bagdad se convirtieron en mecenas activos de la ciencia y el saber. La traducción siria de los textos griegos fue traducida de nuevo, esta vez al árabe, y junto con el resto del saber griego volvieron a florecer las ideas y la práctica de la alquimia.

Los alquimistas árabes también estaban en contacto con China; así, a la idea del oro como metal perfecto le añadieron el concepto del oro como medicina. Se concibió un agente específico para estimular la transmutación, la ‘piedra filosofal’, que se convirtió en el objeto de investigación de los alquimistas. Ahora tenían un nuevo incentivo para estudiar los procesos químicos, porque podrían conducirlos no sólo a la riqueza, sino a la salud. En el estudio de los productos y aparatos químicos se hicieron grandes progresos. Se descubrieron importantes reactivos como los álcalis cáusticos y las sales de amonio, y se mejoraron los aparatos de destilación. También se vio rápidamente la necesidad de aplicar más métodos cuantitativos, pues algunas fórmulas árabes daban instrucciones específicas sobre las cantidades de reactivos a utilizar.

En el siglo XI comenzó en Europa occidental un gran resurgimiento intelectual, estimulado en parte por los intercambios culturales entre los estudiantes árabes y cristianos en Sicilia y España. Se crearon escuelas de traductores, y sus traducciones transmitieron las ideas filosóficas y científicas al resto de los estudiantes europeos. Así, el saber de la ciencia griega pasó por las lenguas intermedias siria y árabe, fue difundido en la lengua erudita, el latín, y posteriormente se expandió por Europa. Muchos de los manuscritos leídos con más anhelo estaban relacionados con la alquimia.

Había dos tipos de manuscritos: unos eran puramente prácticos, y otros intentaban aplicar las teorías de la naturaleza de la materia a los problemas alquímicos. Entre los temas prácticos discutidos se encontraba la destilación.

La fabricación de vidrio había mejorado considerablemente, sobre todo en Venecia, y fue posible construir aparatos de destilación mejores que los fabricados por los árabes para condensar los productos más volátiles de la destilación. Entre los productos más importantes obtenidos así se encontraban el alcohol y los ácidos minerales: ácido nítrico, agua regia (una mezcla de ácido nítrico y clorhídrico), ácido sulfúrico y ácido clorhídrico.

Utilizando estos poderosos reactivos podían realizarse muchas reacciones nuevas. El descubrimiento por parte de los chinos de los nitratos y la pólvora llegó pronto a Occidente a través de los árabes. Al principio, los chinos utilizaban la pólvora para los fuegos artificiales, pero en Occidente se convirtió rápidamente en un elemento importante de la guerra. A finales del siglo XIII ya existía en Europa una tecnología Química bastante eficaz.

El segundo tipo de manuscritos alquímicos transmitidos por los árabes concernía a la teoría. Muchos de esos escritos revelaban un carácter místico que contribuía poco al avance de la Química, pero otros intentaban explicar la transmutación en términos físicos. Los árabes basaban sus teorías de la materia en las ideas aristotélicas, pero su pensamiento tendía a ser más específico, sobre todo en lo referente a la composición de los metales. Ellos creían que los metales consistían en azufre y mercurio, no propiamente estas sustancias que conocían muy bien, sino más bien el principio del mercurio, que confería la propiedad de fluidez a los metales, y el principio del azufre que convertía en combustibles a las sustancias y corroía a los metales. Las reacciones Químicas se explicaban en términos de cambios en las cantidades de esos principios dentro de las sustancias materiales.

- Siglos XIV a segunda mitad del s. XVII d.C. (Renacimiento)



Durante los siglos XIII y XIV, la influencia de Aristóteles sobre todas las ramas del pensamiento científico empezó a debilitarse. La observación del comportamiento de la materia arrojó dudas sobre las explicaciones relativamente simples que Aristóteles había proporcionado; estas dudas se expandieron con rapidez después de la invención (en torno al 1450) de la imprenta con tipos móviles. Después del 1500 aparecieron cada vez más trabajos académicos, así como trabajos dedicados a la tecnología. El resultado de este saber creciente se hizo más visible en el siglo XVI.

Entre los libros más influyentes que aparecieron en esa época había trabajos prácticos sobre minería y metalurgia. Esos tratados dedicaban mucho espacio a la extracción de los metales valiosos de las menas, trabajo que requería el uso de una balanza o una escala de laboratorio y el desarrollo de métodos cuantitativos. Los especialistas de otras áreas, especialmente de medicina, empezaron a reconocer la necesidad de una mayor precisión. Los médicos, algunos de los cuales eran alquimistas, necesitaban saber el peso o volumen exacto de la dosis que administraban. Así, empezaron a utilizar métodos químicos para preparar medicinas.

Esos métodos fueron promovidos enérgicamente por el excéntrico médico suizo Theophrastus von Hohenheim, conocido como Paracelso. Al crecer en una región minera, se había familiarizado con las propiedades de los metales y sus compuestos, que, según él, eran superiores a los remedios de hierbas utilizados por los médicos ortodoxos. Paracelso pasó la mayor parte de su vida disputando violentamente con los médicos de la época, y en el proceso fundó la ciencia de la iatroQuímica (uso de medicinas Químicas), precursora de la farmacología.

Él y sus seguidores descubrieron muchos compuestos y reacciones Químicas. Modificó la vieja teoría del mercurio-azufre sobre la composición de los metales, añadiendo un tercer componente, la sal, la parte terrestre de todas las sustancias. Declaró que cuando la madera arde “lo que se quema es azufre, lo que se evapora es mercurio y lo que se convierte en cenizas es sal”.

Al igual que con la teoría del azufre-mercurio, se refería a los principios, no a las sustancias materiales que responden a esos nombres. Su hincapié en el azufre combustible fue importante para el desarrollo posterior de la Química. Los iatroquímicos que seguían a Paracelso modificaron parte de sus ideas más extravagantes y combinaron las fórmulas de él con las suyas propias para preparar remedios químicos. A finales del siglo XVI, Andreas Libavius publicó su Alchemia, que organizaba el saber de los iatroquímicos y que se considera a menudo como el primer libro de Química.

En la primera mitad del siglo XVII empezaron a estudiar experimentalmente las reacciones Químicas, no porque fueran útiles en otras disciplinas, sino más bien por razones propias. Jan Baptista van Helmont, médico que dejó la práctica de la medicina para dedicarse al estudio de la Química, utilizó la balanza en un experimento para demostrar que una cantidad definida de arena podía ser fundida con un exceso de álcali formando vidrio soluble, y cuando este producto era tratado con ácido, regeneraba la cantidad original de arena (sílice). Ésos fueron los fundamentos de la ley de conservación de la masa. Van Helmont demostró también que en ciertas reacciones se liberaba un fluido aéreo. A esta sustancia la llamó gas. Así se demostró que existía un nuevo tipo de sustancias con propiedades físicas particulares.

En el siglo XVI, los experimentos descubrieron cómo crear un vacío, algo que Aristóteles había declarado imposible. Esto atrajo la atención sobre la antigua teoría de Demócrito, que había supuesto que los átomos se movían en un vacío. El filósofo y matemático francés René Descartes y sus seguidores desarrollaron una visión mecánica de la materia en la que el tamaño, la forma y el movimiento de las partículas diminutas explicaban todos los fenómenos observados. La mayoría de los iatroquímicos y filósofos naturales de la época suponían que los gases no tenían propiedades Químicas, de aquí que su atención se centrara en su comportamiento físico. Comenzó a desarrollarse una teoría cinético-molecular de los gases.

En esta dirección fueron notables los experimentos del químico físico británico Robert Boyle, cuyos estudios sobre el ‘muelle de aire’ (elasticidad) condujeron a lo que se conoce como ley de Boyle, una generalización de la relación inversa entre la presión y el volumen de los gases.

Mientras muchos filósofos naturales especulaban sobre las leyes matemáticas, los primeros químicos intentaban utilizar en el laboratorio las teorías Químicas para explicar las reacciones reales que observaban. Los iatroquímicos ponían especial atención en el azufre y en las teorías de Paracelso. En la segunda mitad del siglo XVII, el médico, economista y químico alemán Johann Joachim Becher construyó un sistema químico en torno a su principio. Becher anotó que cuando la materia orgánica ardía, parecía que un material volátil salía de la sustancia. Su discípulo Georg Ernst Stahl, hizo de éste el punto central de una teoría que sobrevivió en los círculos químicos durante casi un siglo.

Stahl supuso que cuando algo ardía, su parte combustible era expulsada al aire. A esta parte la llamó flogisto, de la palabra griega flogistós, ‘inflamable’. La oxidación de los metales era análoga a la combustión y, por tanto, suponía pérdida de flogisto. Las plantas absorbían el flogisto del aire, por lo que eran ricas en él. Al calentar las escorias (u óxidos) de los metales con carbón de leña, se les restituía el flogisto.

Así dedujo que la escoria era un elemento y el metal un compuesto. Esta teoría es casi exactamente la contraria al concepto moderno de oxidación-reducción, pero implica la transformación cíclica de una sustancia (aunque fuera en sentido inverso), y podía explicar algunos de los fenómenos observados. Sin embargo, recientes estudios de la literatura Química de la época muestran que la explicación del flogisto no tuvo mucha influencia entre los químicos hasta que fue recuperada por el químico Antoine Laurent de Lavoisier, en el último cuarto del siglo XVIII.

- Siglos XVIII a XX d.C.



En esa época, otra observación hizo avanzar la comprensión de la Química. Al estudiarse cada vez más productos químicos, los químicos observaron que ciertas sustancias combinaban más fácilmente o tenían más afinidad por un determinado producto químico que otras. Se prepararon tablas que mostraban las afinidades relativas al mezclar diferentes productos.

El uso de estas tablas hizo posible predecir muchas reacciones Químicas antes de experimentarlas en el laboratorio.
Todos esos avances condujeron en el siglo XVIII al descubrimiento de nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse métodos analíticos cualitativos y cuantitativos, dando origen a la Química analítica. Sin embargo, mientras existiera la creencia de que los gases sólo desempeñaban un papel físico, no podía reconocerse todo el alcance de la Química.

El estudio químico de los gases, generalmente llamados ‘aires’, empezó a adquirir importancia después de que el fisiólogo británico Stephen Hales desarrollara la cubeta o cuba neumática para recoger y medir el volumen de los gases liberados en un sistema cerrado; los gases eran recogidos sobre el agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se convirtió en un mecanismo valioso para recoger y estudiar gases no contaminados por el aire ordinario. El estudio de los gases avanzó rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos gases.

La interpretación inicial del papel de los gases en la Química se produjo en Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios sobre las reacciones de los carbonatos de magnesio y de calcio.

Al calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo que Black llamaba magnesia calcinada o cal (los óxidos). Esta última reaccionaba con el ‘álcali’ (carbonato de sodio) regenerando las sales originales. Así, el gas dióxido de carbono, que Black denominaba aire fijo, tomaba parte en las reacciones Químicas (estaba “fijo”, según sus palabras). La idea de que un gas no podía entrar en una reacción Química fue desechada, y pronto empezaron a reconocerse nuevos gases como sustancias distintas.

En la década siguiente, el físico británico Henry Cavendish aisló el ‘aire inflamable’ (hidrógeno). También introdujo el uso del mercurio en lugar del agua como el líquido sobre el que se recogían los gases, posibilitando la recogida de los gases solubles en agua. Esta variante fue utilizada con frecuencia por el químico y teólogo británico Joseph Priestley, quien recogió y estudió casi una docena de gases nuevos.

El descubrimiento más importante de Priestley fue el oxígeno; pronto se dio cuenta de que este gas era el componente del aire ordinario responsable de la combustión, y que hacía posible la respiración animal. Sin embargo, su razonamiento fue que las sustancias combustibles ardían enérgicamente y los metales formaban escorias con más facilidad en este gas porque el gas no contenía flogisto. Por tanto, el gas aceptaba el flogisto presente en el combustible o el metal más fácilmente que el aire ordinario que ya contenía parte de flogisto. A este nuevo gas lo llamó ‘aire deflogistizado’ y defendió su teoría hasta el final de sus días.

Mientras tanto, la Química había hecho grandes progresos en Francia, particularmente en el laboratorio de Lavoisier. A éste le preocupaba el hecho de que los metales ganaban peso al calentarlos en presencia de aire, cuando se suponía que estaban perdiendo flogisto.

En 1774, Priestley visitó Francia y le comentó a Lavoisier su descubrimiento del aire deflogistizado. Lavoisier entendió rápidamente el significado de esta sustancia, y este hecho abrió el camino para la revolución Química que estableció la Química moderna. Lavoisier lo llamó ‘oxígeno’, que significa ‘generador de ácidos’.

El nacimiento de la Química moderna



Lavoisier demostró con una serie de experimentos brillantes que el aire contiene un 20% de oxígeno y que la combustión es debida a la combinación de una sustancia combustible con oxígeno. Al quemar carbono se produce aire fijo (dióxido de carbono). Por tanto, el flogisto no existe. La teoría del flogisto fue sustituida rápidamente por la visión de que el oxígeno del aire combina con los elementos componentes de la sustancia combustible formando los óxidos de dichos elementos. Lavoisier utilizó la balanza de laboratorio para darle apoyo cuantitativo a su trabajo.

Definió los elementos como sustancias que no pueden ser descompuestas por medios químicos, preparando el camino para la aceptación de la ley de conservación de la masa. Sustituyó el sistema antiguo de nombres químicos (basado en el uso alquímico) por la nomenclatura Química racional utilizada hoy, y ayudó a fundar el primer periódico químico. Después de morir en la guillotina en 1794, sus colegas continuaron su trabajo estableciendo la Química moderna. Un poco más tarde, el químico sueco Jöns Jakob, barón de Berzelius propuso representar los símbolos de los átomos de los elementos por la letra o par de letras iniciales de sus nombres.

A principios del siglo XIX, la precisión de la Química analítica había mejorado tanto que los químicos podían demostrar que los compuestos simples con los que trabajaban contenían cantidades fijas e invariables de sus elementos constituyentes. Sin embargo, en ciertos casos, con los mismos elementos podía formarse más de un compuesto. Por esa época, el químico y físico francés Joseph Gay-Lussac demostró que los volúmenes de los gases reaccionantes están siempre en la relación de números enteros sencillos, es decir, la ley de las proporciones múltiples (que implica la interacción de partículas discontinuas o átomos). Un paso importante en la explicación de estos hechos fue, en 1803, la teoría atómica Química del científico inglés John Dalton.

Dalton supuso que cuando se mezclaban dos elementos, el compuesto resultante contenía un átomo de cada uno. En su sistema, el agua podría tener una fórmula correspondiente a HO. Dalton asignó arbitrariamente al hidrógeno la masa atómica 1 y luego calculó la masa atómica relativa del oxígeno. Aplicando este principio a otros compuestos, calculó las masas atómicas de los elementos conocidos hasta entonces. Su teoría contenía muchos errores, pero la idea era correcta y se podía asignar un valor cuantitativo preciso a la masa de cada átomo.

Teoría molecular



La teoría de Dalton no explicaba por completo la ley de las proporciones múltiples y no distinguía entre átomos y moléculas. Así, no podía distinguir entre las posibles fórmulas del agua HO y H2O2, ni podía explicar por qué la densidad del vapor de agua, suponiendo que su fórmula fuera HO, era menor que la del oxígeno, suponiendo que su fórmula fuera O. El físico italiano Amedeo Avogadro encontró la solución a esos problemas en 1811.
Sugirió que a una temperatura y presión dadas, el número de partículas en volúmenes iguales de gases era el mismo, e introdujo también la distinción entre átomos y moléculas. Cuando el oxígeno se combinaba con hidrógeno, un átomo doble de oxígeno (molécula en nuestros términos) se dividía, y luego cada átomo de oxígeno se combinaba con dos átomos de hidrógeno, dando la fórmula molecular de H2O para el agua y O2 y H2 para las moléculas de oxígeno e hidrógeno, respectivamente.

Las ideas de Avogadro fueron ignoradas durante casi 50 años, tiempo en el que prevaleció una gran confusión en los cálculos de los químicos. En 1860 el químico italiano Stanislao Cannizzaro volvió a introducir la hipótesis de Avogadro.

Por esta época, a los químicos les parecía más conveniente elegir la masa atómica del oxígeno, 16, como valor de referencia con el que relacionar las masas atómicas de los demás elementos, en lugar del valor 1 del hidrógeno, como había hecho Dalton. La masa molecular del oxígeno, 32, se usaba internacionalmente y se llamaba masa molecular del oxígeno expresada en gramos, o simplemente 1 mol de oxígeno. Los cálculos químicos se normalizaron y empezaron a escribirse fórmulas fijas.

El antiguo problema de la naturaleza de la afinidad Química permanecía sin resolver. Durante un tiempo pareció que la respuesta podría estar en el campo de la electroQuímica, descubierto recientemente. El descubrimiento en 1800 de la pila voltaica, la primera pila eléctrica real, proporcionó a los químicos una nueva herramienta que llevó al descubrimiento de metales como el sodio y el potasio. Berzelius opinaba que las fuerzas electrostáticas positivas y negativas podían mantener unidos a los elementos, y al principio sus teorías fueron aceptadas. Cuando los químicos empezaron a preparar y estudiar nuevos compuestos y reacciones en las que las fuerzas eléctricas parecían no estar implicadas (compuestos no polares), el problema de la afinidad fue postergado por un tiempo.

Nuevos campos de la Química



En el siglo XIX, los avances más sorprendentes de la Química se produjeron en el área de la Química orgánica. La teoría estructural, que proporcionaba una imagen de cómo se mantenían los átomos juntos, no era matemática, sino que empleaba su propia lógica. Ella hizo posible la predicción y preparación de muchos compuestos nuevos, incluyendo una gran cantidad de tintes, medicinas y explosivos importantes, que dieron origen a grandes industrias Químicas, especialmente en Alemania.

Al mismo tiempo, aparecieron otras ramas de la Química. Estimulados por los avances logrados en física, algunos químicos pensaron en aplicar métodos matemáticos a su ciencia. Los estudios de la velocidad de las reacciones culminaron en el desarrollo de las teorías cinéticas, que tenían valor tanto para la industria como para la ciencia pura. El reconocimiento de que el calor era debido al movimiento a escala atómica (un fenómeno cinético), hizo abandonar la idea de que el calor era una sustancia específica (denominada calórica) e inició el estudio de la termodinámica Química. La extensión de los estudios electroquímicos llevó al químico sueco Svante August Arrhenius a postular la disociación de las sales en disolución para formar iones portadores de cargas eléctricas. Los estudios de los espectros de emisión y absorción de los elementos y compuestos empezaron a adquirir importancia tanto para los químicos como para los físicos, culminando en el desarrollo del campo de la espectroscopia. Además, comenzó una investigación fundamental sobre los coloides y la fotoQuímica. A finales del siglo XIX, todos los estudios de este tipo fueron englobados en un campo conocido como Química física.

La Química inorgánica también necesitaba organizarse. Seguían descubriéndose nuevos elementos, pero no se había descubierto ningún método de clasificación que pudiera poner orden en sus reacciones. El sistema periódico, formulado a raíz de que el químico ruso Dmitri Ivánovich Mendeléiev en 1869 y el químico alemán Julius Lothar Meyer en 1870 elaboraran independientemente la ley periódica, eliminó esta confusión e indicó dónde se encontrarían los nuevos elementos y qué propiedades tendrían.

A finales del siglo XIX, la Química, al igual que la física, parecía haber alcanzado un punto en el que no quedaba ningún campo sorprendente por desarrollar. Esta visión cambió completamente con el descubrimiento de la radiactividad. Los métodos químicos fueron utilizados para aislar nuevos elementos, como el radio, para separar nuevos tipos de sustancias conocidas como isótopos, y para sintetizar y aislar los nuevos elementos transuránicos.

Los físicos consiguieron dibujar la estructura real de los átomos, que resolvía el antiguo problema de la afinidad Química y explicaba la relación entre los compuestos polares y no polares.

Otro avance importante de la Química en el siglo XX fue la fundación de la bioquímica; empezó simplemente con el análisis de los fluidos corporales, pero pronto se desarrollaron métodos para determinar la naturaleza y función de los componentes celulares más complejos. Hacia la mitad del siglo, los bioquímicos habían aclarado el código genético y explicado la función de los genes, base de toda la vida. El campo había crecido tanto que su estudio culminó en una nueva ciencia, la biología molecular.


1.8 Método Científico.



Método de estudio sistemático de la naturaleza que incluye las técnicas de observación, reglas para el razonamiento y la predicción, ideas sobre la experimentación planificada y los modos de comunicar los resultados experimentales y teóricos.

La ciencia suele definirse por la forma de investigar más que por el objeto de investigación, de manera que los procesos científicos son esencialmente iguales en todas las ciencias de la naturaleza; por ello la comunidad científica está de acuerdo en cuanto al lenguaje en que se expresan los problemas científicos, la forma de recoger y analizar datos, el uso de un estilo propio de lógica y la utilización de teorías y modelos. Etapas como realizar observaciones y experimentos, formular hipótesis, extraer resultados y analizarlos e interpretarlos van a ser características de cualquier investigación. En el método científico la observación consiste en el estudio de un fenómeno que se produce en sus condiciones naturales. La observación debe ser cuidadosa, exhaustiva y exacta.

A partir de la observación surge el planteamiento del problema que se va a estudiar, lo que lleva a emitir alguna hipótesis o suposición provisional de la que se intenta extraer una consecuencia. Existen ciertas pautas que han demostrado ser de utilidad en el establecimiento de las hipótesis y de los resultados que se basan en ellas; estas pautas son: probar primero las hipótesis más simples, no considerar una hipótesis como totalmente cierta y realizar pruebas experimentales independientes antes de aceptar un único resultado experimental importante. La experimentación consiste en el estudio de un fenómeno, reproducido generalmente en un laboratorio, en las condiciones particulares de estudio que interesan, eliminando o introduciendo aquellas variables que puedan influir en él.

Se entiende por variable todo aquello que pueda causar cambios en los resultados de un experimento y se distingue entre variable independiente, dependiente y controlada.

Variable independiente es aquélla que el experimentador modifica a voluntad para averiguar si sus modificaciones provocan o no cambios en las otras variables.

Variable dependiente es la que toma valores diferentes en función de las modificaciones que sufre la variable independiente. Variable controlada es la que se mantiene constante durante todo el experimento.

En un experimento siempre existe un control o un testigo, que es una parte del mismo no sometida a modificaciones y que se utiliza para comprobar los cambios que se producen. Todo experimento debe ser reproducible, es decir, debe estar planteado y descrito de forma que pueda repetirlo cualquier experimentador que disponga del material adecuado. Los resultados de un experimento pueden describirse mediante tablas, gráficos y ecuaciones de manera que puedan ser analizados con facilidad y permitan encontrar relaciones entre ellos que confirmen o no las hipótesis emitidas.

Una hipótesis confirmada se puede transformar en una ley científica que establezca una relación entre dos o más variables, y al estudiar un conjunto de leyes se pueden hallar algunas regularidades entre ellas que den lugar a unos principios generales con los cuales se constituya una teoría. Según algunos investigadores, el método científico es el modo de llegar a elaborar teorías, entendiendo éstas como configuración de leyes. Mediante la inducción se obtiene una ley a partir de las observaciones y medidas de los fenómenos naturales, y mediante la deducción se obtienen consecuencias lógicas de una teoría.

Por esto, para que una teoría científica sea admisible debe relacionar de manera razonable muchos hechos en apariencia independientes en una estructura mental coherente. Así mismo debe permitir hacer predicciones de nuevas relaciones y fenómenos que se puedan comprobar experimentalmente. Las leyes y las teorías encierran a menudo una pretensión realista que conlleva la noción de modelo; éste es una abstracción mental que se utiliza para poder explicar algunos fenómenos y para reconstruir por aproximación los rasgos del objeto considerado en la investigación.





Creative Commons License
Estos contenidos son Copyleft bajo una Licencia de Creative Commons.
Pueden ser distribuidos o reproducidos, mencionando su autor.
Siempre que no sea para un uso económico o comercial.
No se pueden alterar o transformar, para generar unos nuevos.

 
TodoMonografías.com © 2006 - Términos y Condiciones - Esta obra está bajo una licencia de Creative Commons. Creative Commons License