Monografías
Publicar | Monografías por Categorías | Directorio de Sitios | Software Educativo | Juegos Educativos | Cursos On-Line Gratis

 

Universo Astronomía parte 1 - Monografía



 
DESCARGA ESTA MONOGRAFÍA EN TU PC
Esta monografía en formato html para que puedas guardarla en tu pc e imprimirla.



Vínculo Patrocinado




Aquí te dejamos la descarga gratuita
Nota: para poder abrir archivos html solo necesitas tener instalado internet explorer u otro navegador web.




Cosmovisión. Astronomía. Espacio sideral. Carrera espacial. Estaciones espaciales. Telescopios. Teorías cósmicas



COSMOVISIÓN



Cosmología, estudio del Universo en su conjunto, en el que se incluyen teorías sobre su origen, su evolución, su estructura a gran escala y su futuro. Al estudio más específico del origen del Universo y de sus sistemas astronómicos como el Sistema Solar, se le suele llamar cosmogonía.

Primeras teorías cosmológicas



Las teorías cosmológicas más antiguas datan del 4000 a.C., y son las de los pueblos mesopotámicos, que creían que la Tierra era el centro del Universo y que todos los demás cuerpos celestes giraban alrededor de ella. Algunos clásicos como Aristóteles y el astrónomo griego Tolomeo, explicaban que las estrellas se movían de noche porque estaban fijas en esferas cristalinas rotatorias. El astrónomo griego Aristarco de Samos, alrededor del 270 a.C., sostenía que la Tierra gira alrededor del Sol. Sin embargo, debido sobre todo a la autoridad de Aristóteles, el concepto de que la Tierra era el centro del Universo permaneció inamovible hasta 1543, cuando el astrónomo polaco Nicolás Copérnico publicó sus teorías en De revolutionibus orbium caelestium (Sobre las revoluciones de los cuerpos celestes). Copérnico proponía un sistema en el que los planetas giraban en órbitas circulares alrededor del Sol, el cual estaba situado en el centro del Universo. Atribuía el nacimiento y la colocación de las estrellas a la rotación de la Tierra sobre su eje. El astrónomo alemán Johannes Kepler adoptó el sistema copernicano y descubrió que los planetas giran en órbitas elípticas a velocidad variable, de acuerdo con tres leyes bien definidas (conocidas desde entonces como leyes de Kepler). Galileo, uno de los primeros en observar los planetas con un telescopio, también rechazó la idea de Aristóteles de que la Tierra era el centro del Universo y se convirtió en un defensor de la visión copernicana del mundo. El matemático y físico inglés Isaac Newton demostró que las leyes de Kepler sobre el movimiento planetario podían derivarse de las leyes generales del movimiento y de la gravitación que Newton había descubierto, indicando así que estas leyes físicas eran válidas en todo el Universo. Véase Astronomía.

Distancias interestelares



Una idea de la escala de las distancias entre las estrellas fue proporcionada a principios del siglo XIX por el astrónomo alemán Friedrich Wilhelm Bessel. Descubrió que la cercana estrella 61 Cygni estaba unas 600.000 veces más lejos de la Tierra que el Sol. En 1917 el astrónomo estadounidense Harlow Shapley calculó que la galaxia de la Tierra, la Vía Láctea, tiene un diámetro de unos 350.000 años luz; ésta fue la primera indicación del tamaño de nuestra galaxia. Por desgracia, Shapley no consideró la absorción de la luz de las estrellas por partículas de polvo en la Vía Láctea, lo que hace que los objetos parezcan más oscuros y, por tanto, más lejos de lo que están en realidad. El actual valor del diámetro de la parte visible de nuestra galaxia es de unos 30.000 parsecs (100.000 años luz). El astrónomo holandés Jan Hendrik Oort descubrió que el Sol tarda 250.000 millones de años en completar una revolución en torno al centro de nuestra galaxia y de esta forma pudo calcular que la masa de la Vía Láctea es de unas 100.000 millones de veces la masa del Sol.
Hasta comienzos del siglo XX, los astrónomos no conocían con seguridad la naturaleza de lo que describían como nebulosas espirales y elípticas; no podían determinar si estaban dentro o fuera de nuestra galaxia. En 1924 el astrónomo estadounidense Edwin Hubble logró descubrir estrellas individuales en alguno de estos objetos, entre ellos, la famosa Andrómeda. Varias de estas estrellas eran estrellas pulsantes, llamadas variables cefeidas. Midiendo su periodo de pulsación, los astrónomos pueden determinar el brillo intrínseco de estas estrellas. Comparando el brillo aparente de estas cefeidas con el brillo conocido de las cefeidas cercanas, Hubble comprobó que los objetos que estudiaba estaban fuera de la galaxia. Esto significaba que las miles de ‘nebulosas’ espirales y elípticas eran galaxias por derecho propio, externas a la Vía Láctea, y que cada una de ellas contenía cientos de miles de millones de estrellas. Hubble calculó que la distancia a la galaxia Andrómeda era de 900.000 años luz, cifra después corregida a los 2,2 millones de años luz, cuando los astrónomos descubrieron que las cefeidas estaban más lejos de lo que pensaron en un principio.

Ley de Hubble



El astrónomo estadounidense Vesto M. Slipher, que estudió los espectros de las galaxias, ya había observado en 1912 que, excepto en unos pocos sistemas cercanos como la galaxia Andrómeda, las líneas espectrales se habían desplazado hacia longitudes de onda mayores (véase Desplazamiento hacia el rojo). Este desplazamiento en longitud de onda, debido al efecto Doppler, mostraba que la mayoría de las galaxias se alejaban de la Vía Láctea.
En 1929 Hubble comparó las distancias que había calculado para diferentes galaxias con los desplazamientos hacia el rojo fijados por Slipher para las mismas galaxias. Descubrió que cuanto más lejos estaba la galaxia, más alta era su velocidad de recesión. A esta relación se la conoce como la ley de los desplazamientos hacia el rojo o ley de Hubble; determina que la velocidad de una galaxia es proporcional a su distancia. La relación entre la velocidad de recesión de una galaxia y su distancia (la constante de Hubble) se calcula que está entre los 50 y los 100 km/s por megaparsec (1 megaparsec equivale a 1 millón de parsecs).
Como parece que las galaxias retroceden en todas direcciones desde la Vía Láctea, se podría pensar que nuestra galaxia es el centro del Universo. Sin embargo, esto no es así. Imaginemos un globo con puntos uniformemente separados. Al inflar el globo, un observador en un punto de su superficie vería cómo todos los demás puntos se alejan de él, igual que los observadores ven a todas las galaxias retroceder desde la Vía Láctea. La analogía también nos proporciona una explicación sencilla de la ley de Hubble: el Universo se expande como un globo.

Modelos estáticos y de expansión del Universo



En 1917 Albert Einstein propuso un modelo del Universo basado en su nueva teoría de la relatividad general. Consideraba el tiempo como una cuarta dimensión y demostró que la gravitación era equivalente a una curvatura espacio-tiempo cuatridimensional resultante. Su teoría indicaba que el Universo no era estático, sino que debía expandirse o contraerse. La expansión del Universo todavía no había sido descubierta, por lo que Einstein planteó la existencia de una fuerza de repulsión entre las galaxias que compensaba la fuerza gravitatoria de atracción. Esto le llevó a introducir una ‘constante cosmológica’ en sus ecuaciones; el resultado era un universo estático. Sin embargo, desaprovechó la oportunidad de predecir la expansión del Universo, lo que Einstein calificaría como “el mayor error de mi vida”.
El astrónomo holandés Willem de Sitter desarrolló en 1917 modelos no estáticos del Universo. En 1922 lo hizo el matemático ruso Alexander Friedmann y en 1927 el sacerdote belga Georges Lemaître. El universo de De Sitter resolvió las ecuaciones relativistas de Einstein para un universo vacío, de modo que las fuerzas gravitatorias no eran importantes. La solución de Friedmann depende de la densidad de la materia en el Universo y es el modelo de universo generalmente aceptado. Lemaître también dio una solución a la ecuación de Einstein, pero es más conocido por haber introducido la idea del ‘núcleo primordial’. Afirmaba que las galaxias son fragmentos despedidos por la explosión de este núcleo, dando como resultado la expansión del Universo. Éste fue el comienzo de la teoría de la Gran Explosión sobre el origen del Universo (véase más adelante).
El destino del universo de Friedmann está determinado por la densidad media de la materia en el Universo. Si hay relativamente poca materia, la atracción gravitatoria mutua entre las galaxias disminuirá las velocidades de recesión sólo un poco y el Universo se expandirá indefinidamente. Esto dará como resultado un llamado ‘universo abierto’, infinito en extensión. Sin embargo, si la densidad de la materia está por encima de un valor crítico estimado actualmente en 5 × 10-30 g/cm3, la expansión descenderá hasta detenerse y llegar a la contracción, finalizando en el colapso gravitatorio total del Universo entero. Éste sería un ‘universo cerrado’, finito en extensión. El destino de este universo colapsado es incierto, pero hay una teoría según la cual explotaría de nuevo, originando un nuevo universo en expansión, que se volvería a colapsar, y así hasta el infinito. A este modelo se le llama universo oscilante o pulsante.


La edad del Universo



Si se conoce la tasa de expansión del Universo, se puede calcular su edad determinando el tiempo que se requiere para alcanzar su tamaño actual. Éste será de hecho un límite superior, cuando la expansión actual haya disminuido a causa de la atracción gravitatoria mutua entre las galaxias. Los primeros cálculos de la edad del Universo le concedieron un valor de sólo 2.000 millones de años. Esta edad es bastante menor que la de 5.000 millones de años de la Tierra que se ha deducido de la abundancia de ciertos isótopos radiactivos (véase Datación). Correcciones posteriores en la escala de distancias han suprimido esta discrepancia. Se descubrió, por ejemplo, que hay dos tipos de variables cefeidas, con brillo intrínseco diferente. Esta confusión había ocasionado que Hubble subestimara la distancia a la galaxia Andrómeda. Actualmente, se considera que la edad del Universo está entre los 7.000 y los 20.000 millones de años y de este modo, no se establece conflicto con la edad de la Tierra. Sin embargo, algunas estimaciones chocan con la edad calculada de objetos astronómicos como los cúmulos de estrellas, de forma que el problema de la edad del Universo sigue siendo una cuestión importante para la cosmología actual.

La teoría del universo estacionario



En 1948, los astrónomos británicos Hermann Bondi, Thomas Gold y Fred Hoyle presentaron un modelo completamente distinto de universo, conocido como la teoría del universo estacionario. Consideraban insatisfactoria, desde el punto de vista filosófico, la idea de un repentino comienzo del Universo. Su modelo se derivaba de una extensión del ‘principio cosmológico’, que sostiene teorías anteriores como el modelo de Friedmann. En su forma previa, más restringida, el principio afirmaba que el Universo parece el mismo en su conjunto, en un momento determinado desde cualquier posición. El ‘principio cosmológico perfecto’ de Bondi, Gold y Hoyle añade el postulado de que el Universo parece el mismo siempre. Plantean que la disminución de la densidad del Universo provocada por su expansión se compensa con la creación continua de materia, que se condensa en galaxias que ocupan el lugar de las galaxias que se han separado de la Vía Láctea y así se mantiene la apariencia actual del Universo (es la teoría de creación continua). La teoría del universo estacionario, al menos en esta forma, no la aceptan la mayoría de los cosmólogos, en especial después del descubrimiento aparentemente incompatible de la radiación de fondo de microondas en 1965.
El descubrimiento de quásares también aportó pruebas que contradicen la teoría del universo estacionario. Los quásares son sistemas extragalácticos muy pequeños pero muy luminosos que solamente se encuentran a grandes distancias. Su luz ha tardado en llegar a la Tierra varios cientos de miles de años. Por lo tanto, los quásares son objetos del pasado remoto, lo que indica que hace unos pocos de cientos de miles de años la constitución del Universo fue muy distinta de lo que es hoy en día.

La teoría del Big Bang o de la Gran Explosión



En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una explosión gigantesca y que los diversos elementos que hoy se observan se produjeron durante los primeros minutos después de la Gran Explosión (Big Bang), cuando la temperatura extremadamente alta y la densidad del Universo fusionaron partículas subatómicas en los elementos químicos. Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos primarios de la Gran Explosión, y los elementos más pesados se produjeron más tarde, dentro de las estrellas (véase Nucleosíntesis). Sin embargo, la teoría de Gamow proporciona una base para la comprensión de los primeros estadios del Universo y su posterior evolución. A causa de su elevadísima densidad, la materia existente en los primeros momentos del Universo se expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base física de la ley de Hubble.
Según se expandía el Universo, la radiación residual de la Gran Explosión continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de fondo de microondas fueron detectados por los radioastrónomos en 1965, proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de la teoría de la Gran Explosión.

Evolución del Universo



Si el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a contraer).
Un intento de resolver este problema es determinar si la densidad media de la materia en el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico que indicaría que el Universo está cerrado. La diferencia entre estos dos métodos sugiere la presencia de materia invisible, la llamada materia oscura, dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se comprenda el fenómeno de la masa oculta, este método de determinar el destino del Universo será poco convincente.

Como la luz de las galaxias más alejadas ha estado viajando cientos de miles de años, el Universo se observa como aparecía en el pasado lejano. Al utilizar nuevos detectores infrarrojos conocidos como series de gran formato, los astrónomos del Observatorio Mauna Kea, en Hawaii, han registrado cientos de galaxias, las más mortecinas jamás observadas, la mayoría de ellas agrupadas a una distancia de 600.000 años luz. Una anomalía en esta visión del Universo de hace 600.000 años es que, más que una mezcla de tipos galácticos, predomina un tipo: una clase de galaxias pequeñas y compactas que contienen muchas menos estrellas que la Vía Láctea u otras de su clase. Las jóvenes galaxias espirales y elípticas que se observan en la actualidad se pueden haber formado por la fusión de fragmentos galácticos de masa baja, relativamente tarde en la historia del Universo, mucho después de la Gran Explosión, y pueden representar cada uno de los estadios en la evolución del Universo.

Muchos de los trabajos habituales en cosmología teórica se centran en desarrollar una mejor comprensión de los procesos que deben haber dado lugar a la Gran Explosión. La teoría inflacionaria, formulada en la década de 1980, resuelve dificultades importantes en el planteamiento original de Gamow al incorporar avances recientes en la física de las partículas elementales. Estas teorías también han conducido a especulaciones tan osadas como la posibilidad de una infinitud de universos producidos de acuerdo con el modelo inflacionario. Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el paradero de la materia oscura, mientras que una minoría, encabezada por el sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no es la gravedad sino los fenómenos del plasma, la clave para comprender la estructura y la evolución del Universo.
Filosofía, término derivado del griego, que significa ‘amor por la sabiduría’. Esta definición clásica convierte a la filosofía en una tensión que nunca concluye, en una búsqueda sin término del verdadero conocimiento de la realidad.

Rasgos de la filosofía



Es posible, sin embargo, ofrecer una descripción de la filosofía como ’saber racional totalizante, crítico de segundo grado’. La filosofía es una forma de conocimiento que pretende ofrecer explicaciones de los temas que analiza empleando la razón y los argumentos racionales (a diferencia de la fe o la autoridad). En segundo lugar, la filosofía es un saber de tipo general y totalizante, pues pretende ofrecer respuesta a cuestiones de tipo general y mantiene siempre una perspectiva totalizante sobre las mismas. En tercer lugar, la filosofía es un saber crítico, pues analiza los fundamentos de todo lo que considera y nunca se limita a aceptarlos de forma ingenua. Finalmente, la filosofía es un saber de segundo grado, que emplea los datos y contribuciones de las ciencias, que son siempre un conocimiento de primer grado sobre la realidad.


Carácter interdisciplinar e interrogativo



La filosofía es un saber eminentemente interdisciplinar, ya que emplea las aportaciones de diferentes disciplinas científicas y de distintos tipos de saber, sin limitarse a ninguno de ellos; en este sentido, la filosofía va más allá de las habituales especializaciones del saber científico. Este rasgo es una derivación de su carácter general y crítico. Debe señalarse que en filosofía posee un gran valor la actitud interrogativa, y se ha dicho que en ella son más importantes las preguntas que plantea que aquellas respuestas que pueda ofrecer: tal consideración es consecuencia del carácter crítico que caracteriza a la filosofía.

Filosofía técnica



Aunque suele afirmarse que todo hombre o mujer es un filósofo, la filosofía ha desarrollado a lo largo de su historia un conjunto de conceptos y métodos que conforman una técnica y una sensibilidad conceptual muy determinada; de ahí que sea necesario destacar el carácter técnico que posee gran parte del trabajo filosófico. Es éste un rasgo que no ha hecho sino aumentar en los dos últimos siglos, cuando el análisis filosófico se ha visto enriquecido con un elevado nivel de complejidad, que exige un conocimiento especializado.

Problemas intemporales



Es evidente que muchos de los análisis que se realizan en filosofía mantienen una cierta conexión con la sociedad y la época en la que esos análisis se han realizado. Sin embargo, muchos de los problemas filosóficos poseen un carácter general que sobrepasa el marco histórico y social en el que han surgido. Esto es lo que explica, en cierto modo, el carácter intemporal de algunas de las cuestiones filosóficas más relevantes, como es la pregunta por el ser, el sentido del cambio, el concepto de sujeto, la estructura de la trascendencia o el alcance del conocimiento.

Ramas de la filosofía



Es posible distinguir varias áreas de investigación filosófica: ontología y metafísica (análisis crítico de la estructura de la realidad); teoría del conocimiento, epistemología o gnoseología (análisis del origen, estructura y alcance del conocimiento); lógica (estudio del razonamiento o argumento válido); ética (teoría de la acción humana y de sus valores); estética (teoría de la belleza y del arte); y, por supuesto, la historia de la filosofía, en cuanto ésta no se limita a una exposición de las distintas doctrinas filosóficas, sino que pretende reconstruir críticamente determinadas argumentaciones o sistemas filosóficos. Cabe señalar, asimismo, la existencia de una variedad de análisis filosóficos de determinadas ramas de la ciencia o de la actividad humana, que constituyen áreas especializadas como son la filosofía de la historia, la filosofía de la ciencia, la filosofía del derecho o la filosofía de las ciencias sociales, entre otras.

Filosofía de la ciencia



Investigación sobre la naturaleza general de la práctica científica. La filosofía de la ciencia se ocupa de saber cómo se desarrollan, evalúan y cambian las teorías científicas, y si la ciencia es capaz de revelar la verdad de las entidades ocultas y los procesos de la naturaleza. Su objeto es tan antiguo y se halla tan extendido como la ciencia misma. Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y unos pocos, como Galileo, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos, y han preferido seguir ‘haciendo ciencia’ en vez de dedicar más tiempo a considerar en términos generales cómo ’se hace la ciencia’. Entre los filósofos, la filosofía de la ciencia ha sido siempre un problema central; dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan Aristóteles, René Descartes, John Locke, David Hume, Immanuel Kant y John Stuart Mill. Gran parte de la filosofía de la ciencia es indisociable de la epistemología, la teoría del conocimiento, un tema que ha sido considerado por casi todos los filósofos.

El problema de la inducción



Los resultados de la observación y experimentación suministran la evidencia para una teoría científica, pero no pueden demostrar que la teoría es correcta. Hasta la generalización empírica más modesta, por ejemplo que toda agua hierve a la misma temperatura, va más allá de lo que puede ser deducido de la evidencia en sentido estricto. Si las teorías científicas no expresaran más que la evidencia que suele sustentarlas, tendrían poca utilidad. No podrían ser utilizadas para predecir el curso de la naturaleza, y carecerían de poder explicativo.
El vínculo no demostrativo o inductivo entre la evidencia y la teoría plantea uno de los problemas fundamentales de la teoría del conocimiento, el problema de la inducción, dada su formulación clásica por David Hume, el filósofo escocés del siglo XVIII. Hume consideró simples predicciones basadas en observaciones pasadas, por ejemplo, un vaticinio como: el sol saldrá mañana, teniendo en cuenta que se ha observado que siempre salía en el pasado. La vida sería imposible sin anticipar el futuro, pero Hume construyó una argumentación excelente para mostrar que estas inferencias son indefendibles desde presupuestos racionales. Esta conclusión puede parecer increíble, pero la argumentación de Hume tiene todavía que ser contestada de un modo concluyente. Admitía que las deducciones inductivas han sido por lo menos razonablemente fiables hasta ahora, o no estaríamos vivos para considerar el problema, pero afirmaba que sólo podemos tener una razón para continuar confiando en la inducción si tenemos algún motivo para creer que la inducción seguirá siendo fiable en el futuro. Hume demostró entonces que tal razón no es posible. El nudo del problema es que pretender que la inducción será una garantía en el futuro es, en sí misma, una predicción y sólo podría ser justificada de manera inductiva, lo que llevaría a una cuestión de principio. En concreto, mantener que la inducción quizá funcionará en el futuro porque ha resultado útil en el pasado es razonar en círculo, asumiendo la inducción para justificarla. Si esta argumentación escéptica es válida, el conocimiento inductivo parece imposible, y no hay un argumento racional que se pueda plantear para disuadir a alguien que opina, por ejemplo, que es más seguro salir de la habitación por las ventanas que por la puerta.

El problema de la inducción se relaciona de forma directa con la ciencia. Sin una respuesta a la argumentación de Hume, no hay razón para creer en ninguno de los aspectos de una teoría científica que vaya más allá de lo que, en realidad, se ha observado. El asunto no es que las teorías científicas no resulten nunca ciertas por completo: esto es o debería ser una verdad obvia. El tema es más bien que no tenemos ninguna razón para suponer, por ejemplo, que el agua que no hemos sometido a prueba hervirá a la misma temperatura que el agua que hemos probado. Los filósofos han realizado un continuo esfuerzo para resistir a esta conclusión escéptica. Algunos han tratado de demostrar que los modelos científicos para sopesar evidencias y formular inferencias son, de algún modo, racionales por definición; otros, que los éxitos pasados de nuestros sistemas inductivos son susceptibles de emplearse para justificar su uso futuro sin caer en círculos viciosos. Un tercer enfoque sostiene que, aunque no podamos demostrar que la inducción funcionará en el futuro, sí podemos demostrar que lo hará si algún método de predicción lo hace, por lo que es razonable utilizarlo. Mediante teorías más recientes, algunos filósofos han sostenido que la actual fiabilidad de las prácticas inductivas, algo que Hume no niega, basta para proporcionar conocimiento inductivo sin otro requerimiento que el que la fiabilidad esté justificada.

Karl Popper ha aportado una respuesta más radical al problema de la inducción, una solución que constituye la base de su influyente filosofía de la ciencia. De acuerdo con Popper, el razonamiento de Hume de que las inferencias son injustificables desde una perspectiva racional es correcto. Sin embargo, esto no amenaza la racionalidad de la ciencia, cuyas inferencias son, aunque parezca lo contrario, deductivas en exclusiva. La idea central de Popper es que mientras la evidencia nunca implicará que una teoría sea verdadera, puede rebatir la teoría suponiendo que sea falsa. Así, un número de cuervos negros no implica que todos lo cuervos sean negros, pero la presencia de un único cuervo blanco supone que la generalización es falsa. Los científicos pueden, de esta forma, saber que una teoría es falsa, sin recurrir a la inducción. Además, enfrentados a una elección entre dos teorías opuestas, pueden ejercer una preferencia racional si una de las teorías ha sido refutada pero la otra no; entonces es racional preferir una teoría que podría ser verdad respecto a una que se sabe es falsa. La inducción nunca entra en escena, de modo que el argumento de Hume pierde fuerza.
Esta ingeniosa solución al problema de la inducción se enfrenta con numerosas objeciones. Si fuera cierta, los científicos nunca tendrían ningún motivo para creer que alguna de sus teorías o hipótesis son siquiera correctas por aproximación o que alguna de las predicciones extraídas de ellas es verdad, ya que estas apreciaciones sólo podrían ser justificadas por vía inductiva. Además, parece que la posición de Popper ni siquiera permite a los científicos saber que una teoría es falsa, puesto que, según él, la evidencia que podría contradecir una teoría, puede no ser nunca reconocida como correcta. Por desgracia, las inferencias inductivas que los científicos plantean no parecen ni evitables ni justificables.

El problema de la descripción



Aunque la discusión de Hume sobre la justificación de la inducción representa un hito en la historia de la filosofía, sólo ofrece una cruda descripción de cómo, para bien o para mal, los métodos inductivos funcionan en realidad. Mantenía que la inferencia inductiva es sólo un hábito de formación. Al haber visto muchos cuervos negros, de modo tácito aplicamos la regla ‘más de lo mismo’ y suponemos que el próximo cuervo que encontremos será también negro. Esto, como es evidente, no hace justicia a la práctica inferencial de los científicos, ya que éstos infieren a partir de la observación de entidades de una clase para llegar a la existencia y comportamiento de entidades de una clase muy diferente y a menudo no observable. ‘Más de lo mismo’ no llevará a los científicos desde lo que se ve en el laboratorio a la existencia de los electrones o los campos electromagnéticos. ¿Cómo comprueban entonces los científicos sus teorías, sopesan la evidencia y establecen inferencias? Este es el problema de la descripción en contraste con el problema de la justificación de Hume.

El problema descriptivo puede parecer fácil de resolver: sólo hay que preguntar a los científicos que describan lo que hacen. Es una ilusión. Los científicos pueden ser eficaces sopesando evidencias, pero no son eficaces ofreciendo una declaración de principios que recoja cómo llegan a ellos. Esto no es más sorprendente que el hecho de que los nativos de habla inglesa sean incapaces de explicar los principios por los que diferencian las oraciones gramaticales de las no gramaticales. Lo más sorprendente es cuán difícil ha sido resolver el problema de la inducción incluso para los filósofos de la ciencia que han dedicado a ello su actividad.
Quizá la forma más corriente de mostrar cómo se comprueban las teorías sea mediante el modelo hipotético-deductivo, según el cual las teorías se comprueban examinando las predicciones que implican. La evidencia que muestra que una predicción es correcta, confirma la teoría; la evidencia incompatible con la predicción, rebate la teoría, y cualquier otra evidencia es irrelevante. Si los científicos tienen una evidencia suficiente que corrobora y una no evidencia que rebate, pueden inferir que la teoría examinada es correcta. Este modelo, aunque es aproximado, parece en principio ser un reflejo razonable de la práctica científica, pero está envuelto en dificultades concretas. La mayoría de éstas demuestran que el modelo hipotético-deductivo es demasiado permisivo, al tratar evidencias irrelevantes como si aportaran certezas materiales. Para mencionar tan sólo un problema, la mayoría de las teorías científicas no implican ninguna consecuencia observable por sí misma, sino sólo al relacionarse en conjunto con otras suposiciones de base. Si no hay alguna clase de restricción sobre las suposiciones admisibles, el modelo permitiría considerar cualquier observación como evidencia para casi cualquier teoría. Esto es un resultado absurdo, pero es difícil en extremo especificar las restricciones apropiadas.

Dadas las dificultades que afronta el modelo hipotético-deductivo, algunos filósofos han reducido sus miras y han intentado dar un modelo mejor de refuerzo inductivo para una serie de casos más limitada. El caso más sencillo es una generalización empírica del tipo ‘todos los cuervos son negros’. Aquí parece claro que los cuervos negros apoyan la hipótesis, los cuervos no negros la refutan, y los no cuervos son irrelevantes. Aún así, esta modesta consideración entraña otros problemas. Supongamos que aplicamos el mismo tipo de consideración a la hipótesis un tanto exótica de que todas las cosas no negras no son cuervos. Los no negros no cuervos (flores blancas, por ejemplo) la apoyan, los cuervos no negros la refutan, y los objetos son irrelevantes. El problema surge cuando observamos que esta hipótesis equivale a la hipótesis original del cuervo; decir que todas las cosas no negras son no cuervos es sólo un modo poco usual de decir que todos los cuervos son negros. Entonces ¿cualquier evidencia que apoye una hipótesis apoya la otra? Esto nos deja, sin embargo, con la conclusión bastante extraña de que las flores blancas proporcionan la evidencia de que todos los cuervos son negros. Esta paradoja del cuervo parece un truco lógico, pero ha resultado muy difícil de resolver.

Explicación



Un reciente trabajo sobre el problema de los métodos de descripción inferencial en la ciencia ha tratado de evitar la debilidad del modelo hipotético- deductivo yendo más allá de las relaciones lógicas para responder a la conexión de la evidencia con la teoría. Algunas consideraciones intentan describir cómo la plausibilidad de teorías e hipótesis puede variar conforme se va avanzando en las comprobaciones, y han enlazado esta idea con un cálculo formal de probabilidades. Otras apelan al contenido específico de las hipótesis sometidas a comprobación, en especial las afirmaciones causales que hacen muchas de ellas. En el siglo XIX, John Stuart Mill dio cuenta de las inferencias desde los efectos a las causas que puede ser extendida para aportar un modelo de inferencia científica. Uno de los procedimientos por el que se ha intentado esa expansión ha sido recurriendo al concepto de explicación. La idea básica del modelo de inducción para la mejor explicación es que los científicos infieren desde la evidencia válida a la hipótesis que, de ser correcta, proporcionaría la mejor explicación de esa evidencia.

Si la inferencia para la mejor explicación debe de ser algo más que un eslogan, sin embargo, se requiere alguna consideración independiente de explicación científica. El punto de partida para la mayoría del trabajo filosófico contemporáneo sobre la naturaleza de la explicación científica es el modelo deductivo-nomológico, según el cual una explicación científica es una deducción de una descripción del fenómeno para ser explicada desde un conjunto de premisas que incluye, por lo menos, una ley de la naturaleza. Así, se podría explicar por qué sube el mercurio en un termómetro señalando el ascenso de la subida en la temperatura a partir de una ley que relaciona la temperatura y el volumen de los metales. El tema aquí es saber qué hace que algo sea una ley de la naturaleza, otro de los tópicos centrales de la filosofía de la ciencia. No todas las generalizaciones verdaderas son leyes de la naturaleza. Por ejemplo, la afirmación de que todas las esferas de oro tienen un diámetro de menos de diez millas es una verdad presumible pero no es una ley. Las genuinas leyes de la naturaleza parecen tener un tipo de necesidad de la que carece la afirmación sobre las esferas de oro. Describen no sólo cómo funcionan las cosas en realidad sino cómo, de algún modo, deben funcionar. Sin embargo, está lejos de ser evidente cómo tendría que articularse esta noción de necesidad.
Otra dificultad para el modelo deductivo-nomológico de explicación es que, al igual que el modelo hipotético-deductivo de comprobación, con el cual mantiene una notable similitud estructural, este modelo también es demasiado permisivo. Por ejemplo, el periodo (la duración de una oscilación) de un péndulo determinado puede deducirse de la ley que se refiere al periodo y recorrido de los péndulos en general, junto con el recorrido de ese péndulo determinado. El recorrido del péndulo es considerado de modo habitual como explicativo del periodo. Sin embargo, la deducción puede llevarse a cabo en el sentido opuesto: es posible calcular el recorrido de un péndulo si se conoce su periodo. Pero el periodo no está considerado por lo común como explicativo del recorrido del péndulo. De este modo, mientras que la deducción funciona en ambos sentidos, se considera que la explicación va sólo en un único sentido. Dificultades de esta índole han llevado a algunos filósofos a desarrollar procesos causales de explicación, según los cuales explicamos los acontecimientos aportando información sobre sus procesos causales. Este enfoque es atractivo, pero pide un análisis de causalidad, un proyecto que se enfrenta a muchas de las mismas dificultades que tenía analizar las leyes de la naturaleza. Además, se necesita decir más sobre qué causas de un acontecimiento lo explican. El Big Bang es presumiblemente parte de la historia causal de cada acontecimiento, pero no aporta una explicación adecuada para la mayoría de ellos. Una vez más, hay un problema de permisividad excesiva.

Realismo e instrumentalismo



Uno de los objetivos de la ciencia es salvar los fenómenos, construir teorías que supongan una descripción correcta de los aspectos observables del mundo. De particular importancia es la capacidad para predecir lo que es observable pero todavía no es observado, ya que una predicción precisa hace factible la aplicación de la ciencia a la tecnología. Lo que resulta más controvertido es si la ciencia debe también aspirar a la verdad sobre aquello que no es observable, sólo por comprender el mundo, incluso sin un propósito práctico. Aquellos que pretenden que la ciencia debería, y que así lo hace, ocuparse de revelar la estructura oculta del mundo son conocidos como realistas. Para éstos, las teorías tratan de describir esa estructura. Por oposición, aquellos que dicen que la labor de la ciencia es sólo salvar los fenómenos observables son conocidos como instrumentalistas, ya que para ellos las teorías no son descripciones del mundo invisible sino instrumentos para las predicciones sobre el mundo observable. La disputa entre realistas e instrumentalistas ha sido un tema constante en la historia de la filosofía de la ciencia.

Los científicos realistas no afirman que todo en la ciencia actual es correcto pero, como era de esperar, afirman que las mejores teorías actuales son poco más o menos verdaderas, que la mayoría de las entidades a las que se refieren existen en realidad, y que en la historia de la ciencia las últimas teorías en un campo concreto han estado por lo común más próximas a la verdad que las teorías que sustituían. Para los realistas, el progreso científico consiste sobre todo en generar descripciones cada vez más amplias y exactas de un mundo en su mayor parte invisible.
Algunos instrumentalistas niegan que las teorías puedan describir aspectos no observables del mundo sobre la base de que no se pueden llenar de significado las descripciones de lo que no puede ser observado. Según esta idea, las teorías de alto nivel son ingenios de cálculo sin significado literal: no son más descripciones del mundo que lo que son los circuitos de una calculadora electrónica. Otros instrumentalistas han afirmado que las teorías son descripciones, pero sólo del mundo observable. Hablar de partículas atómicas y campos gravitatorios sólo es en realidad una taquigrafía de descripciones de interpretaciones punteras y un movimiento observable. La versión contemporánea más influyente del instrumentalismo, conocida como empirismo constructivo, adopta una tercera vía. El significado de las teorías tiene que ser creído literalmente. Si una teoría parece contar una historia sobre partículas invisibles, entonces esa es la historia que se cuenta. Los científicos, sin embargo, nunca tienen derecho o necesidad de creer que esas historias son verdad. Todo lo más que puede o necesita ser conocido es que los efectos observables de una teoría -pasada, presente y futura- son verdaderos. La verdad del resto de la teoría es cómo pueda ser: toda la cuestión es que la teoría cuenta una historia que produce sólo predicciones verdaderas acerca de lo que, en principio, pudiera ser observado.

El debate entre realistas e instrumentalistas ha generado argumentos por parte de ambas escuelas. Algunos realistas han montado un razonamiento de no milagro. Realistas e instrumentalistas están de acuerdo en que nuestras mejores teorías en las ciencias físicas han tenido un notable éxito de predicción. El realista mantiene que este éxito sería un milagro si las teorías no fueran por lo menos verdaderas por aproximación. Desde un punto de vista lógico es posible que una historia falsa en su totalidad sobre entidades y procesos no observables pudiera suponer todas esas predicciones verdaderas, pero creer esto es bastante improbable y, por lo tanto, irracional. Planteado el supuesto de que a una persona se le da un mapa muy detallado, cuyo contenido describe con gran detalle el bosque en el que se encuentra, incluso muchos desfiladeros y picos de montañas inaccesibles. Examina el mapa contrastando los datos en diferentes lugares y, en cada caso, lo que ve es justo como lo pinta el mapa. Queda la posibilidad de que el mapa sea incorrecto por completo en las zonas que no ha examinado, pero esto no resulta verosímil. El realista mantiene que la situación es análoga para toda teoría científica que haya sido bien comprobada.

Los instrumentalistas han hecho numerosas objeciones al razonamiento del ‘no milagro’. Algunos han afirmado que incurre en la petición de principio, tanto como el argumento considerado con anterioridad, de que la deducción funcionará en el futuro porque ha funcionado en el pasado. Inferir del éxito observado de una teoría científica la verdad de sus afirmaciones sobre los aspectos no observables del mundo es utilizar en concreto el modo de deducción cuya legitimidad niegan los instrumentalistas. Otra objeción es que la verdad de la ciencia actual no es en realidad la mejor explicación de su éxito de observación. Según esta objeción, Popper estaba en lo cierto, al menos, cuando afirmó que la ciencia evoluciona a través de la supresión de las teorías que han fracasado en la prueba de la predicción. No es de extrañar que se piense, por lo tanto, que las teorías que ahora se aceptan han tenido éxito en cuanto a la predicción: si no lo hubieran tenido, ahora no las aceptaríamos. Así, la hipótesis que mantiene que nuestras teorías son ciertas no necesita explicar su éxito de predicción. Por último, algunos instrumentalistas recurren a lo que se conoce como la indeterminación de la teoría por los datos. No importa el grado de validez de la evidencia, sabemos que hay en principio innumerables teorías, incompatibles entre sí pero todas compatibles con esa evidencia. Como mucho, una de esas teorías puede ser verdadera. Tal vez si la objeción resulta válida, es poco probable que la teoría elegida como eficaz sea la verdadera. Desde este punto de vista, lo que sería milagroso no es que las teorías de éxito a las que llegan los científicos sean falsas, sino que sean verdaderas.

Una de los razonamientos recientes más populares de los instrumentalistas es la ‘inducción pesimista’. Desde el punto de vista de la ciencia actual, casi todas las teorías complejas con más de cincuenta años pueden ser entendidas como falsas. Esto se oculta a menudo en la historia de la ciencia que presentan los libros de texto de ciencia elementales, pero, por ejemplo, desde el punto de vista de la física contemporánea, Kepler se equivocaba al afirmar que los planetas se mueven en elipses, y Newton al sostener que la masa de un objeto es independiente de su velocidad. Pero si todas las teorías pasadas han sido halladas incorrectas, entonces la única deducción razonable es que todas, o casi todas, las teorías actuales serán consideradas erróneas de aquí a otro medio siglo. En contraste con esta discontinuidad en la historia de las teorías, según el instrumentalismo se ha producido un crecimiento constante y sobre todo acumulativo en el alcance y precisión de sus predicciones observables. Cada vez han llegado a ser mejores salvando los fenómenos, su único cometido apropiado.
Se han planteado varias respuestas a la inducción pesimista. La mayoría de los realistas han aceptado tanto la premisa de que las teorías del pasado han sido falsas y la conclusión de que las teorías actuales serán quizá falsas también. Sin embargo, han insistido en que todo esto es compatible con la afirmación central realista de que las teorías tienden a mejorar las descripciones del mundo respecto a aquéllas a las que reemplazan. Algunos realistas también han acusado a los instrumentalistas de exagerar el grado de discontinuidad en la historia de la ciencia. Se puede cuestionar también la validez de una deducción desde el grado de falsedad pretérito al actual. De acuerdo con los realistas, las teorías actuales han sustituido a sus predecesoras porque ofrecen un mejor tratamiento de la evidencia cada vez más amplio y preciso; por eso está poco claro por qué la debilidad de las viejas teorías debería ir en contra de las que las sucedan.

Objetividad y relativismo



Aunque realistas e instrumentalistas discrepan sobre la capacidad de la ciencia para describir el mundo invisible, casi todos coinciden en que la ciencia es objetiva, porque descansa sobre evidencias objetivas. Aunque algunos resultados experimentales son inevitablemente erróneos, la historia de la evidencia es en gran parte acumulativa, en contraste con la historia de las teorías de alto nivel. En resumen, los científicos sustituyen las teorías pero aumentan los datos. Sin embargo, esta idea de la objetividad y autonomía de la evidencia observacional de las teorías científicas ha sido criticada, sobre todo en los últimos 30 años.

La objetividad de la evidencia ha sido rechazada partiendo de la premisa de que la evidencia científica está, de manera inevitable, contaminada por las teorías científicas. No es sólo que los científicos tiendan a ver lo que quieren ver, sino que la observación científica es sólo posible en el contexto de presuposiciones teóricas concretas. La observación es “teoría cargada”. En una versión extrema de esta idea, las teorías no pueden ser probadas, ya que la evidencia siempre presupondrá la misma teoría que se supone tiene que probar. Versiones más moderadas permiten alguna noción de la prueba empírica, pero siguen introduciendo discontinuidades históricas en la evidencia para compararla con las discontinuidades a nivel teórico. Si todavía es posible hacer algún juicio del progreso científico, no puede ser en términos de acumulación de conocimiento, ya se trate de un enfoque teórico o desde el punto de vista de la observación.

Si la naturaleza de la evidencia cambia conforme cambian las teorías científicas, y la evidencia es nuestro único acceso a los hechos empíricos, entonces quizá los hechos también cambien. Este es el relativismo en la ciencia, cuyo representante reciente más influyente es Thomas Kuhn. Al igual que el gran filósofo alemán del siglo XVIII Immanuel Kant, Kuhn mantiene que el mundo que la ciencia investiga debe ser un mundo hasta cierto punto constituido por las ideas de aquellos que lo estudian. Esta noción de la constitución humana del mundo no es fácil de captar. No ocurre lo mismo que en la visión idealista clásica que explica que los objetos físicos concretos sólo son en realidad ideas reales o posibles, implicando que algo es considerado como objeto físico o como un objeto de cierto tipo, por ejemplo una estrella o un planeta, sólo en la medida en la que la gente así los categoriza. Para Kant, la contribución que parte de la idea y lleva a la estructura del mundo es sustancial e inmutable. Consiste en categorías muy generales tales como espacio, tiempo y causalidad. Para Kuhn, la contribución es asimismo sustancial, pero también muy variable, ya que la naturaleza de la contribución viene determinada por las teorías y prácticas concretas de una disciplina científica en un momento determinado. Cuando esas teorías y prácticas cambian, por ejemplo, en la transición desde la mecánica newtoniana a las teorías de Einstein, también cambia la estructura del mundo sobre la que tratan este conjunto de teorías. La imagen de los científicos descubriendo más y más sobre una realidad idea independiente aparece aquí rechazada por completo.

Aunque radical desde el plano metafísico, el concepto de ciencia de Kuhn es conservador desde una perspectiva epistemológica. Para él, las causas del cambio científico son, casi de forma exclusiva, intelectuales y pertenecen a una reducida comunidad de científicos especialistas. Hay, sin embargo, otras opciones actuales de relativismo sobre la ciencia que rechazan esta perspectiva de carácter interno, e insisten en que las principales causas del cambio científico incluyen factores sociales, políticos y culturales que van mucho más allá de los confines del laboratorio. Ya que no hay razón para creer que estos factores variables conducen al descubrimiento de la verdad, esta idea social constructivista de la ciencia es quizás casi más hostil al realismo científico que lo es la posición kuhniana.
Los realistas científicos no han eludido estos desafíos. Algunos han acusado a los relativistas de adoptar lo que viene a ser una posición de autocontradicción. Si, como se afirma, no hay nada que sea verdad, esta afirmación tampoco puede ser entonces verdadera. Los realistas han cuestionado también la filosofía del lenguaje latente detrás de la afirmación de Kuhn de que las sucesivas teorías científicas se refieren a diferentes entidades y fenómenos, manteniendo que el constructivismo social ha exagerado la influencia a largo plazo de los factores no cognitivos sobre la evolución de la ciencia. Pero el debate de si la ciencia es un proceso de descubrimiento o una invención es tan viejo como la historia de la ciencia y la filosofía, y no hay soluciones claras a la vista. Aquí, como en otras partes, los filósofos han tenido mucho más éxito en poner de manifiesto las dificultades que en resolverlas. Por suerte, una valoración de cómo la práctica científica resiste una explicación puede iluminar por sí misma la naturaleza de la ciencia.

Enciclopedistas



Autores de la Encyclopédie, ou dictionnaire raisonné des sciences, des arts et des métiers, par une societé de gens de lettres (Enciclopedia o tratado sistemático de las artes, las ciencias y los oficios), más conocida como Enciclopedia. La obra surgió del modesto proyecto de traducir la Cyclopaedia del inglés Chamber. El editor Le Breton encargó la traducción a Denis Diderot, el cual transformó la idea y junto con Jean-Baptiste Le-Roud d’Alembert y Louis de Jacourt realizaron un inventario de todos los conocimientos de su época. Fue editada por Denis Diderot en París entre 1751 y 1772 y recogía las opiniones más avanzadas de su tiempo en materia de filosofía, política y religión. La publicación de la obra fue suspendida varias veces por prohibiciones del Parlamento y por condenas eclesiásticas. Pero la protección de Madame de Pompadour consiguió que la obra se editara en su totalidad. En ella colaboraron muchos de los grandes escritores del momento, como Montesquieu, Voltaire, Jean Jacques Rousseau y Friedrich Melchior, baron von Grimm.

Método científico



Método de estudio sistemático de la naturaleza que incluye las técnicas de observación, reglas para el razonamiento y la predicción, ideas sobre la experimentación planificada y los modos de comunicar los resultados experimentales y teóricos.
La ciencia suele definirse por la forma de investigar más que por el objeto de investigación, de manera que los procesos científicos son esencialmente iguales en todas las ciencias de la naturaleza; por ello la comunidad científica está de acuerdo en cuanto al lenguaje en que se expresan los problemas científicos, la forma de recoger y analizar datos, el uso de un estilo propio de lógica y la utilización de teorías y modelos. Etapas como realizar observaciones y experimentos, formular hipótesis, extraer resultados y analizarlos e interpretarlos van a ser características de cualquier investigación.
En el método científico la observación consiste en el estudio de un fenómeno que se produce en sus condiciones naturales. La observación debe ser cuidadosa, exhaustiva y exacta.
A partir de la observación surge el planteamiento del problema que se va a estudiar, lo que lleva a emitir alguna hipótesis o suposición provisional de la que se intenta extraer una consecuencia. Existen ciertas pautas que han demostrado ser de utilidad en el establecimiento de las hipótesis y de los resultados que se basan en ellas; estas pautas son: probar primero las hipótesis más simples, no considerar una hipótesis como totalmente cierta y realizar pruebas experimentales independientes antes de aceptar un único resultado experimental importante.

La experimentación consiste en el estudio de un fenómeno, reproducido generalmente en un laboratorio, en las condiciones particulares de estudio que interesan, eliminando o introduciendo aquellas variables que puedan influir en él. Se entiende por variable todo aquello que pueda causar cambios en los resultados de un experimento y se distingue entre variable independiente, dependiente y controlada.
Variable independiente es aquélla que el experimentador modifica a voluntad para averiguar si sus modificaciones provocan o no cambios en las otras variables. Variable dependiente es la que toma valores diferentes en función de las modificaciones que sufre la variable independiente. Variable controlada es la que se mantiene constante durante todo el experimento.
En un experimento siempre existe un control o un testigo, que es una parte del mismo no sometida a modificaciones y que se utiliza para comprobar los cambios que se producen.
Todo experimento debe ser reproducible, es decir, debe estar planteado y descrito de forma que pueda repetirlo cualquier experimentador que disponga del material adecuado.
Los resultados de un experimento pueden describirse mediante tablas, gráficos y ecuaciones de manera que puedan ser analizados con facilidad y permitan encontrar relaciones entre ellos que confirmen o no las hipótesis emitidas.
Una hipótesis confirmada se puede transformar en una ley científica que establezca una relación entre dos o más variables, y al estudiar un conjunto de leyes se pueden hallar algunas regularidades entre ellas que den lugar a unos principios generales con los cuales se constituya una teoría.

Según algunos investigadores, el método científico es el modo de llegar a elaborar teorías, entendiendo éstas como configuración de leyes. Mediante la inducción se obtiene una ley a partir de las observaciones y medidas de los fenómenos naturales, y mediante la deducción se obtienen consecuencias lógicas de una teoría. Por esto, para que una teoría científica sea admisible debe relacionar de manera razonable muchos hechos en apariencia independientes en una estructura mental coherente. Así mismo debe permitir hacer predicciones de nuevas relaciones y fenómenos que se puedan comprobar experimentalmente.Las leyes y las teorías encierran a menudo una pretensión realista que conlleva la noción de modelo; éste es una abstracción mental que se utiliza para poder explicar algunos fenómenos y para reconstruir por aproximación los rasgos del objeto considerado en la investigación.

Tecnología



Término general que se aplica al proceso a través del cual los seres humanos diseñan herramientas y máquinas para incrementar su control y su comprensión del entorno material. El término proviene de las palabras griegas tecné, que significa ‘arte’ u ‘oficio’, y logos, ‘conocimiento’ o ‘ciencia’, área de estudio; por tanto, la tecnología es el estudio o ciencia de los oficios.
Algunos historiadores científicos argumentan que la tecnología no es sólo una condición esencial para la civilización avanzada y muchas veces industrial, sino que también la velocidad del cambio tecnológico ha desarrollado su propio ímpetu en los últimos siglos. Las innovaciones parecen surgir a un ritmo que se incrementa en progresión geométrica, sin tener en cuenta los límites geográficos ni los sistemas políticos. Estas innovaciones tienden a transformar los sistemas de cultura tradicionales, produciéndose con frecuencia consecuencias sociales inesperadas. Por ello, la tecnología debe concebirse como un proceso creativo y destructivo a la vez.

Ciencia y tecnología



Los significados de los términos ciencia y tecnología han variado significativamente de una generación a otra. Sin embargo, se encuentran más similitudes que diferencias entre ambos términos.
Tanto la ciencia como la tecnología implican un proceso intelectual, ambas se refieren a relaciones causales dentro del mundo material y emplean una metodología experimental que tiene como resultado demostraciones empíricas que pueden verificarse mediante repetición. La ciencia, al menos en teoría, está menos relacionada con el sentido práctico de sus resultados y se refiere más al desarrollo de leyes generales; pero la ciencia práctica y la tecnología están inextricablemente relacionadas entre sí. La interacción variable de las dos puede observarse en el desarrollo histórico de algunos sectores.
En realidad, el concepto de que la ciencia proporciona las ideas para las innovaciones tecnológicas, y que la investigación pura, por tanto, es fundamental para cualquier avance significativo de la civilización industrial tiene mucho de mito. La mayoría de los grandes cambios de la civilización industrial no tuvieron su origen en los laboratorios. Las herramientas y los procesos fundamentales en los campos de la mecánica, la química, la astronomía, la metalurgia y la hidráulica fueron desarrollados antes de que se descubrieran las leyes que los gobernaban. Por ejemplo, la máquina de vapor era de uso común antes de que la ciencia de la termodinámica dilucidara los principios físicos que sostenían sus operaciones. Sin embargo, algunas actividades tecnológicas modernas, como la astronáutica y la energía nuclear, dependen de la ciencia.
En los últimos años se ha desarrollado una distinción radical entre ciencia y tecnología. Con frecuencia los avances científicos soportan una fuerte oposición, pero en los últimos tiempos muchas personas han llegado a temer más a la tecnología que a la ciencia. Para estas personas, la ciencia puede percibirse como una fuente objetiva y serena de las leyes eternas de la naturaleza, mientras que estiman que las manifestaciones de la tecnología son algo fuera de control (véase los apartados de este artículo Logros y beneficios tecnológicos, y Efectos de la tecnología).

La tecnología en la antigüedad y en la edad media



La tecnología ha sido un proceso acumulativo clave en la experiencia humana. Es posible que esto se comprenda mejor en un contexto histórico que traza la evolución de los primeros seres humanos, desde un periodo de herramientas muy simples a las redes complejas a gran escala que influyen en la mayor parte de la vida humana contemporánea. Con el fin de mantener la sencillez del siguiente resumen, se tratan con mayor detalle los desarrollos del mundo industrializado, pero también se incluyen algunos desarrollos de otras culturas.

La tecnología primitiva



Los artefactos humanos más antiguos que se conocen son las hachas manuales de piedra encontradas en África, en el este de Asia y en Europa. Datan, aproximadamente, del 250.000 a.C., y sirven para definir el comienzo de la edad de piedra. Los primeros fabricantes de herramientas fueron grupos nómadas de cazadores que usaban las caras afiladas de la piedra para cortar su comida y fabricar ropa y tiendas. Alrededor del 100.000 a.C., las cuevas de los ancestros homínidos de los hombres modernos (véase Hominización) contenían hachas ovaladas, rascadores, cuchillos y otros instrumentos de piedra que indicaban que el hacha de mano original se había convertido en una herramienta para fabricar otras herramientas. Muchos miembros del reino animal utilizan herramientas, pero esta capacidad para crear herramientas que, a su vez, sirvan para fabricar otras distingue a la especie humana del resto de los seres vivos.
El siguiente gran paso de la tecnología fue el control del fuego. Golpeando piedras contra piritas para producir chispas es posible encender fuego y liberarse de la necesidad de mantener los fuegos obtenidos de fuentes naturales. Además de los beneficios obvios de la luz y el calor, el fuego también se usó para cocer cacharros de arcilla, fabricando recipientes resistentes que podían utilizarse para cocinar cereales y para la infusión y la fermentación.

La tecnología primitiva no estaba centrada solamente en las herramientas prácticas. Se pulverizaron minerales de color para obtener pigmentos, que se aplicaban al cuerpo humano, a utensilios de arcilla, a cestas, ropa y otros objetos. En su búsqueda de pigmentos, las gentes de la antigüedad descubrieron el mineral verde llamado malaquita y el mineral azul denominado azurita. Cuando se golpeaban estas menas, ricas en cobre, no se convertían en polvo, sino que se doblaban; se podían pulir, pero no partir. Por estas cualidades, el cobre en trozos pequeños se introdujo muy pronto en la joyería.
Estos pueblos también aprendieron que, si este material era forjado repetidamente y puesto al fuego, no se partía ni se agrietaba. Este proceso de eliminación de tensiones del metal, llamado recocido, fue introducido por las civilizaciones de la edad de piedra, sobre todo cuando hacia el año 3000 a.C. se descubrió también que la aleación de estaño y cobre producía bronce (véase Edad del bronce). El bronce no es sólo más maleable que el cobre, sino que también proporciona una mejor arista, una cualidad necesaria para objetos como hoces y espadas.
Aunque había depósitos de cobre en Siria y Turquía, en las cabeceras de los ríos Tigris y Éufrates, los mayores depósitos de cobre del mundo antiguo se encontraron en la isla de Creta. Con el desarrollo de barcos capaces de navegar para llegar a este recurso extremadamente valioso, Knósos (en Creta) se convirtió en un rico centro minero durante la edad del bronce.

Desarrollo de la agricultura



Cuando llegó la edad del bronce, las distintas sociedades distribuidas por cada continente habían conseguido ya varios avances tecnológicos. Se desarrollaron arpones con púas, el arco y las flechas, las lámparas de aceite animal y las agujas de hueso para fabricar recipientes y ropa. También se embarcaron en una revolución cultural mayor, el cambio de la caza y la recolección nómada a la práctica sedentaria de la agricultura.

Las primeras comunidades agrícolas surgieron al final de la glaciación más reciente (hacia el año 10.000 a.C.). Sus huellas pueden encontrarse en áreas muy lejanas entre sí, desde el sureste de Asia hasta México. Las más famosas se dieron en Mesopotamia (el Irak actual) en los valles de las riberas fértiles y templadas del Tigris y el Éufrates. El suelo de estas fértiles laderas se trabajaba con facilidad para plantar, y contaba con un gran número de árboles para obtener leña.

Hacia el año 5000 a.C., las comunidades agrícolas se establecieron en muchas partes del mundo, incluidas las áreas conocidas hoy como Siria, Turquía, Líbano, Israel, Jordania, Grecia, y las islas de Creta y Chipre. Las sociedades agrícolas construyeron en estos lugares edificaciones de piedra, usaron la hoz para cosechar los cereales, desarrollaron un arado primitivo y mejoraron sus técnicas en el trabajo con metales. También comenzó el comercio de piedras. Hacia el 4000 a.C., la agricultura se extendió desde estos centros hacia el Oeste al río Danubio en Europa central, hacia el Sur a las costas del Mediterráneo de África (incluido el río Nilo), y hacia el Este hasta el valle del Indo.

El desarrollo de la cuenca del Nilo aportó otros avances tecnológicos. En ese valle, el río se inunda al comienzo de la primavera. Tuvo que desarrollarse un sistema de irrigación y canales para regar los cultivos durante las estaciones de cosecha, cuando la lluvia es insuficiente. La propiedad de la tierra tenía que determinarse cada año mediante un sistema de medición, ya que los marcadores de la propiedad se perdían con frecuencia con las inundaciones. Los valles del Tigris y el Éufrates presentaban otros problemas tecnológicos. Las inundaciones se producían después de la estación de cosecha, por lo que era necesario aprender la técnica de construir diques y barreras para las inundaciones.

Otros descubrimientos primitivos



Para ayudar al transporte eficiente de minerales para la creciente industria del cobre se construyeron carros de dos ruedas (la rueda más antigua databa aproximadamente del año 3500 a.C. en Mesopotamia). Sin embargo, los medios de transporte más utilizados fueron los barcos de juncos y las balsas de madera, que surgieron primero en Mesopotamia y Egipto. Un resultado importante del mercado de la cerámica, los metales y las materias primas fue la creación de una marca o sello, que se usaba para identificar a los creadores o propietarios particulares.

La tecnología también comenzó a manifestar otro de sus efectos, una alteración mayor del entorno por la introducción de nuevas prácticas: por ejemplo, la demanda de leña condujo a la deforestación, y el pastoreo excesivo de ovejas y de ganado vacuno provocó que crecieran menos árboles nuevos en las tierras pobres de la región. Así, la doma de animales, la agricultura de monocultivo, la deforestación y las inundaciones periódicas llevaron a la aparición gradual de áreas desérticas.

El desarrollo de las ciudades


Después del año 4000 a.C. apareció una de las creaciones más complejas de la humanidad: la ciudad. Desde este punto de vista, la tecnología no puede describirse sólo en términos de herramientas simples, avances agrícolas y procesos técnicos como la metalurgia, ya que la ciudad es en sí misma un sistema tecnológico. Éste es un hecho evidente en los primeros símbolos escritos que se usaron para representar una ciudad: un círculo con redes de líneas que indicaban los primeros sistemas de transporte y comunicaciones.
La aparición de la ciudad hizo posible un excedente de alimentos y una abundancia de riqueza material que posibilitó la construcción de templos, tumbas y amurallamientos. La acumulación de metales preciosos, la construcción de murallas defensivas, y el control de los ejércitos y los sacerdotes aseguraron la ascendencia del rey, al que puede denominarse el primer tecnólogo urbano.
Los zigurats de Mesopotamia y las pirámides de Egipto o México simbolizan el poder organizativo y la magnitud tecnológica de los primeros asentamientos urbanos.

La construcción de estas edificaciones y monumentos enormes, el crecimiento del mercado de los productos de metal y el desarrollo de los recursos acuíferos también llevó a una normalización de los sistemas de medida. En Mesopotamia, el codo se convirtió en el patrón de longitud. El tiempo se medía en Egipto con un calendario que dividía el ciclo anual de estaciones en meses y días (véase Arqueoastronomía).
El crecimiento de las ciudades también estimuló una necesidad mayor de escribir. Los egipcios mejoraron la tabla de arcilla, que era difícil de manejar, con la fabricación de un material similar al papel sobre el cual escribían con jeroglíficos. Este material se fabricaba utilizando la planta del papiro. Además, la ciudad provocó una nueva división del trabajo: el sistema de castas. Esta estructura proporcionaba seguridad, estatus social y ocio a la clase intelectual de los escribas, médicos, profesores, ingenieros, magos y adivinadores. Sin embargo, el ejército contaba con los mayores recursos.

El auge del ejército



Las primeras ciudades fueron también construidas dentro de murallas para defenderse; estaban organizadas para la batalla y la conquista. Los centros urbanos de Ur, Nippur, Uruk, Tebas, Heliópolis, Assur, Nínive y Babilonia fueron arsenales de armamento destructivo. El objetivo de una fuerza militar era devastar la ciudad de su enemigo. Ur, en Sumeria, no fue sólo una de las primeras grandes ciudades en alzarse (hacia el 4000 a.C.), sino que también fue una de las primeras destruidas (aproximadamente en el 2000 a.C.). De modo similar, en el valle del Indo, la gran ciudad de Mohenjo-Daro fue fundada sobre el 2500 a.C. y destruida hacia el 1700 a.C. por los ejércitos de carros del norte. El mismo ejemplo se repitió en Perú y en Ecuador hacia el año 1000 a.C. y más tarde en México y Centroamérica.
La tecnología militar del mundo antiguo de desarrolló en tres fases inconexas. En la primera fase, surgió la infantería con sus cascos de piel o de cobre, arcos, lanzas, escudos y espadas. A esta fase le siguió el desarrollo de los carros, que al principio fueron vehículos pesados para el uso de los comandantes. La inclusión posterior de radios en las ruedas para aligerarlas, y un bocado y una brida para el caballo, hizo del carro una máquina de guerra ligera que podía aventajar a la infantería enemiga. La tercera fase se centró en el incremento de la movilidad y la velocidad de la caballería. Los asirios, con su conocimiento del armamento de hierro y sus espléndidos jinetes, dominaron la mayoría del mundo civilizado entre el 1200 y el 612 a.C.
Con la introducción del estribo en Asia, aproximadamente en el siglo II a.C., los jinetes eran capaces de obtener mejor estabilidad en la lucha con espada, e hicieron que los carros de guerra quedaran obsoletos. Las unidades de caballería de ataque rápido, que se observaron primero en Egipto y Persia, se convirtieron en las principales fuerzas militares. Con su aparición surgió la necesidad de mejores transportes y sistemas de comunicación. Los persas fueron los primeros en desarrollar una red de carreteras y estaciones de parada para recorrer su vasto imperio, que se extendía desde el Punjab al mar Mediterráneo.

Tecnología griega y romana



El Imperio persa de Ciro II el Grande fue derrotado y sucedido por el imperio creado por Alejandro Magno (véase Periodo helenístico). Los griegos fueron los primeros en convertirse en una potencia, a través de sus conocimientos en astilleros y comercio, y mediante su colonización de las costas del Mediterráneo. La derrota de los persas se debió en parte al poder naval griego.
Los persas y los griegos también introdujeron una nueva casta dentro de la división del trabajo: la esclavitud. Durante la edad de oro griega, su civilización dependía de los esclavos en todo lo concerniente al trabajo manual. La mayoría de los sabios estaban de acuerdo en que en las sociedades donde se practicaba la esclavitud los problemas de la productividad se resolvían mediante el incremento del número de trabajadores, antes que por los métodos nuevos de producción o nuevas fuentes energéticas. Debido a esto, los conocimientos teóricos y la enseñanza en Grecia (y posteriormente en Roma) estuvieron muy alejados del trabajo físico y de la fabricación.
Esto no quiere decir que los griegos no desarrollaran nuevas ideas tecnológicas. Arquímedes, Herón de Alejandría, Ctesías y Tolomeo escribieron sobre los principios de sifones, poleas, palancas, manivelas, bombas contra incendios, ruedas dentadas, válvulas y turbinas. Algunas contribuciones prácticas importantes de los griegos fueron el reloj de agua de Ctesías, la dioptra (un instrumento de topografía) de Herón de Alejandría y el tornillo hidráulico de Arquímedes. Del mismo modo, Tales de Mileto mejoró la navegación al introducir métodos de triangulación y Anaximandro dio forma al primer mapa del mundo. No obstante, los avances tecnológicos de los griegos no fueron a la par con sus contribuciones al conocimiento teórico.

El Imperio romano que conquistó y sucedió al de los griegos fue similar en este aspecto. Los romanos, sin embargo, fueron grandes tecnólogos en cuanto a la organización y la construcción. Establecieron una civilización urbana que disfrutó del primer periodo largo de paz en la historia de la humanidad. El primer gran cambio que se produjo en este periodo fue en la ingeniería con la construcción de enormes sistemas de obras públicas. Con el uso de cemento resistente al agua y el principio del arco, los ingenieros romanos construyeron 70.800 km de carreteras a través de su vasto imperio. También construyeron numerosos circos, baños públicos y cientos de acueductos, alcantarillas y puentes; asimismo fueron responsables de la introducción del molino de agua y del posterior diseño de ruedas hidráulicas con empuje superior e inferior, que se usaron para moler grano, aserrar madera y cortar mármol. En el ámbito militar, los romanos avanzaron tecnológicamente con la mejora de armas, como la jabalina y la catapulta (véase Artillería).

La edad media



El periodo histórico transcurrido entre la caída de Roma y el renacimiento (aproximadamente del 400 al 1500) se conoce como edad media. En contra de la creencia popular, se produjeron grandes avances tecnológicos en este periodo. Además, las culturas bizantina e islámica que prosperaron en esta época, tuvieron una importante actividad en las áreas de la filosofía natural, el arte, la literatura, la religión, y en particular la cultura islámica aportó numerosas contribuciones científicas, que tendrían gran importancia en el renacimiento europeo. La sociedad medieval se adaptaba fácilmente, y estaba dispuesta a adquirir nuevas ideas y nuevos métodos de producción a partir de cualquier fuente, viniera de las culturas del islam y Bizancio, China, o de los lejanos vikingos.

La guerra y la agricultura



En el área de la guerra, se mejoró la caballería como arma militar, con la invención de la lanza y la silla de montar hacia el siglo IV; se desarrolló también la armadura más pesada, la cría de caballos más grandes y la construcción de castillos. La introducción de la ballesta, y más tarde de la técnica de la pólvora desde China, llevó a la fabricación de pistolas, cañones y morteros (a través del desarrollo de la cámara de explosión), reduciendo de este modo la efectividad de los escudos pesados y de las fortificaciones de piedra.
Una de las máquinas más importantes de la época medieval fue el molino, que no sólo incrementó la cantidad de grano molido y de madera aserrada, sino que también favoreció la formación de molineros expertos en manivelas compuestas, levas y otras técnicas de movimiento de máquinas y combinación de sus partes con otros dispositivos. La rueda de hilado, que se introdujo desde la India en el siglo XIII o XIV, mejoró la producción de hilo y la costura de la ropa y se convirtió en una máquina común en el hogar. El hogar, en sí mismo, también se transformó con la inclusión de una chimenea, que ahorraba la madera cada vez más escasa debido a la expansión agrícola. Hacia el año 1000, los excedentes agrícolas, debidos a varias mejoras en el arado, llevaron a un incremento del comercio y al crecimiento de las ciudades. En éstas se desarrollaron las innovaciones arquitectónicas de muchos reinos, para culminar en grandiosas catedrales góticas de altos muros, posibles gracias a los arbotantes.

El transporte



Las innovaciones en el transporte durante la edad media ampliaron la difusión de la tecnología a través de grandes áreas. Algunos elementos como la herradura, el árbol de varas (para enjaezar de forma efectiva los caballos a los carros) y el coche de caballos aceleraron el transporte de personas y mercancías. Se produjeron también cambios importantes en la tecnología marina. El desarrollo de la quilla, la vela latina triangular para una mayor maniobrabilidad, y de la brújula magnética (en el siglo XIII) hicieron de los barcos veleros las máquinas más complejas de la época. El príncipe Enrique de Portugal creó una escuela para enseñar a los navegantes cómo usar correctamente estas máquinas. Quizás los estudiantes del príncipe Enrique hicieron más de lo que habían hecho las teorías astronómicas de Copérnico, al cambiar la percepción que tenía la humanidad del mundo (véase Navegación).

Otros inventos importantes


Otros dos inventos medievales, el reloj y la imprenta, tuvieron gran influencia en todos los aspectos de la vida humana. La invención de un reloj con péndulo en 1286 hizo posible que la gente no siguiera viviendo en un mundo estructurado diariamente por el curso del Sol, y cada año por el cambio de estaciones. El reloj fue además una ayuda inmensa para la navegación, y la medida precisa del tiempo fue esencial para el desarrollo de la ciencia moderna.
La invención de la imprenta, a su vez, provocó una revolución social que no se ha detenido todavía. Los chinos habían desarrollado tanto el papel como la imprenta antes del siglo II d.C., pero esas innovaciones no alcanzaron demasiada expansión en el mundo occidental hasta mucho más tarde. El pionero de la imprenta, el alemán Johann Gutenberg, solucionó el problema del moldeo de tipos móviles en el año 1450. Una vez desarrollada, la imprenta se difundió rápidamente y comenzó a reemplazar a los textos manuscritos. De este modo, la vida intelectual no continuó siendo dominio de la Iglesia y el Estado, y la lectura y la escritura se convirtieron en necesidades de la existencia urbana.

La tecnología en la edad moderna


Al final de la edad media, los sistemas tecnológicos denominados ciudades hacía mucho que eran la característica principal de la vida occidental. En 1600, Londres y Amsterdam tenían poblaciones superiores a 100.000 habitantes, y París duplicaba esa cantidad. Además, los alemanes, los ingleses, los españoles y los franceses comenzaron a desarrollar imperios mundiales. A principios del siglo XVIII, los recursos de capital y los sistemas bancarios estaban lo suficientemente bien establecidos en Gran Bretaña como para iniciar la inversión en las técnicas de producción en serie que satisfarían algunas de esas aspiraciones de la clase media.


La Revolución Industrial



Comenzó en Inglaterra porque este país tenía los medios técnicos precisos, un fuerte apoyo institucional y una red comercial amplia y variada. Los cambios económicos, incluida una mayor distribución de la riqueza y un aumento del poder de la clase media, la pérdida de importancia de la tierra como fuente fundamental de riqueza y poder, y los negocios oportunistas, contribuyeron a que la Revolución Industrial comenzara en Gran Bretaña. Las primeras fábricas aparecieron en 1740, concentrándose en la producción textil (véase Sistema industrial). En esa época, la mayoría de los ingleses usaban prendas de lana, pero en 100 años las prendas de lana ásperas se vieron desplazadas por el algodón, especialmente tras la invención de la desmotadora de algodón del estadounidense Eli Whitney en 1793. Algunas inventos británicos, como la cardadora y las máquinas de lanzadera volante de John Kay, la máquina de hilar algodón de James Hargreaves y las mejoras en los telares realizadas por Samuel Cromptom fueron integrados con una nueva fuente de potencia: la máquina de vapor, desarrollada en Gran Bretaña por Thomas Newcomen, James Watt y Richard Trevithick, y en Estados Unidos por Oliver Evans. En un periodo de 35 años, desde la década de 1790 hasta la de 1830, se pusieron en marcha en las islas Británicas más de 100.000 telares mecánicos.
Una de las innovaciones más importantes en el proceso de telares fue introducida en Francia en 1801 por Joseph Jacquard. Su telar usaba tarjetas con perforaciones para determinar la ubicación del hilo en la urdimbre. El uso de las tarjetas perforadas inspiró al matemático Charles Babbage para intentar diseñar una máquina calculadora basada en el mismo principio. A pesar de que la máquina no se convirtió nunca en realidad, presagiaba la gran revolución de las computadoras de la última parte del siglo XX.

Nuevas prácticas laborales



La Revolución Industrial condujo a un nuevo modelo de división del trabajo, creando la fábrica moderna, una red tecnológica cuyos trabajadores no necesitan ser artesanos y no tienen que poseer conocimientos específicos. Por ello, la fábrica introdujo un proceso de remuneración impersonal basado en un sistema de salarios. Como resultado de los riesgos financieros asumidos por los sistemas económicos que acompañaban a los desarrollos industriales, la fábrica condujo también a los trabajadores a la amenaza constante del despido.
El sistema de fábricas triunfó después de una gran resistencia por parte de los gremios ingleses y de los artesanos, que veían con claridad la amenaza sobre sus ingresos y forma de vida. En la fabricación de mosquetes, por ejemplo, los armeros lucharon contra el uso de partes intercambiables y la producción en serie de rifles. Sin embargo, el sistema de fábricas se convirtió en una institución básica de la tecnología moderna, y el trabajo de hombres, mujeres y niños se convirtió en otra mera mercancía dentro del proceso productivo. El montaje final de un producto (ya sea una segadora mecánica o una máquina de coser) no es el trabajo de una persona, sino el resultado de un sistema integrado y colectivo. Esta división del trabajo en operaciones, que cada vez se especificaba más, llegó a ser la característica determinante del trabajo en la nueva sociedad industrial, con todas las horas de tedio que esto supone.


Aceleración de las innovaciones


Al aumentar la productividad agrícola y desarrollarse la ciencia médica, la sociedad occidental llegó a tener gran fe en lo positivo del cambio tecnológico, a pesar de sus aspectos menos agradables. Algunas realizaciones de ingeniería como la construcción del canal de Suez, el canal de Panamá y la torre Eiffel (1889) produjeron orgullo y, en gran medida, asombro. El telégrafo y el ferrocarril interconectaron la mayoría de las grandes ciudades. A finales del siglo XIX, la bombilla (foco) inventada por Thomas Alva Edison comenzó a reemplazar a las velas y las lámparas. En treinta años todas las naciones industrializadas generaban potencia eléctrica para el alumbrado y otros sistemas.
Algunos inventos del siglo XIX y XX, como el teléfono, la radio, el automóvil con motor y el aeroplano sirvieron no sólo para mejorar la vida, sino también para aumentar el respeto universal que la sociedad en general sentía por la tecnología. Con el desarrollo de la producción en serie con cadenas de montaje para los automóviles y para aparatos domésticos, y la invención aparentemente ilimitada de más máquinas para todo tipo de tareas, la aceptación de las innovaciones por parte de los países más avanzados, sobre todo en Estados Unidos, se convirtió no sólo en un hecho de la vida diaria, sino en un modo de vida en sí mismo. Las sociedades industriales se transformaron con rapidez gracias al incremento de la movilidad, la comunicación rápida y a una avalancha de información disponible en los medios de comunicación.





Creative Commons License
Estos contenidos son Copyleft bajo una Licencia de Creative Commons.
Pueden ser distribuidos o reproducidos, mencionando su autor.
Siempre que no sea para un uso económico o comercial.
No se pueden alterar o transformar, para generar unos nuevos.

 
TodoMonografías.com © 2006 - Términos y Condiciones - Esta obra está bajo una licencia de Creative Commons. Creative Commons License