8 de octubre de 2015

FILOSOFÍA DE LA CIENCIA

FILOSOFIA DE LA CIENCIA

 Percy C. Acuña Vigil


PLATÓN

 Se puede aseverar que el concepto de Ciencia como un saber fundado en rigurosas consideraciones teóricas, es producto de la cultura griega clásica. A partir de estos inicios el mundo de la ciencia ha evolucionado.

A partir de Kant, a quien hay que considerar como un momento singular y decisivo en el deslinde riguroso entre ciencia y filosofía, el progreso de la Ciencia en general, tanto en lo que se refiere al desarrollo de las ya existentes por aquel entonces como a la proliferación de otras nuevas, lo mismo que el prodigioso afinamiento y precisión de los recursos investigativos de cada una de ellas, asciende a un grado que jamás hubieran podido sospechar sus progenitores del siglo XVI.

Immanuel Kant


La distinción fundamental entre la ciencia y la filosofía se puede hallar sin mayor esfuerzo en las preguntas decisivas que una y otra puede formular. Llamo preguntas decisivas a aquellas que confieren realidad y sentido a una disciplina del saber en cuanto tal. De este modo, a la ciencia le resulta completamente imposible formular preguntas tales como: ¿Qué es el Ser?, ¿Cómo se conoce que se conoce?, ¿en qué consisten esencialmente el tiempo y el espacio?, y etcétera. En este sentido

Kant tiene toda la razón cuando asigna a la Ciencia el sector del mundo empírico.
Sin embargo hoy no cabe duda de que la filosofía no tiene realmente nada que hacer en el mundo sensible, como no sea en forma indirecta, es decir, cuando intenta conocerlo y justificarlo a partir de las últimas instancias del ser, de la esencia, la sustancia. Mientras que la ciencia sólo puede operar en el mundo sensible, lo mismo si se trata de electrones y moléculas que de emociones y afasias.
El estado de la cuestión en la actualidad muestra que es posible conciliar en una disciplina de riguroso saber el qué y el por qué (las preguntas de la filosofía) con el cómo (la interrogación que origina la ciencia tal cual hoy se le conoce) y en esta integración, donde tanto la ciencia como la filosofía seguirían conservando su total autonomía, vendría a fundarse la Filosofía de la Ciencia.

La filosofía de la ciencia no se denominó así hasta la formación del Círculo de Viena, a principios del siglo XX. En la misma época, la ciencia vivió una gran transformación a raíz de la teoría de la relatividad y de la mecánica cuántica. Entre los filósofos de la ciencia más conocidos del siglo XX figuran Karl R. Popper y Thomas Kuhn, Paul Feyerabend, Imre Lakatos, Ilya Prigogine, etc..

Karl Popper


Hasta la década de los sesenta habían prevalecido las explicaciones lógicas de la ciencia. A partir de la obra de Thomas Kuhn (1922-1996) La estructura de las revoluciones científicas, hubo un cambio en la perspectiva y se empezaron a tener en cuenta los aspectos históricos, sociológicos y culturales de la ciencia.

El gran desarrollo de muchas disciplinas científicas ha hecho que los filósofos de la ciencia comiencen a hablar de "los métodos", ya que no es posible identificar un método único y universalmente válido. La idea heredada de la física clásica de que todo es reducible a expresiones matemáticas ha cedido terreno ante situaciones nuevas como la teoría del caos o los avances de la biología. Por otro lado han desaparecido cuestiones que llegaron a cubrir cientos de páginas y generaron grandes controversias. Quizás el caso más flagrante sea el del problema de la demarcación, centrado en la distinción entre ciencia y otros conocimientos no científicos. Prácticamente el tema desaparece después de Popper.

Frente al intento de los anteriores empiristas lógicos de formalizar las teorías de la física en el lenguaje de la lógica de primer orden, que resultaba un tanto forzado e innecesariamente complicado, Patrick Suppes fue el primero en proponer una concepción semántica y estructural de las teorías, caracterizadas como familias de estructuras conjuntistas identificadas con los modelos de la teoría. Esta manera de presentar las teorías en el lenguaje informal de la teoría de conjuntos resultaba así más intuitiva y familiar. Suppes ha elaborado sus ideas mediante el desarrollo de teorías cada vez más potentes sobre las estructuras teóricas, incluyendo sus importantes teoremas de representación e invariancia.

En filosofía de la ciencia se conoce a veces como estructuralismo el programa de reconstrucción de las teorías físicas propuesto por Joseph D. Sneed (1938) en 19716 como una síntesis del aparato formal de Suppes, del racionalismo crítico y del positivismo lógico con la corriente historicista de la ciencia. El estructuralismo fue reelaborado y divulgado por Wolfgang Stegmüller (1923-1991) y Carlos Ulises Moulines (1946). De la consideración de las teorías como estructuras le viene a esta propuesta metodológica el nombre de estructuralismo, que no tiene nada que ver con el estructuralismo lingüístico de Saussure.

Junto con las restricciones empíricas, una teoría consta de una estructura conceptual y de un ámbito de aplicación. Puesto que las teorías no se presentan aisladas sino interrelacionadas también es necesario estudiar las relaciones entre teorías, las redes teóricas. Entre estas relaciones encontramos la de reducción, quizá la más destacada por su papel en la unidad de la ciencia. A pesar de las múltiples teorías que puedan coexistir para explicar los mismos hechos, la unidad ontológica de la ciencia puede salvarse si todas ellas son reductibles a una sola teoría (o a unas pocas no inconmensurables entre sí).

 Esta relación interteorética desempeña un papel fundamental, por ejemplo, en el trabajo de los físicos en su búsqueda de la Teoría del todo. Moulines propone una definición recursiva de la filosofía de la ciencia como teorización sobre teorizaciones, cuya epistemología no es descriptiva ni prescriptiva, sino interpretativa. Las teorías de la ciencia son construcciones culturales, pero ello no implica que la filosofía de la ciencia sea sustituida por una sociología de la ciencia.

Aparte del estructuralismo de Sneed y sus seguidores, también otros desarrollos de la filosofía de la ciencia contemporánea han sido influidos por las ideas y métodos conjuntistas y probabilistas introducidos por Suppes. Bas van Fraassen ha aportado su conocida concepción semántica de las teorías, que ha aplicado al análisis de la mecánica cuántica. Jesús Mosterín y Roberto Torretti han hecho contribuciones en esta dirección, que asimismo aflora en el diccionario conjunto de estos dos autores.

El debate sobre el realismo de la ciencia no es nuevo, pero en la actualidad aún está abierto. Bas C. Van Fraasen (1941), empirista y uno de los principales oponentes del realismo, opina que todo lo que se requiere para la aceptación de las teorías es su adecuación empírica. La ciencia debe explicar lo observado deduciéndolo de postulados que no necesitan ser verdaderos más que en aquellos puntos que son empíricamente comprobables. Llega a decir que "no hay razón para afirmar siquiera que existe una cosa tal como el mundo real". Es el empirismo constructivo, para el que lo decisivo no es lo real, sino lo observable.

Laudan y Giere presentan una postura intermedia entre el realismo y el subjetivismo estrictos. Laudan opina que es falso que sólo el realismo explique el éxito de la ciencia. Giere propone que hay ciencias que presentan un alto grado de abstracción, como la mecánica cuántica, y utilizan modelos matemáticos muy abstractos. Estas teorías son poco realistas. Las ciencias que estudian fenómenos naturales muy organizados como la biología molecular, utilizan teorías que son muy realistas. Por ello no se puede utilizar un criterio uniforme de verdad científica.

Rom Harré (1927) y su discípulo Roy Bhaskar (1944) desarrollaron el realismo crítico, un cuerpo de pensamiento que quiere ser el heredero de la Ilustración en su lucha contra los irracionalismos y el racionalismo reduccionista. Destacan que el empirismo y el realismo conducen a dos tipos diferentes de investigación científica. La línea empirista busca nuevas concordancias con la teoría, mientras que la línea realista intenta conocer mejor las causas y los efectos. Esto implica que el realismo es más coherente con los conocimientos científicos actuales.

Dentro de la corriente racionalista de oposición al neopositivismo se encuentra a Mario Bunge (1919). Analiza los problemas de diversas epistemologías, desde el racionalismo crítico popperiano hasta el empirismo, el subjetivismo o el relativismo. Bunge es realista crítico. Para él la ciencia es falibilista (el conocimiento del mundo es provisional e incierto), pero la realidad existe y es objetiva. Además se presenta como materialista , pero para soslayar los problemas de esta doctrina apostilla que se trata de un materialismo emergentista.

Robert K. Merton (1910-2003) se considera el fundador de la sociología de la ciencia en los años cuarenta, luego muy influida por los trabajos de Kuhn, 'La estructura de las revoluciones científicas', 1962 y 1969. La aportación básica para la filosofía de la ciencia fue introducir el término paradigma como supuestos teóricos generales: leyes más técnicas en una comunidad científica determinada, donde un antiguo paradigma es total o en parte reemplazado y se llama revolución científica este proceso y el cambio no es de forma acumulativa, sino paradigmático.

La primera sociología distinguía unos factores internos de la propia ciencia (metodología, objetivos, etc.) que eran independientes de otros factores externos (sociológicos, políticos, etc.) no pertenecientes a la ciencia. Pero una parte de la sociología de la ciencia posterior prescindió de esta distinción. David Bloor (1913) y Barry Barnes son los principales exponentes. Afirman que los científicos son personas que se pueden ver tan afectadas por los factores sociológicos que debemos pensar que todas las creencias son igualmente problemáticas.

Bruno Latour (1947) y Steve Woolgar proponen un concepto antropológico de la ciencia y, por tanto, su estudio por esta disciplina. Junto con las influencias antropológicas, aúnan también corrientes filosóficas como el pragmatismo, para crear algo así como una epistemología alternativa.

Atendiendo a las críticas de Thomas Kuhn y otros historiadores de que la filosofía de la ciencia con frecuencia se ocupa de problemas artificiosos y alejados de la ciencia real, diversos filósofos de la ciencia contemporáneos han tratado de aproximar sus análisis a la problemática actual de la investigación científica. Ello ha tenido como consecuencia tanto la revitalización de la filosofía general de la ciencia como el desarrollo de varias ramas especializadas de la misma: Filosofía de la física, de la mecánica cuántica, de la cosmología, de la biología, etc.

A ambas tareas han contribuido filósofos como John Earman, Bernulf Kanitscheider, Jesús Mosterín, Lawrence Sklar, Elliott Sober, Roberto Torretti y Bas C. van Fraassen, así como numerosos científicos, como Lee Smolin.

Referencias básicas. 

Bunge, M. (2000). La investigación científica. Siglo XXI.
Cassirer, E. El problema del conocimiento en la filosofía y en la ciencia modernas, México, FCE, 1979, 4 vols.
Feyerabend, P. (1975). Contra el método. Esquema de una teoría anarquista del conocimiento. Barcelona. Tecnos.
Kühn, Th. (1981). La estructura de las revoluciones científicas. México. Fondo de Cultura Económica.
Lakatos, I. (1983). La metodología de los programas de investigación científica. Alianza Universidad. Madrid. 84-206-2349-0.
Lyotard, J.F. (1994). La condición postmoderna: informe sobre el saber. Madrid, Cátedra.
Popper, Karl (1980). La lógica de la investigación científica. Madrid Tecnos
Popper, Karl (2005). Conocimiento objetivo: un enfoque evolucionista. Madrid.Tecnos..
Putnam, H. (1988). Razón, verdad e historia. Madrid. tecnos.
Quine, Willard Van Orman (2001). Acerca del conocimiento científico y otros dogmas. Barcelona. Paidós: I.C.E. de la Universidad Autónoma de Barcelona.



Alain Finkielkraut: La derrota del pensamiento



El ensayista francés Alain Finkielkraut es conocido sobre todo por La Derrota del pensamiento, una obra en la que protesta contra la banalización de la cultura y defiende los valores de la modernidad. 

Hijo único de un marroquinero judío polaco deportado a Auschwitz, Alain Finkielkraut nació en París en 1949. En la actualidad es profesor de la prestigiosa Ecole Polytechnique de París y se lo reconoce como uno de los filósofos más brillantes de su generación. Entre la docena de ensayos que ha publicado se destacan El judío imaginario (1981), La sabiduría del amor (1984), La humanidad perdida (1996) y La derrota del pensamiento (1987). Finkielkraut, discípulo de Hannah Arendt, Lévinas y Kundera, y cofundador, junto a Bernard-Henri Lévy, del Centro de Investigaciones y Estudios Levinasianos, es ante todo un intelectual de la incomodidad, enfrentado con las ideas bien pensantes.

El comentario del capitulo “Un par de botas equivalente a Shaskespeare” analiza como los valores de unos y otros grupos difieren enormemente en función de sus necesidades más inmediatas. De esta forma los europeos más acomodados y despreocupados mayoritariamente, disfrutan de su pasado cultural o bien intentan crear una nueva diversión- ocio, que le permitan disfrutar todo lo bueno de la vida. Por otro lado tenemos a los emigrantes de esos países tercermundistas donde su finalidad más inmediata e importante, en muchos casos, es la de encontrar sustento cada día.

“Los herederos del tercermundismo no son os únicos que precolizan la transformación de las naciones europeas sociedades multiculturales. Los profetas de la postmodernidad exhiben actualmente el mismo ideal. Pero mientras los primeros, frente a la arrogancia occidental, defienden la igualdad de todas las tradiciones, los segundos, para oponer los vértigos de la fluidez a las virtudes del arraigo” Este fin de siglo ha puesto al descubierto que las ideologías radicales, las posturas recalcitrantes y los fenómenos de exclusión nuevamente cobran vigencia.

El racismo y la intolerancia son alimentados por prejuicios y estereotipos, odios ancestrales y rechazo a una vida colectiva basada en la pluralidad y la convivencia solidaria. Con la creciente globalización, las migraciones y los avances tecnológicos, las tendencias cruzan fronteras y se expanden de forma tal que diversos sectores de la sociedad se vuelven vulnerables a su impacto.

La intolerancia no ha sido particularidad de una cultura o un período determinado. Es un fenómeno que ha estado presente en la historia humana ocasionando guerras, persecuciones religiosas y violentas confrontaciones ideológicas, ya que toda cultura tiende a defender los elementos que forjan su identidad, reaccionando ante el otro con suspicacia u hostilidad.

A pesar de lo anterior, resulta paradójico que en esta época en que la democracia se ha convertido en un paradigma a nivel mundial, estemos presenciando el resurgimiento de comportamientos discriminatorios y violentos que amenazan la coexistencia armónica.

Las naciones posmodernas no son homogéneas; más aún, se caracterizan por su diversidad de intereses, valores y conductas. Una sociedad plural no sólo debe tolerar modos de vida antagónicos sino que debe considerar que su misma existencia es un valor importante
Si pretendemos construir sociedades multiculturales en las que se legitime la presencia de las diversas minorías, es menester promover una cultura de la tolerancia que legitime el derecho a las diferencias, que impulse el diálogo y fomente el conocimiento mutuo.

“¿que quiere el pensamiento posmoderno? Lo mismo que las Luces: hacer independientes al hombre, tratarle como un adulto, en resumen, para usar palabras de Kant, sacarle de la condición de minoría de edad de la que el mismo es responsable” El posmodernismo, cita John Daniel, es difícil de definir; 

"No creé en la narrativa general, pone en duda la posibilidad del orden y niega que exista el comportamiento objetivo. El posmodernismo surgió primero en arquitectura; como un mosaico de elementos y estilos de cualquier procedencia.


A partir de la arquitectura el posmodernismo se difundió a la mayoría de las áreas de las ciencias humanas y sociales, recogiendo por el camino más y más elementos que añadir al mosaico. Es una mezcla relativa sin un núcleo central. Para explicar un poco más el término, John Daniel recurre a dos conceptos previos a la posmodernidad: la premodernidad y la modernidad.En el mundo premoderno todo lo significativo derivaba de la autoridad y la tradición ejercía una fuerte influencia en el comportamiento de los individuos. Los posmodernistas citan a la Iglesia Católica Romana como un ejemplo de institución premoderna. La explicación de las cosas se asumía como un dogma de fe.

 "A la premodernidad siguió la modernidad, que derivaba su inspiración e impulso del humanismo del Siglo de las Luces (siglo XVIII). El Siglo de las Luces rechazaba la autoridad y la tradición, sustituyéndolas con la razón y la ciencia. Los individuos autónomos pueden hallar significado y verdad mediante la razón y la ciencia, lo cual conduce en forma natural a la idea de progreso y a una actitud que valoriza tanto lo novedoso como lo racional. Mediante el uso de la razón y la ciencia podemos descubrir conocimientos novedosos que sean objetivamente verdad."

 En el mundo moderno la razón iluminaba la ignorancia del hombre sobre el mundo y la palabra constituía una referencia obligada para formalizar el conocimiento. De ahí el surgimiento de leyes y teorías universales que intentaba no sólo explicar el mundo sino también predecirlo.

Hoy en día el posmodernismo adopta una visión bastante diferente." Rechaza la idea del individuo autónomo y soberano y se centra, en cambio, en nuestra experiencia colectiva anónima y anárquica. 

Desaprueba las distinciones y hace hincapié en cómo se amalgaman las cosas (...) Debemos conformarnos con mininarrativas acerca de pequeños trechos de nuestra experiencia, sin pretender que tenga carácter universal. Los posmodernistas se oponen a las grandes narrativas porque ya no son creíbles. Para ello la historia sangrienta y los múltiples horrores del siglo XX demuestran que el avance de la humanidad es mera ilusión (...) El modernista considera que el saber es importante de por sí, porque resulta de la aplicación de la razón y de la ciencia. Para el posmodernista, el único valor del conocimiento es funcional. Está allí para ser utilizado. El saber posmodernista es un conocimiento que puede ser almacenado en un ordenador. Lo demás es ruido.

Los posmodernistas socavan la importancia del conocimiento señalan que cada quien construye con sus propios juegos lingüísticos la realidad. Por ello la existencia de juicios universales se vuelven cada vez más difícil.

En tanto el posmodernismo, con su énfasis en el relativismo y la fragmentación, se opone a la esencia de la noción de que hay derechos humanos universales. "Si todas las culturas están en pie de igualdad en cuanto a validez, entonces, ¿cuál es la razón del concepto de que un derecho humano desarrollado en una determinada cultura habría de ser aplicado en otra?"

El capitulo “Su majestad el consumidor”, como idea central se destaca que el consumo es una parte importante de la nueva cultura social, es un habito que se desarrolla desde su más tierna infancia. El consumidor desea consumir en cantidad, diversidad y calidad.

El desarrollo económico y político actual se caracteriza, según el últimoinforme del Worldwatch "La Situación del Mundo 2004" (Icaria/FUHEM), mas que por la victoria del capitalismo y la democracia sobre el comunismo, por el consumismo. El consumismo hoy domina la mente y los corazones de millones de personas, sustituyendo a la religión, a la familia y a la política. El consumo compulsivo de bienes es la causa principal de la degradación ambiental. El cambio tecnológico nos permite producir más de lo que demandamos y ofertar más de lo que necesitamos.

El consumo y el crecimiento económico sin fin es el paradigma de la nueva religión, donde el aumento del consumo es una forma de vida necesaria para mantener la actividad económica y el empleo. El consumo de bienes y servicios, por supuesto, es imprescindible para satisfacer las necesidades humanas, pero cuando se supera cierto umbral, que se sitúa en torno a los 7.000 euros anuales por persona, se transforma en consumismo.
“…hubiera sido inconcebible para el burges del siglo xx extasiarse ante un par de botas o aplicar el calificativo genial a un caballo de competición . Pero lo que insopiraba dicho rechazo era el utilitarismo y no el humanismo, la desconfianza manifiesta respecto a cualquier forma de ocio…”

Hemos caído en la falsa diversión, en los falsos libertinajes, vivimos en una sociedad donde reina la apariencia y la falsía; una sociedad que parece haber perdido todos sus valores. Entre más adelantos ha tenido la ciencia, el mundo se ha mecanizado más y el hombre actual, entretenido con las máquinas y con lo que él mismo crea, se ha olvidado de sí mismo. El hombre actual se ha convertido en una máquina y el ser humano vive vacío aunque parezca que tuviera mucho..., le faltan los principios, la moral y el amor consigo mismo y con sus semejantes y es ahí cuando buscamos salidas o caminos a nuestros problemas y nos refugiamos en algún tipo de adicción... y es lo que sucede en este lugar somos adictos, hemos creado una necesidad psicológica y tal vez física...

  “ el hombre democrático se concibe a sí mismo como un ser independiente, como un ser independiente, como un átomo social: separado a la vez de sus antepasados, de sus contemporáneos y de sus descendientes, se preocupa, em primer lugar de proveer a sus necesidades privadas y se pretende igual al resto de los hombres”

El ultimo capitulo “Una sociedad finalmente convertida en adolescente”, la idea principal gira en torno a que los jóvenes son los cimientos de la nueva cultura, se les intenta inculcar los valores aceptados, ellos intentan cambiarlos, puede haber contradicciones pero, al final hay un consenso generalizado por todos. El Capitalismo que adopta nuevas formas de dominación nacidas de una nueva correlación de fuerzas. Un nuevo modelo económico, político y social, el neoliberalismo, nacido de la reestructuración del modo de producción capitalista, lo que unido al colapso de las primeras experiencias socialistas, nos sitúa en una nueva etapa, en la cual todos los ámbitos se encuentran afectados, y "nuevos" o "viejos" modelos se sitúan en el ojo del huracán del debate sobre su validez como alternativas a los grandes problemas que a lo largo y ancho del mundo abren interrogantes sin respuestas.

Corresponde analizar en que momento histórico nos encontramos, como funciona actualmente el sistema, como han variado los sujetos de transformación, como ha sido capaz el capitalismo de cambiar todo para que todo siga igual.

“En la lógica del consumo, por el contrario, la libertad y la cultura se definen por la satisfacción de las necesidades y, por tanto, no pueden proceder de una ascesis. La idea de que el hombre, para ser un sujeto por completo, debe romper con la inmediatez del instinto y de la tradición, desaparece de los propios vocablos que eran sus portadores”.

 De ahí la crisis actual de la educación…

” El proceso educativo está sufriendo modificaciones dentro del marco actual de desarrollo del capitalismo.  Los ataques que sufre la educación pública van encaminados a ponerla al servicio de los intereses y beneficios empresariales y para la venta de la universidad al capital financiero. La privatización de la educación, en definitiva, responde a la política del modelo neoliberal de venta de los servicios públicos para el beneficio privado.

Este proyecto de "educación de mercado" pretende eliminar cualquier resquicio de democracia en la educación haciendo de los órganos de gobierno elementos autoritarios y poniendo muchos de ellos al servicio de las empresas. Se pretende además cerrar la educación  a cualquier tipo de realidad social y política, cercenando la participación, el debate y la crítica de los estudiantes.Se articulan mediadas legislativas para consagrar la participación del capital financiero en la educación ya sea por la gestión de los recursos o por la financiación de los mismos.Pretende a su vez, acabar definitivamente con la igualdad de oportunidades a la hora de acceder a los estudios superiores, planteando un modelo a lo yanqui de competitividad entre universidades. Conduce por tanto, a la elitización de unas, las situadas en los centros de poder económico, y la degradación de otras, las situadas en zonas obreras o rurales.

Este planteamiento dificulta e impide el acceso de los hijos de los trabajadores a la educación superior. Se implantan modelos como el de los créditos-renta en el cual los estudiantes dependen de los bancos para poder pagar su derecho a la educación cuestionando abiertamente la gratuidad de este derecho y con el objetivo de acabar con las becas o cualquier tipo de ayuda pública al estudio. Se supedita al principio del beneficio empresarial y los intereses privados la mayoría de las prácticas de investigación mediante el patrocinio de las mismas a través del uso de los recursos y las infraestructuras públicas por las grandes corporaciones.

La imposibilidad de encontrar trabajo a partir de las titulaciones elementales obliga a los estudiantes a completar su formación a través de los cursos de postgrado y los masters, que se establecen como complementos obligatorios y necesarios de formación que expanden de manera ilimitada la educación no reglada en manos privadas y a precios prohibitivos. A esto se unen las prácticas gratuitas y sin derechos que patrocinan las empresas como vía obligatoria para acceder a puestos de trabajo.

“¿Que ha ocurrido, pues? Por muy enigmatico que resulte, el delirio del que habla Fellini, no ha surgido de la nada, el terreno estaba preparado y puede decirse que el largo proceso de reconversión al hedonismo del consumo emprendido por loas sociedades occidentales culmina hoy con la idolatría de los valores juveniles 

Son ya bastantes los pensadores de final del siglo XX que señalan como notas características de este tiempo el consumo y el hedonismo. En este sentido los jóvenes son un pueblo de reciente aparición que se impone con sus músicas, su cultura y sus costumbres, de manera que la juventud parece constituir el imperativo categórico de todas las generaciones. Así recuerda el grito “¡El Burgués ha muerto, viva el Adolescente!”.

El primero sacrificaba el placer a las riquezas y a la apariencia moral, el segundo se quita la careta y quiere divertirse ante todo y escapar de los deberes de escuela de cualquier naturaleza por la vía del ocio y de las libertades. Y ésta es la manera de que la industria cultural y el comercio de la sociedad de consumo encuentran, en este recidivo “puerilismo”, el clima adecuado para ampliar la clientela...

La evolución histórica con sus impresionantes progresos va congregando razas y etnias, lenguas y culturas, creencias e ideologías en esa aldea global que hace más patente nuestro tiempo el pluralismo humano como una realidad constitutiva de la convivencia mundial.

Pluralismo y puerilismo. Pluralismo, o si se quiere “interculturalidad”, como reconocimiento de nuestra condición en el respeto a la diversidad de las personas y de los pueblos, pero que debería ayudarnos a madurar en la conciencia de la solidaridad y de la pertenencia a una misma familia que corre una suerte común que nos afecta a todos. Es un reto para el crecimiento en niveles de humanidad ante las relaciones de los seres humanos en cualquier parte del mundo, a fin de acudir en su socorro cuando se trate de desgracias y compartir bienes para poder crecer juntos en todo caso.

(Alain Finkielkraut)
Consultar en mi Blog: Magister Ludi 
Consultar en este Blog: La Ingratitud.

7 de octubre de 2015

LA METAMORFOSIS DE LOS NEUTRINOS: PREMIO NOBEL 2015


El momento de anuncio de los ganadores / AFP (REUTERS/LIVE)

El japonés Takaaki Kajita y el canadiense Arthur McDonald han recibido hoy el Premio Nobel de Física por el descubrimiento de la oscilación de los neutrinos, lo que demuestra que estas partículas tienen masa.

El hallazgo de ambos físicos “ha cambiado nuestra comprensión del funcionamiento más profundo de la materia y puede ser crucial para nuestra visión del universo”, ha dicho la Academia de Ciencias Sueca, que cada año otorga este galardón.

Kajita trabaja en el experimento Super Kamiokande y está afiliado a la Universidad de Tokio. McDonald está adscrito a la Queen’s University de Canadá.

Los neutrinos han sido las partículas más misteriosas del universo. Cada segundo, billones de ellos atraviesan nuestro cuerpo, nuestras casas y el resto del planeta sin dejar rastro alguno, lo que les ha valido el apodo de fantasmas. Parte de ellos se crean en la atmósfera terrestre cuando incide en ella la radiación cósmica y otros son producidos en reacciones nucleares dentro del Sol. Los únicos lugares donde son visibles es en descomunales detectores instalados debajo de montañas, en viejas minas y otros lugares naturalmente protegidos contra cualquier tipo de interferencia por parte de otras partículas más pesadas. Los neutrinos son tan rápidos y ligeros que se pensaba que no tenían masa. 

Hasta los descubrimientos de McDonald y Kajita, se calculaba que gran parte de ellos desaparecen sin explicación posible.

En 1998, Kajita observó la oscilación de los neutrinos gracias al Super Kamiokande, una descomunal piscina con 50.000 toneladas de agua construida a un kilómetro bajo tierra en Japón. En algunas raras ocasiones, cuando un neutrino atraviesa el agua, interactúa con los electrones de este líquido lanzando un destello de luz que permite estudiar su trayectoria y propiedades. Kajita se centró en los neutrinos que llegan desde la atmósfera y observó que estos oscilan entre dos estados o tipos diferentes. Por su parte, McDonald trabajó a más de dos kilómetros bajo tierra, en una vieja mina de níquel de Ontario (Canadá) reconvertida en el Observatorio de Neutrinos de Sudbury. Gracias a esta instalación, en 2001 comprobó que los neutrinos que se producen en el Sol no estaban desapareciendo en su camino hacia la Tierra, sino que simplemente habían cambiado de tipo, oscilando entre uno y otro igual que los neutrinos atmosféricos detectados en Japón.

Esta metamorfosis se da entre los tres tipos de neutrinos conocidos y explica por qué dos tercios de todas estas partículas, que deberían estar llegando a la Tierra según los cálculos teóricos, no estaban siendo detectadas. Los descubrimientos de ambos físicos explican que estas partículas no desaparecen, sino que oscilan entre tres estados diferentes a los que los físicos llaman sabores y cuya dinámica está regida por la mecánica cuántica.

Los descubrimientos de Kajita y McDonald implican que, a pesar de su fantasmagórica presencia, los neutrinos tienen masa, al contrario de lo que se había pensado durante décadas. Aún se ignora cuál es su masa exacta, especialmenrte porque esta cambia cuando se produce la metamorfosis. Más aún, el modelo estándar, que describe a la perfección el mundo subatómico de la física de partículas y que incluye el bosón de Higgs, se queda corto para explicar al neutrino. Según los cálculos de este modelo, no debería tener masa. Por eso el trabajo de McDonald y Kajita aporta uno de las mayores indicios de que hay una nueva física en el universo que está por descubrir.

Tal como ha afirmado la propia Fundación Nobel, que entrega los premios cada año, «para la física de partículas es un descubrimiento histórico», puesto que «ha demostrado que el modelo estándar (una teoría básica que describe las relaciones entre las interacciones físicas conocidas y las partículas elementales que componen toda la materia) no puede ser la teoría completa de los constituyentes fundamentales del Universo». Sin embargo, varios físicos coinciden en que, en realidad, el reconocimiento no premia un descubrimiento puntual, sino una investigación que comenzó en la década de los sesenta y que revolucionó la teoría hace diez años.

«Estos premios se hacen eco de uno de los descubrimientos más importantes de las últimas décadas.

Y este no es otro que la demostración de que los neutrinos oscilan, lo que demuestra que tienen masa», explica Juan José Gómez Cadenas, investigador del Instituto de Física Corpuscular del CSIC y experto en neutrinos, a través de una conversación telefónica.

«Los modelos físisicos predecían que los neutrinos no tenían masa. Serían como la "basurita" última de la naturaleza y por eso tendrían un rol muy humilde. Pero al confirmarse que tienen masa, de repente adquieren propiedades muy misteriosas. Podrían ser su propia antipartícula. Podría ser que el neutrino fuera el agente que causó el pequeño exceso de materia en el Universo primario. Este exceso podría haber sido el disparador inicial que permitió que ocurriera un evento clave: el dominio de la materia sobre la antimateria».


Antimateria: «el lado oscuro» de la materia


¿En qué consiste este dominio? Justo después del Big Bang, la antimateria y la materia, que se diferenciaban solo en que tenían cargas opuestas, colisionaban y se aniquilaban liberando grandes cantidades de energía, cosa que hoy en día puede reproducirse a pequeña escala en aceleradores de partículas como el CERN. Pero, a partir de un momento dado y por un motivo no del todo claro, los físicos creen que esa energía comenzó a «condensarse» en forma de materia gracias a que el equilibrio entre estos antagonistas se descompensó, y se inclinó del lado de la materia. Por todo ello, en definitiva, Gómez Cadenas considera que «los neutrinos podrían ser la razón por la que ahora estamos hablando».


¿De dónde vienen los neutrinos?


Durante muchos años, los investigadores estudiaron las partículas más escurridizas del catálogo de la física. Apenas interaccionan con la materia convencional, así que son capaces de atravesar la Tierra y todo lo que haya en ella con total impunidad. Además, lo hacen a una velocidad próxima a la de la luz y en una cantidad ingente: se calcula que pasan del orden de 100.000 millones de neutrinos por la uña de un pulgar en tan solo un segundo.

Además de escurridizas, detectarlas requiere usar sensores muy refinados y evitar las interferencias que causan otros fenómenos naturales. Así que los científicos deben acudir a las profundidades de las minas o a potentes observatorios, como el detector Super-Kamiokande, en Japón, o el Observatorio de Neutrinos de Sudbury, en Canadá, situados en las profundidades.

A pesar de todas estas dificultades, los investigadores pudieron esclarecer el origen de estas partículas, y descubrieron que procedían del Sol y las estrellas, y que también se producían en las capas altas de la atmósfera, donde los rayos cósmicos de alta energía procedentes del espacio interaccionan con ella y provocan reacciones nucleares.


Una anomalía desconcertante


Así las cosas, durante muchos años hubo una «anomalía», porque había una discrepancia entre los neutrinos que se detectaban y los que el modelo predecía que debían detectarse. «Durante mucho tiempo se pensó que había fallos en estas predicciones y/o en los propios experimentos que detectaban la cantidad de neutrinos. Pero gracias a los trabajos premiados hoy, se descubrió por qué ocurría. Y es que en su camino del Sol a la Tierra, los neutrinos oscilan, unos se convierten en otros, como si un viajero saliera llamándose Juan y llegara llamándose Pepe», explica Gómez Cadenas.

Y así, una partícula que pasa sin pena ni gloria por nuestro día a día, de forma literal, revolucionó la física teórica. Héctor Socas, experto en física solar en el Instituto de Astrofísica de Canarias, pone un ejemplo de la importancia que tuvo este hallazgo: «Hasta estos descubrimientos, la física estelar estaba en duda a causa de esta anomalía en los neutrinos. No sabíamos si nuestros modelos estaban mal». Hoy en día, ese gran reactor que es el Sol sigue produciendo enormes cantidades de energía

Los fotones que libera tardan hasta un millón de años en abandonar sus entrañas. Sin embargo, los neutrinos, esas partículas escurridizas que apenas interaccionan con la materia «normal», resbalan por su interior y tardan un poco más de ocho minutos en llegar a la Tierra.


Tres preguntas a un físico de partículas



Qué son los Neutrinos:


A schematic of a neutrino's journey from the neutrino beamline at J-PARC, through the near detectors (yellow dot) which are used to determine the properties of the neutrino beam, and then 295

Los neutrinos (término que en italiano significa ‘pequeños neutrones’, inventado por el científico italiano Enrico Fermi) son partículas subatómicas de tipo fermiónico, sin carga y espín 1/2. Desde hace unos años se sabe, en contra de lo que se pensaba, que estas partículas tienen masa, pero muy pequeña, y es muy difícil medirla. Hoy en día (2015), se cree que la masa de los neutrinos es inferior a unos 5,5 eV/c2, lo que significa menos de una milmillonésima de la masa de un átomo de hidrógeno. Su conclusión se basa en el análisis de la distribución de galaxias en el universo y es, según afirman estos científicos, la medida más precisa hasta ahora de la masa del neutrino. Además, su interacción con las demás partículas es mínima, por lo que pasan a través de la materia ordinaria sin apenas perturbarla.

La masa del neutrino tiene importantes consecuencias en el modelo estándar de física de partículas, ya que implicaría la posibilidad de transformaciones entre los tres tipos de neutrinos existentes en un fenómeno conocido como oscilación de neutrinos.

En todo caso, los neutrinos no se ven afectados por las fuerzas electromagnética o nuclear fuerte, pero sí por la fuerza nuclear débil y la gravitatoria.


Referencia en la Web


The first use of a hydrogen bubble chamber to detect neutrinos, on November 13, 1970. A neutrino hit a proton in a hydrogen atom. The collision occurred at the point where three tracks emanate on the right of the photograph.

A neutrino, in Italian  is an electrically neutral elementary particle with half-integer spin. The neutrino (meaning "little neutral one" in Italian) is denoted by the Greek letter ν (nu). All evidence suggests that neutrinos have mass but that their masses are tiny, even compared to other subatomic particles. They are the only identified candidate for dark matter, specifically hot dark matter.
Neutrinos are leptons, along with the charged electrons, muons, and taus, and come in three flavors: electron neutrinos (ν
e
), muon neutrinos (ν
μ
), and tau neutrinos (ν
τ
). Each flavor is also associated with an antiparticle, called an "antineutrino", which also has no electric charge and half-integer spin. Neutrinos are produced in a way that conserves lepton number; i.e., for every electron neutrino produced, a positron (anti-electron) is produced, and for every electron antineutrino produced, an electron is produced as well.

Neutrinos do not carry any electric charge, which means that they are not affected by the electromagnetic force that acts on charged particles, and are leptons, so they are not affected by the strong force that acts on particles inside atomic nuclei. Neutrinos are therefore affected only by the weak subatomic force and by gravity. The weak force is a very short-range interaction, and gravity is extremely weak on the subatomic scale. Thus, neutrinos typically pass through normal matter unimpeded and undetected.

Neutrinos can be created in several ways, including in certain types of radioactive decay, in nuclear reactions such as those that take place in the Sun, in nuclear reactors, when cosmic rays hit atoms and in supernovas. The majority of neutrinos in the vicinity of the earth are from nuclear reactions in the Sun. In fact, about 65 billion (6.5×1010) solar neutrinos per second pass through every square centimeter perpendicular to the direction of the Sun in the region of the Earth.

Neutrinos are now understood to oscillate between different flavors in flight. That is, an electron neutrino produced in a beta decay reaction may arrive in a detector as a muon or tau neutrino. This oscillation requires that the different neutrino flavors have different masses, although these masses have been shown to be tiny. From cosmological measurements, we know that the sum of the three neutrino masses must be less than one millionth that of the electron.

https://en.wikipedia.org/wiki/Neutrino

1 de octubre de 2015

Cosmología


Cosmología:

Las primeras teorías cosmológicas datan del siglo IV a.C., centradas en los pueblos mesopotámicos, los cuales consideraban que la Tierra era el centro del Universo, y que eran los demás cuerpos celestes los que giraban alrededor de ella. Algunos clásicos como Aristóteles, defendían esta teoría.

El filósofo, matemático y astrónomo Anaximandro de Mileto, discípulo y amigo de Tales de Mileto, es mencionado como fundador de la cosmología. Su concepción del Universo se basaba en un número de cilindros concéntricos, de los cuales el más exterior era el Sol, la Luna el del medio, y las estrellas contenidas en el del interior. La Tierra se encontraba dentro de estos cilindros. Defendía una teoría del origen del Universo en la cual se postulaba que era resultado de la separación de opuestos desde la materia primaria; el calor se habría movido hacia fuera, separándose de lo frío, y más tarde lo habría hecho lo seco de lo húmedo. Sostenía además, que todas las cosas vuelven con el tiempo al elemento que las originó.

Otro clásico del siglo II, Claudio Tolomeo, intentó tomar en consideración un modelo heliocéntrico, pero lo desechó basándose en la física de Aristóteles, en la cual no tenía cabida una rotación de la Tierra sin que ésta resultase violenta y convulsa. En su lugar adoptó el modelo de que las estrellas se movían en la noche porque se encontraban encerradas en unas esferas cristalinas giratorias, perfectas y transparentes. Tiempo después el modelo geocéntrico de Tolomeo seguía firmemente apoyado por la Iglesia, de tal forma que ayudó a frenar considerablemente el progreso de la astronomía durante los siguientes mil años.

A pesar de que el astrónomo griego Aristarco de Samos sostuvo también en el 270 a.C. que la Tierra giraba alrededor del Sol, su teoría quedó nublada por la autoridad del propio Aristóteles, la cual no fue rebatida hasta muchos siglos después. De hecho, el sistema geocéntrico imperó totalmente hasta finales de la Edad Media, a pesar de algunos intentos por cambiarlo por el heliocéntrico. En el año 1543, la explicación del movimiento de los planetas era para el clérigo y astrónomo polaco Nicolás Copérnico, mucho más fácil si se situaba al Sol como centro del Universo. En la hipótesis de Copérnico los planetas, incluido la Tierra, trazaban sus órbitas alrededor del Sol. Esta teoría se fue imponiendo sobre las demás, pero muy lentamente.

Gran parte de la fama de Copérnico se debe a la obra Revoluciones de los cuerpos celestes (1543), donde realiza un análisis crítico de la teoría de Tolomeo sobre un Universo geocéntrico. La proposición de que fuera el Sol y no la Tierra el centro del Universo, fue el rasgo más audaz de Copérnico, quedando la Tierra degradada a la categoría de un simple planeta más. Su teoría molestó a muchas personas y fue contestada duramente por la Iglesia, que incluyó su obra en la lista de libros prohibidos en 1616, donde permaneció hasta 1835.

El sistema heliocéntrico de Copérnico no obtuvo suficiente atención, hasta que Galileo Galilei descubrió pruebas tangibles para defender esta teoría. En 1609, Galileo fue uno de los primeros en observar los planetas a través de un telescopio; pudo comprobar cómo algunos planetas giraban alrededor del Sol y no de la Tierra. Galileo comenzó entonces a escribir y publicar en favor de la teoría de Copérnico, convirtiéndose en un fiel defensor de ésta, pero el intento de difundirla le llevó ante un tribunal de la inquisición, el cual le obligó a renegar de sus creencias y escritos bajo acusación grave de herejía. A pesar de ello, la teoría de Copérnico no pudo ser eliminada.

Para comprender las dificultades de resolución de los problemas orbitales que tuvieron los observadores y teóricos que siguieron a Galileo (principalmente Kepler), es necesario comprender los misticismos sobre la matemática y geometría arrastrados desde la época de Pitágoras.

Pitágoras, en el siglo VI a.C., fue el primero en utilizar la palabra Cosmos, es decir, el concepto de Universo ordenado y armonioso. Sus discípulos relacionaban la certeza de la demostración matemática con la perfección del Universo. Muchos de ellos eran místicos convencidos. La realidad de su imperfecto y desordenado mundo cotidiano, chocaba frontalmente con aquel Cosmos en el cual los lados de triángulos rectángulos obedecían a la perfección simples relaciones matemáticas; habían penetrado en la realidad perfecta del reino de los dioses.

Los pitagóricos identificaban la constitución del mundo en cuatro elementos: tierra, fuego, aire y agua. Por su parte, por alguna razón éstos fueron identificados con cuatro sólidos regulares: cubo (6 cuadrados), tetraedro (4 triángulos equiláteros), octaedro (8 pentágonos) e icosaedro (20 triángulos equiláteros). Sin embargo, aunque existen infinitos polígonos regulares, sólo hay cinco sólidos regulares, el quinto es el dodecaedro, que tiene por lados a doce pentágonos. Por razones místicas pensaron entonces que el dodecaedro sólo podía relacionarse con el Cosmos y la sustancia de los cuerpos celestiales, de ahí la palabra quintaesencia dada a esta correspondencia físico-mística. Igualmente, los números enteros semejaban la racionalidad de las cosas, y creían que de ellos podían derivarse todas las incógnitas.

Por el carácter doctrinal de estas enseñanzas, la existencia del dodecaedro fue ocultada al pueblo llano, y sólo se manejaba dentro del ámbito de la escuela pitagórica. Por la misma razón, se ocultó un descubrimiento que rompía con la tan alabada armonía geométrica y matemática de los números enteros, y que produjo una verdadera crisis en esta doctrina. Simplemente, aplicando el teorema de Pitágoras, se comprobó que la raíz cuadrada de 2 (razón entre diagonal y lado de un cuadrado) no era racional, es decir, no podía expresarse con dos números enteros, de ahí la palabra irracional, significado de que un número no puede expresarse como una razón. Fue entonces cuando la concepción del mundo que mantenían Pitágoras y sus seguidores sintió una amenaza, la creencia de que podía desmoronarse ante el indicio de que esa concepción cosmológica careciera de sentido. De nuevo, el conocimiento de la raíz cuadrada de 2 fue ocultado como ya se hiciera con el dodecaedro, y reservado sólo como un conocimiento sagrado. Un discípulo de Pitágoras llamado Hispaso publicó el secreto del dodecaedro, pero su libro no trascendió y él pereció en un naufragio, en lo que fue considerado un castigo justo por los demás fieles de Pitágoras.

Pero uno de los elementos que favorecieron el lento avance en el desvelo de las leyes que rigen el Cosmos y el movimiento de los cuerpos planetarios, fue el concepto místico que tenían los pitagóricos del círculo y la esfera. Para ellos, la esfera era perfecta, pues el centro se encontraba a la misma distancia de cualquier punto de la superficie. El mismo concepto se tenía del círculo. Por esta razón, no se deducía otra forma de movimiento de los planetas que no fuera en forma circular, cualquier otra sugerencia indicaría un movimiento defectuoso e impropio, y mucho menos que la velocidad de la órbita fuese más o menos lenta a lo largo de ella.

Johanes Kepler no se libró de estas creencias, que perduraron vigentes durante muchos siglos, y que desviaron la atención de los astrónomos teóricos de la auténtica realidad.

Teorías cosmológicas modernas.

Los modelos actuales del universo sostienen dos premisas fundamentales: el principio cosmológico y el papel dominante de la gravitación. En base a los resultados obtenidos por el Hubble, el principio cosmológico sostiene que si se considera una muestra suficientemente grande de galaxias, el universo se ve igual desde todas las posiciones y en todas direcciones en el espacio. El segundo punto de acuerdo es que la gravedad (o una fuerza de antigravedad, llamada energía oscura) es la fuerza más importante en la formación del universo. Según la teoría general de la relatividad de Einstein, que es una interpretación geométrica de la gravitación, la materia produce efectos gravitacionales distorsionando el espacio alrededor de él; por lo que la curvatura del espacio es descrito por una forma de geometría no-euclidiana. Un número de teorías cosmológicas satisfacen a la vez el principio cosmológico y el de la relatividad general. Las dos teorías más importantes son la hipótesis del Big Bang y la hipótesis del estado estable, con muchas variaciones en cada enfoque básico.

La teoría de estado estacionario.

Según la teoría del estado estacionario, ahora de interés meramente histórico, el universo se expande, pero nueva materia es continuamente creada en todos los puntos del espacio dejado por las galaxias en retroceso. La teoría implica que el universo siempre ha estado expandiéndose, sin principio ni fin; a un ritmo uniforme y que siempre se va a ampliar y mantener una densidad constante.

La teoría del Big-Bang

Según las teorías del Big Bang, en el principio de los tiempos, toda la materia y la energía en el universo estaba concentrada en un estado muy denso, del que "explotó", con la consecuente expansión continua hasta el presente. "Este "big bang” se estima entre 10 y 20 millones de años atrás, con probabilidad de c.13.7 millones de años. En este estado inicial, el universo era muy caliente y que contenía una sopa térmica de quarks, electrones, fotones y otras partículas elementales. La temperatura disminuyó rápidamente, pasando de 1013 grados Kelvin después del primer microsegundo a cerca de un billón de grados después de tres minutos. A medida que el universo se enfrió, los quarks se condensaron en protones y neutrones, los componentes básicos de los núcleos atómicos. Algunos de estos se convirtieron en núcleos de helio por fusión, la abundancia relativa de hidrógeno y de helio se utiliza como una prueba de la teoría. Después de muchos millones de años el universo en expansión, al principio un gas muy caliente, se adelgazo y se enfrió lo suficiente para condensarse en galaxias individuales y, a continuación en estrellas.

Varios descubrimientos espectaculares desde 1950 han arrojado nueva luz sobre el este problema. La fibra óptica y la radioastronomía se complementaron en el descubrimiento de los quásares y las radio galaxias. Se cree que la energía que nos llega ahora de algunos de estos objetos fue emitida no mucho después de la creación del universo. Otra prueba para la teoría del Big Bang fue el descubrimiento en 1965 de un ruido de fondo cósmico que se recibe de todas partes del cielo. Esta radiación de fondo tiene la misma intensidad y la distribución de frecuencias en todas las direcciones y no está asociada con ningún objeto celeste individual. Tiene una temperatura de cuerpo negro de 2,7 K. (-270 ° C) y se interpreta como el remanente electromagnético de la bola de fuego primordial, estirada a longitudes de onda larga por la expansión del universo. Recientemente, el análisis de la radiación de los objetos celestes lejanos detectados por satélites artificiales ha dado pruebas adicionales de la teoría del Big-bang.

En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de una singularidad espaciotemporal. Técnicamente, se trata del concepto de expansión del Universo desde una singularidad primigenia, donde la expansión de éste se deduce de una colección de soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann- Lemaître - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse específicamente al momento en el que se inició la expansión observable del Universo (cuantificada en la ley de Hubble), como en un sentido más general para referirse al paradigma cosmológico que explica el origen y la evolución del mismo.

Para llegar al modelo del Big Bang, muchos científicos, con diversos estudios, han ido construyendo el camino que lleva a la génesis de esta explicación. Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de 1927, utilizaron la teoría de la relatividad para demostrar que el universo estaba en movimiento constante. Poco después, en 1929, el astrónomo estadounidense Edwin Hubble (1889-1953) descubrió galaxias más allá de la Vía Láctea que se alejaban de nosotros, como si el Universo se expandiera constantemente. En 1948, el físico ruso nacionalizado estadounidense, George Gamow (1904-1968), planteó que el universo se creó a partir de una gran explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita (COBE) han conseguido "oír" los vestigios de esta gigantesca explosión primigenia.

Curiosamente, fue el astrofísico inglés Fred Hoyle, uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría del estado estacionario, quien dijo para mofarse que el modelo descrito era sólo un big bang, durante una discusión de la BBC en 1949. No obstante, hay que tener en cuenta que en el inicio del Universo ni hubo explosión ni fue grande, pues en rigor surgió de una «singularidad» infinitamente pequeña, seguida de la expansión del propio espacio.

Friedman, Alexander.  General Relativity and Gravitation.  On the Curvature of Space , Springer Netherlands, Volume 31, Number 12 / diciembre de 1999
Aleksandr Aleksandrovich Friedmannhttp://www-history.mcs.st-andrews.ac.uk/Biographies/Friedmann.html
Georges Lemaître, el padre del "big bang"
http://www.aceprensa.com/articulos/1995/jun/07/georges-lema-tre-el-padre-del-big-bang/
Edwin Hubble:  http://www.astrocosmo.cl/biografi/b-e_hubble.htm
George Gamow, La investigación del átomo, México, D.F., 1956

Teoría Del Big Rip

 

El Gran Desgarramiento o Teoría de la expansión eterna, llamado en inglés Big Rip, es una hipótesis cosmológica sobre el destino último del Universo.

La clave de esta hipótesis es la cantidad de energía oscura en el Universo. Si el Universo contiene suficiente energía oscura, podría acabar en un desgarramiento de toda la materia.

El valor clave es w, la razón entre la presión de la energía oscura y su densidad energética. A w < -1, el Universo acabaría por ser desgarrado. Primero, las galaxias se separarían entre sí, a 1000 millones de años del final. Luego la gravedad sería demasiado débil para mantener integrada cada galaxia, y 60 millones de años antes del fin, sólo habría estrellas aisladas. Aproximadamente tres meses antes del fin, los sistemas solares perderían su cohesión gravitatoria. En los últimos minutos, se desbaratarían estrellas y planetas. El Universo quedaría en átomos, pero no se habría acabado todo.

Los átomos serían destruidos en una fracción de segundo antes del fin del tiempo y sólo quedaría radiación. El Universo sería como el Big Bang pero casi infinitamente menos denso.

A diferencia del Big Crunch, en el que todo se condensa en un solo punto, en el Big Rip el Universo se convertiría en partículas subatómicas flotantes que permanecerían para siempre separadas, sin cohesión gravitatoria ni energía alguna.

Los autores de esta hipótesis calculan que el fin del Universo, tal como conocemos, ocurriría aproximadamente 3,5 × 1010 años (35.000 millones de años) después del Big Bang, o dentro de 2,0 × 1010 años (20.000 millones de años).

Debido a que la materia sólo representa el 27% del Universo y el 73% restante está formado por la energía oscura, el Big Rip parece ser una de las teorías más aceptadas en la actualidad del fin del Universo.

Link con información relacionada

Link a la página de la NASA sobre cosmología: http://map.gsfc.nasa.gov/universe/

Artículo sobre la teoría del Big Bang: http://ssscott.tripod.com/BigBang.html

On truth and reality: http://webcache.googleusercontent.com/search?q=cache:cxUQtdo19_cJ:www.spaceandmotion.com/Cosmology-Big-Bang-Theory.htm+cosmology+theories&cd=7&hl=es&ct=clnk&gl=pe
Study Plunges Standard Theory of Cosmology into Crisis:
http://webcache.googleusercontent.com/search?q=cache:NxyErCXli9sJ:www.sciencedaily.com/releases/2009/05/090505061949.htm+cosmology+theories&cd=10&hl=es&ct=clnk&gl=pe

General relativity & Cosmology:
http://musr.physics.ubc.ca/~jess/hr/skept/COSM/
A voyage of knowledge: http://www.relativitycalculator.com/
Barrow, J. D. The Origin of the Universe (1994);
Coles, P. and Lucchin, F., Cosmology: The Origin and Evolution of Cosmic Structure (1995);
Green, B. The Elegant Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory (2000);
Hawking, S. The Universe in a Nutshell (2001);
Kirshner, R. P. The Extravagant Universe: Exploding Stars, Dark Energy, and Accelerating Cosmos (2002);
Longair, M. S. Our Evolving Universe (1996);
Sciama , D. W., Modern Cosmology and the Dark Matter Pr
oblem (1993);
Singh, S. Big Bang: The Origin of the Universe (2005).



Compartir

Similares:

Related Posts Plugin for WordPress, Blogger...