¿QUE ES LA TEORIA M?
M es el nombre de la teoría que pretende explicar todo el universo, desde las
partículas elementales y los átomos hasta las galaxias y el big bang. ¿Por qué M, un
título tan breve para un objetivo tan ambicioso? Hay varias acepciones posibles,
según las preferencias del físico que lo justifica. La M de madre refleja la intención
de ser el origen de todas las explicaciones o de contener las leyes primordiales de
la física. La M de magia, misterio o milagro refiere, en cambio, al asombro que
despiertan sus propiedades y su aparente capacidad de unificar todas las
interacciones o fuerzas fundamentales de la naturaleza, una meta perseguida
durante mucho tiempo y considerada quizás inalcanzable. La más modesta M de
membrana ilustra ciertas características técnicas de la teoría.
¿En qué sentido pretende M explicar todo?
La física busca verdades universales sobre la naturaleza. Cuando estas
verdades se encuentran, se trata de explicarlas apelando a principios más
profundos, a verdades más fundamentales a partir de las cuales se puedan
deducir las anteriores. Estas certezas más esenciales, a su vez, se tratan de
entender recurriendo a razones todavía más básicas. Y así sucesivamente.
Siguiendo las cadenas de explicación, desde la vida cotidiana hasta el mundo
microscópico, varias de las preguntas más antiguas−¿Por qué el cielo es azul? ¿Por
qué el agua es líquida y se evapora al hervir?−se han respondido en términos de
las propiedades de los átomos y de la luz. Estas propiedades, por su parte, se
deducen de sus componentes, las partículas elementales, cuyas propias
peculiaridades se pueden deducir a partir de estructuras más simples. El punto
inicial de todas las explicaciones es lo que se entiende por la teoría madre. Este
reduccionismo o búsqueda de principios cada vez más elementales, más básicos,
se ha dado en la física históricamente a través de unificaciones de teorías. La
tendencia a la descripción unificada de fenómenos considerados previamente
independientes, la búsqueda de principios aglutinadores, permitió a lo largo del
desarrollo de la disciplina explicar más hechos que los contenidos originalmente
en las partes que se intentaba amalgamar y se convirtió en la guía orientadora de
la evolución de esta ciencia.
La idea de encontrar un principio fundamental a partir del cual derivar las
leyes del universo no es reciente. La humanidad ha buscado desde épocas muy
remotas comprender las diversas manifestaciones de la naturaleza como
diferentes aspectos de un mismo fenómeno (o conjunto de fenómenos). En
Occidente, el origen de estas ideas se remonta a los presocráticos, quienes
buscaban las explicaciones de todos los fenómenos naturales en términos de
algún elemento fundamental: agua, aire, tierra o fuego. La primera teoría madre,
elaborada por Leucipo y Demócrito en el siglo V a.C., postulaba que los
constituyentes últimos e indivisibles de la materia eran los átomos. Esos átomos
eran muy diferentes de los que conocemos hoy, pero hay una diferencia más
importante entre aquellas teorías antiguas y la ciencia moderna: la actual
2
exigencia de verificación experimental. Una explicación científica moderna debe
contener una comprensión cuantitativa de los fenómenos. ¿Cuánto progresamos
en el conocimiento de la naturaleza si aceptamos que el agua o los átomos son los
constituyentes fundamentales de la materia, si no podemos calcular propiedades
como la densidad, la resistencia o la conductividad eléctrica? Y por lo tanto, sin la
capacidad de hacer predicciones experimentales, nunca podríamos comprobar si
la explicación presocrática o la de Demócrito es la acertada.
En la actualidad, los cuatro siglos de desarrollo de la física han permitido
acumular gran cantidad de información y reducir drásticamente el número de
principios fundamentales. Hoy sabemos que todos los fenómenos naturales, por
más variados y diferentes que parezcan, se pueden explicar en términos de cuatro
interacciones o fuerzas fundamentales: la gravitatoria, la electromagnética y las
subatómicas fuerte y débil. Pero a pesar de haber logrado restringir tan
abruptamente la complejidad del problema, todavía no se ha encontrado la teoría
original, la que unifica estas cuatro interacciones fundamentales. Sólo hay algunos
indicios que guían la búsqueda. Estas son las pistas que trata de organizar la
teoría M y que nosotros intentaremos describir en este artículo. Como el tema es
muy técnico, introducimos algunos conceptos e ideas que resultan necesarios a
través de una breve historia de la física. Este recorrido histórico, con especial
atención a las unificaciones logradas, nos ayudará a explicar por qué la búsqueda
de la teoría madre se realiza en el contexto de la física de altas energías. En la
segunda parte describimos la teoría M, indicando sus logros y debilidades y
resumiendo la manera en que resuelve los problemas que presentan teorías
previas.
Las cuatro interacciones fundamentales
• Gravitación
La mecánica clásica, cuyos principios básicos fueron establecidos por
Newton en el siglo XVII, marca el comienzo de la ciencia moderna y representa el
primer paso en la búsqueda de la teoría madre. La mecánica newtoniana unificó
las leyes que rigen el movimiento de los cuerpos celestes y de los terrestres, las
leyes de la dinámica y de la gravitación universal.
No es casual que la gravedad inicie el camino, ya que es la más familiar de
todas las fuerzas. Es la única interacción universal, pues actúa entre todas las
partículas sin excepción. Newton concebía a la gravedad como una acción a
distancia, una fuerza de atracción instantánea entre partículas masivas
representada matemáticamente mediante la fórmula F ∝ m×m’/r2. Es decir, una
partícula de masa m atrae a otra de masa m’ con una fuerza (F) proporcional (∝)
al producto de las masas y que disminuye como el cuadrado de la distancia que
las separa (r2). El origen de esta fuerza, su fuente, es la masa de las partículas y
su rango de acción es muy grande, llegando a alcanzar distancias enormes
(planetarias, estelares, galácticas, intergalácticas y hasta cosmológicas).
3
La concepción moderna postula en cambio que la gravedad es geometría. La
teoría de Relatividad General considera a la gravedad como un campo de
distorsión geométrica o una curvatura. Einstein modificó las nociones de espacio y
de tiempo absoluto de Newton, para resolver una paradoja: la velocidad de
propagación de las ondas de luz es independiente del movimiento del observador.
En la teoría de Relatividad Especial (1905), introdujo el concepto de espaciotiempo,
según el cual el tiempo es una dimensión más, que debe considerarse en
un pie de igualdad con las espaciales. Y en la Relatividad General (1915) trató de
encajar la gravedad en esta nueva visión del espacio y el tiempo. Tenía para ello
algunos indicios, como el notable descubrimiento de Galileo sobre el movimiento
de cuerpos pequeños debido a la gravedad, que resulta ser independiente de la
naturaleza de los cuerpos. Esto le sugirió que la gravedad podría ser una
propiedad del propio espacio−tiempo. En lugar de la imagen newtoniana de la
gravitación como una atracción entre todos los cuerpos masivos, la Relatividad
General describe la gravitación como un efecto de la curvatura del espacio−tiempo
producida por la materia y la energía.
El concepto de campo, muy importante en la descripción de todas las
fuerzas, se basa en la noción de que toda partícula es la fuente de una onda tal
que cualquier otra partícula que se encuentre dentro de su rango de acción
experimenta una fuerza proporcional a la intensidad del campo en esa posición.
Todas las partículas originan un campo gravitatorio. Así por ejemplo, el Sol curva
el espacio−tiempo a su alrededor y la órbita terrestre es consecuencia de este
efecto geométrico. Podríamos imaginar el espacio−tiempo como una gran sábana
extendida. Cualquier objeto que se deposite sobre la sábana la deformará, creando
un campo que modifica el movimiento de cualquier otro objeto sobre ella.
¿Por qué la Relatividad General reemplazó a la teoría de Newton?
Inicialmente, resolvió un antiguo conflicto de la mecánica clásica: la precesión del
perihelio de Mercurio. Además predijo nuevos fenómenos que fueron observados
con posterioridad. Por ejemplo la curvatura en la trayectoria de los rayos de luz
producida por el Sol, predicha por la teoría en 1915, fue medida por primera vez
en 1919. Desde entonces se han acumulado más pruebas y hoy podemos afirmar
que esta teoría describe satisfactoriamente el campo gravitatorio a distancias
grandes comparadas con los tamaños atómicos, en el sentido de que ha superado
exitosamente todos los tests experimentales a que ha sido sometida.
Es interesante comparar en más detalle estas dos teorías. La física de
Newton explica virtualmente todos los movimientos observados en el sistema
solar, pero al costo de introducir algunas suposiciones arbitrarias. Por ejemplo, en
la mecánica clásica no hay nada que obligue a postular la ley del cuadrado inverso
(F ∝ r−2). Newton desarrolló esta idea para explicar hechos conocidos, como la ley
de Kepler que relaciona el tamaño de las órbitas planetarias y el tiempo que les
lleva a los planetas recorrerlas. Si se reemplazara el 2 por un 3 o un 5.8 nada
cambiaría en el marco conceptual de la teoría (aunque por supuesto las
observaciones no podrían explicarse). En la Relatividad General, en cambio, no hay
tanta arbitrariedad. Para cuerpos en movimiento lento en campos gravitacionales
4
débiles, para los cuales se puede hablar de una fuerza newtoniana, la teoría de
Einstein requiere que esta fuerza vaya como 1/r2. No es posible modificar la teoría
para obtener otra cosa que no sea la ley del cuadrado inverso sin violar alguno de
los principios básicos. También la proporcionalidad entre la fuerza de gravedad
sobre objetos pequeños y su masa es muy arbitraria en la teoría de Newton. Esta
fuerza podría haber dependido de la composición química, el tamaño o la forma
del objeto, sin afectar la base conceptual de la mecánica clásica. En Relatividad
General, el efecto que la gravedad ejerce sobre cualquier objeto debe ser
proporcional a su masa e independiente de cualquier otra propiedad. Si no fuera
así no se podría interpretar la gravitación como un efecto geométrico de la
curvatura del espacio−tiempo. La teoría de Einstein se reduce a la de Newton
cuando los campos son débiles. Pero es más rígida.
• Electromagnetismo
Las siguientes fuerzas estudiadas cronológicamente fueron la electricidad y
el magnetismo. Si bien estos fenómenos eran conocidos desde la antigüedad,
recién en el siglo XIX fueron concebidos en el marco de una teoría común. Así
como la masa es la fuente de la interacción gravitatoria, la carga eléctrica es la
fuente de estas fuerzas, y por eso no es ésta una interacción universal, sino que
sólo actúa entre partículas cargadas. Su intensidad es enorme comparada con la
gravitatoria (la fuerza gravitatoria entre un electrón y un protón, por ejemplo, es
unas 1040 veces más débil que la fuerza eléctrica entre ellos), pero como las
cargas son positivas y negativas, y las cargas iguales se repelen mientras que las
distintas se atraen, hay una tendencia a la cancelación, y por eso la gravedad
domina el universo a grandes escalas.
El electromagnetismo fue formulado por Maxwell al descubrir, alrededor de
1850, que la electricidad y el magnetismo son en realidad aspectos distintos de un
único campo. Un cuerpo cargado crea un campo electromagnético que ejerce
fuerzas eléctrica y magnética sobre otros cuerpos cargados. Un imán ejerce una
fuerza sobre otro porque ambos son fuente de un campo electromagnético.
Maxwell calculó que la velocidad de propagación de este campo es la de la luz y
propuso entonces que la luz es un fenómeno electromagnético. Como las cargas
pueden oscilar con cualquier frecuencia, concluyó también que la luz visible forma
sólo una pequeña parte de todo el espectro de radiación electromagnética. Hoy
sabemos que éste incluye además ondas de radio, luz ultravioleta, infrarroja, rayos
X y γ, etc.
Una propiedad importante del electromagnetismo, que reaparecerá en la
teoría M, es la simetría de dualidad. Si en las ecuaciones de Maxwell se
intercambia el campo eléctrico E por el magnético B y simultáneamente se
intercambian las cargas eléctrica e y magnética g, las ecuaciones no se modifican.
Es decir, nada cambia en la teoría si se hace la transformación de dualidad: E ↔ B
y e ↔ g. En esta teoría el producto e × g es constante, entonces e pequeña
corresponde a g grande. Y esta es la propiedad interesante. Supongamos que
5
tenemos una ecuación matemática que depende de g2 y que no se puede resolver
exactamente. El truco usual es aproximar la solución con un desarrollo
perturbativo: g2 + g4 + g6 +... Siempre que g sea menor que 1, cada término del
desarrollo en serie es menor que el anterior, y el valor total converge a una única
cifra. Pero si g es mayor que 1, entonces la serie se hace más y más grande, y la
aproximación no sirve. Aquí es donde se hace evidente la importancia de la
dualidad. Si g es grande, mayor que 1, entonces e es menor que 1, y la serie e2 +
e4 + e6 +... da un valor razonable. Esto significa que usando perturbación en e se
pueden resolver problemas en la región no perturbativa de g y viceversa.
Dimensiones extra
Con el electromagnetismo se alcanzó una sensación de plenitud. Se pensaba
que sólo había que calcular más precisamente, aproximar con más cifras
decimales, pero que no había más principios ni leyes por descubrir. La gravedad y
el electromagnetismo son efectivamente las fuerzas más familiares y con estas
leyes podían explicarse todos los fenómenos cotidianos. No casualmente, la
primera teoría unificadora del siglo XX involucró la Relatividad General y el
electromagnetismo. Se hizo en el marco de una idea que actualmente se retoma
en la teoría M: suponer que el número de dimensiones del espacio−tiempo es
mayor que cuatro. Poco después de que Einstein publicara su teoría, Kaluza
intuyó que las interacciones gravitatoria y electromagnética podrían tener un
origen común y propuso unificarlas agregando una dimensión espacial. Imaginó
que en cinco dimensiones sólo hay gravedad, no hay electromagnetismo. El
resultado fue muy interesante: reducida a cuatro dimensiones, la Relatividad
General reproduce las ecuaciones gravitatorias y además otro conjunto de
ecuaciones que resultan ser precisamente las del campo electromagnético. Así,
la gravedad en cinco dimensiones se divide en gravedad y electromagnetismo en
cuatro dimensiones.
Pero ¿por qué no percibimos la quinta dimensión? Los cálculos de Klein, en
1926, indicaron que ésta es muy pequeña y está enrollada. Como al mirar un caño
de lejos: parece ser una línea, pero si nos acercamos vemos que en realidad se
extiende en otra dimensión. Este proceso de enrollar dimensiones se conoce como
compactificación (figura 1).
Figura 1: La quinta dimensión compactificada
Con el descubrimiento de las interacciones fuertes y débiles la teoría de
Kaluza−Klein perdió mucho de su atractivo: una teoría unificada debería contener
cuatro fuerzas, no sólo dos. Las cinco dimensiones eran insuficientes.
6
• Fuerzas subatómicas
A fines del siglo XIX las leyes de la mecánica clásica y el electromagnetismo
parecían explicar todos los fenómenos conocidos. Pero en 1895 se descubrieron
los rayos X, en 1896 la radiactividad, Thompson observó el electrón en 1897, y
esto indicó que había nuevas cosas por descubrir. Aparecieron también algunos
problemas teóricos en el electromagnetismo de Maxwell. Un objeto caliente emite
radiación electromagnética con una intensidad bien definida para cada frecuencia.
La suma de las energías de la radiación en todas las frecuencias era infinita, un
resultado absurdo. Max Planck observó entonces que si la energía, en lugar de
tener una distribución continua, se emitía en paquetes discretos o cuantos, la
suma sería finita y postuló que la radiación electromagnética existe en cuantos de
energía.
En la teoría cuántica, un campo no sólo está asociado a ondas sino también
a partículas; por ejemplo, el campo electromagnético está asociado al fotón. Así
surgió la idea de la dualidad onda-partícula y de la Mecánica Cuántica. En este
marco se sucedieron varios avances importantes. En 1911 Rutherford presentó su
modelo atómico, semejante al sistema solar: pequeños núcleos de protones y
neutrones rodeados de nubes de electrones; en 1913 Bohr explicó el espectro del
átomo más sencillo, el hidrógeno. La materia, a nivel microscópico o atómico y
nuclear, se modeló en términos de partículas, identificadas por sus propiedades
como la masa, carga, momento angular intrínseco o espín, etc. Todas ellas son de
naturaleza cuántica, en el sentido de que sólo pueden tomar ciertos valores
discretos. La noción de que los átomos, moléculas y núcleos poseen niveles
discretos de energía es uno de los conceptos básicos de la Mecánica Cuántica.
Con esta nueva concepción de la materia fue posible calcular las
propiedades, no sólo de los átomos individuales y sus interacciones con la
radiación, sino también de átomos combinados en moléculas. Se hizo evidente
que las reacciones químicas se deben a interacciones eléctricas de los electrones y
núcleos atómicos.
Otro ingrediente de esta teoría es el resultado de Dirac de 1928 según el
cual para cada tipo de partícula cargada (el electrón, por ejemplo) debe haber otra
especie con igual masa pero carga opuesta: la antimateria. Cuatro años más tarde
la predicción de Dirac fue confirmada cuando se observó la antipartícula del
electrón: el positrón.
La teoría cuántica de los electrones y los fotones, la electrodinámica
cuántica (QED), se usó en los años ’20 y principios de los ’30 para calcular varios
fenómenos (colisiones de fotones con electrones, de un electrón con otro, la
aniquilación o producción de un electrón y un positrón, etc.) y produjo resultados
coincidentes con los experimentos. Pero pronto apareció un nuevo problema: la
energía del electrón resultaba infinita. Y aparecieron otros infinitos en los cálculos
de las propiedades físicas de las partículas. Estos problemas de consistencia
interna indicaron que la QED era sólo una aproximación a la teoría completa,
7
válida únicamente para procesos que involucraran fotones, electrones y positrones
de energía suficientemente baja.
La solución al problema de los infinitos apareció a fines de los ’40 y fue
consecuencia de otra unificación: la Mecánica Cuántica con la Relatividad
Especial. Los principios que sustentan estas dos teorías son casi incompatibles
entre sí y pueden coexistir sólo en un tipo muy limitado de teorías. En la mecánica
cuántica no relativista era posible imaginar cualquier tipo de fuerzas entre los
electrones y los núcleos atómicos, pero esto no es posible en una teoría relativista.
Las fuerzas entre partículas sólo pueden aparecer por intercambio de otras
partículas, las mensajeras de las interacciones. Una representación intuitiva de la
interacción electromagnética cuántica es que los electrones intercambian fotones
y así se origina la fuerza electromagnética entre ellos.
Las ecuaciones de esta nueva teoría se aplican a campos y las partículas
aparecen como manifestaciones de esos campos. Hay un campo para cada
especie de partícula elemental. Hay un campo eléctrico cuyos cuantos son los
electrones, un campo electromagnético cuyos cuantos son los fotones.
Los electrones libres y en los átomos están siempre emitiendo y
reabsorbiendo fotones que afectan su masa y su carga y las hacen infinitas. Para
poder explicar las propiedades observadas, la carga y masa que aparecen en las
ecuaciones de la teoría cuántica de campos, llamadas desnudas, deben ser
infinitas. La energía total del átomo es entonces la suma de dos términos, ambos
infinitos: la energía desnuda, que es infinita porque depende de la masa y carga
desnudas, y la energía de las emisiones y reabsorciones de fotones, que también
es infinita porque recibe contribuciones de fotones de energía ilimitada. Esto
sugirió la posibilidad de que estos dos infinitos se cancelaran, dejando un
resultado finito. Y los cálculos efectivamente confirmaron la sospecha.
Estos cálculos eran terriblemente complicados, pero Feynman desarrolló un
formalismo que permitió simplificarlos notablemente. Los diagramas de Feynman
(figura 2) pueden pensarse como la historia real de partículas puntuales que se
propagan en el espacio y a lo largo del tiempo, y que se unen y se separan en los
puntos de interacción. Las líneas representan trayectorias de partículas y los
vértices corresponden a las interacciones. Los infinitos o divergencias se originan
en estos vértices. Son molestos pero pueden eliminarse en la QED, y las
propiedades físicas resultan bien definidas y finitas. Este proceso de sustracción
de infinitos se denomina renormalización.
Se usaron estas técnicas para hacer varios cálculos, y los resultados
mostraban una coincidencia espectacular con el experimento. Por ejemplo, el
electrón tiene un pequeño campo magnético, originalmente calculado en 1928 por
Dirac. Los cálculos modernos del corrimiento en la intensidad del campo
magnético del electrón, causado por emisiones y reabsorciones de fotones y otros
efectos similares, dan por resultado que éste aumenta un factor 1.00115965214
(con un error o incertidumbre de 3 en el último dígito) respecto de la predicción
de Dirac, que había ignorado estos efectos. En un experimento reciente, el factor
que se midió fue 1.001159652188 (con un error de 4 en el último dígito). ¡Esta
8
coincidencia numérica entre teoría y experimento es quizás la más impresionante
de toda la ciencia!
Figura 2: Diagramas de Feynman
Con semejante éxito no es sorprendente que la QED se convirtiera en la teoría
aceptada de los fotones y electrones. Sin embargo, aunque los infinitos se
cancelan cuando se los trata adecuadamente, el hecho de que aparezcan
divergencias produce cierta desconfianza. Dirac se refería a la renormalización
como el proceso de barrer los infinitos debajo de la alfombra. El requerimiento de
una teoría finita es parecido a otros juicios estéticos que se realizan a menudo en
física teórica. Encontrar teorías que no tengan infinitos parece ser un camino
apropiado para avanzar en la búsqueda de la teoría madre.
• Fuerza débil
El siguiente gran progreso realizado por la teoría cuántica de campos fue la
unificación del electromagnetismo con la fuerza nuclear débil. Esta fuerza, mucho
más débil que la electromagnética pero mucho más intensa que la gravitatoria, se
manifiesta especialmente en la transmutación de partículas. Fue postulada
inicialmente para explicar el decaimiento beta, un tipo de radiactividad de ciertos
núcleos atómicos inestables, en el cual un neutrón se convierte en un protón, un
electrón y un antineutrino, mediante un cambio de sabor de un quark. El sabor es
el equivalente de la masa o carga en las otras fuerzas.
La fuerza nuclear débil no es tan evidente en nuestra vida cotidiana como
las magnéticas, eléctricas o gravitatorias, pero juega un rol decisivo en las
cadenas de reacciones nucleares que generan energía y producen los elementos
químicos en los núcleos de las estrellas. Esto es algo que ninguna otra fuerza
puede explicar. Ni la fuerza nuclear fuerte que mantiene los protones y neutrones
juntos en el núcleo ni la fuerza electromagnética que trata de separar los protones
pueden cambiar las identidades de estas partículas, y la fuerza gravitatoria
tampoco puede hacer algo así. Entonces la observación de neutrones que se
9
convierten en protones y viceversa fue la evidencia de un nuevo tipo de fuerza en la
naturaleza.
A fines de los años '50 las interacciones débiles se explicaban en el contexto
de la teoría cuántica de campos, pero aunque la teoría funcionaba bien para el
decaimiento beta, al ser aplicada a otros procesos más exóticos aparecían
nuevamente infinitos (por ejemplo al calcular la probabilidad de colisión de un
neutrino con un antineutrino). Los experimentos no podían hacerse porque las
energías necesarias superaban las que podían alcanzarse en el laboratorio, pero
obviamente los resultados infinitos no podían coincidir con ningún resultado
experimental. Estas divergencias ya habían aparecido en QED y se habían curado
con la renormalización. En cambio, la teoría de Fermi que describía las
interacciones débiles no era renormalizable. Otra dificultad con esta teoría era que
tenía muchos elementos arbitrarios. Las ecuaciones de la interacción débil se
habían inferido básicamente de los experimentos, pero podrían haber sido muy
diferentes, aun sin violar ningún principio físico conocido.
La solución de estas cuestiones condujo a una nueva unificación. Así como
la fuerza electromagnética entre partículas cargadas se debe al intercambio de
fotones, una fuerza débil no podía actuar instantáneamente. Weinberg y Salam
propusieron la existencia de otras partículas, los gluones W y Z, nuevas
mensajeras que se introducían en la teoría como los fotones. Esto no sólo convirtió
a la teoría en renormalizable, sino que permitió explicar, además de las
interacciones débiles, las electromagnéticas. La nueva teoría unificada se llamó
electrodébil. Su verificación experimental llegó mucho después: en 1983 se
descubrieron las partículas W y en 1984 la Z, cuyas propiedades habían sido
predichas correctamente en 1968. Nuevamente una unificación resolvía problemas
y permitía explicar más fenómenos que los contenidos en la teoría previa.
• Fuerza fuerte
¿Por qué no se separan los protones y no se desintegra el núcleo atómico
debido a la fuerza de repulsión eléctrica? Esto se debe a la fuerza nuclear fuerte,
una interacción que se extingue más allá de 10−13 cm, y cuya fuente es el color,
que en este caso es de tres tipos: rojo, verde y azul. La fuerza fuerte actúa
también entre otras partículas pesadas llamadas hadrones, que proliferaban por
los años ‘60. Para reducir el enorme zoológico de estas partículas, y continuando
con la tradición de explicar estructuras complicadas en términos de constituyentes
más simples, Gell-Mann y Zweig propusieron elementos más fundamentales,
llamados quarks. Los quarks se aplicaron a una gran variedad de problemas
físicos relacionados con las propiedades de los neutrones, protones, mesones, etc.
y la teoría funcionaba bastante bien. Pero todos los intentos experimentales de
extraerlos de las partículas que supuestamente los contenían, fracasaron. La tarea
parecía imposible. Desde que Thompson sacó los electrones de los átomos
siempre había sido posible separar cualquier sistema compuesto, una molécula en
átomos o un núcleo en protones y neutrones. Pero parece imposible aislar los
10
quarks. Esta característica fue incorporada en la teoría moderna de las
interacciones fuertes, la cromodinámica cuántica, que prohibe a los quarks quedar
libres, mediante un proceso denominado confinamiento.
• Gran Unificación
Las interacciones electrodébil y fuerte se describen actualmente con una
teoría cuántica de campos basada en una gran cantidad de partículas,
organizadas en una estructura de simetría llamada grupo. De la inmensa cantidad
de estructuras posibles, los datos experimentales han permitido seleccionar una,
que se conoce como el Modelo Estándar. Las partículas del Modelo Estándar se
dividen en dos clases con funciones muy diferentes, de acuerdo a su espín: los
bosones, de espín entero (medido en unidades cuánticas), son los mensajeros de
las fuerzas y los fermiones, de espín semientero, constituyen la materia. Una
combinación de teoría y experimento conduce a tres grupos de simetría,
correspondientes a las tres fuerzas que describe: SU(3)×SU(2)×U(1). Este modelo
matemático explica toda la física de partículas que se ha observado hasta el
presente. Sus predicciones han sido confirmadas con asombrosa precisión.
El Modelo Estándar y la Relatividad General han superado todas las pruebas
a que han sido sometidos. Los físicos experimentales y astrónomos han reportado
cada vez mejor coincidencia entre sus resultados y observaciones y las
predicciones de estas teorías. Con ellas, las fuerzas fundamentales de la
naturaleza se explican, entonces, satisfactoriamente. Todas las cadenas de
preguntas sobre fuerzas y materia conducen al Modelo Estándar de las partículas
elementales y la Relatividad General.
Sin embargo, éstas claramente no pueden ser la teoría madre. Por un lado,
aunque las interacciones nucleares fuertes están incluidas en el Modelo Estándar,
aparecen como algo bastante diferente de la fuerza electrodébil, no como parte de
una descripción unificada. Además, este modelo contiene muchas características
que no son dictadas por principios fundamentales, sino que deben ser tomadas
del experimento. Estos rasgos aparentemente arbitrarios incluyen el menú de
partículas y simetrías, varias constantes e incluso los propios principios que lo
sustentan. Por otro lado, no contiene a la gravedad, que se describe con una teoría
muy diferente, la Relatividad General. Esta funciona bien clásicamente, cuando
puede ser probada experimentalmente, pero pierde su validez a energías altas. Los
efectos cuánticos de la gravedad se hacen relevantes a la energía de Planck (1019
GeV) 1, una energía tan grande que nos coloca frente a un nuevo problema: no
podemos suponer que podrá alcanzarse experimentalmente. Tampoco se entiende
teóricamente la física a esas energías, ya que hay obstáculos matemáticos muy
fuertes para describir la gravitación cuántica en el mismo lenguaje que las otras
fuerzas. Se pueden aplicar las ecuaciones de la teoría cuántica de campos a la
1 El electronvolt, abreviado eV, es una unidad de energía. Utilizando la equivalencia entre masa y energía, es útil
expresar la masa de las partículas elementales en esta unidad: la masa del electrón es me=0.511 MeV, y del protón mp =
938 MeV. El megaelectronvolt y gigaelectronvolt, MeV y GeV, son múltiplos del eV, 1 MeV= 106 eV, 1GeV=109 eV.
11
Relatividad General, pero el resultado es una teoría no renormalizable. Aparecen
otros problemas: los agujeros negros, objetos predichos por la relatividad clásica,
parecen desafiar los postulados básicos de la mecánica cuántica. Los dos pilares
fundamentales de la física del siglo XX, la Relatividad General y la Mecánica
Cuántica resultan incompatibles en el contexto de las teorías de partículas. Estos
son los problemas que intenta resolver la teoría M, y para ello hubo que postular
nuevos principios, desarrollar nuevas ideas.
Para finalizar esta introducción histórica, veamos en un ejemplo sencillo de
qué manera comprender las fuerzas fundamentales que hemos descripto permite
entender la naturaleza y hasta dónde se puede llegar con el Modelo Estándar y la
Relatividad General. Consideremos para ello algunas cadenas de preguntas sobre
un pedazo de tiza blanca 2.
Sobre un pedazo de tiza
¿Por qué la tiza es blanca?
Todos sabemos que los colores del arco iris se asocian con luz de
determinada longitud de onda, el rojo con las más largas, el violeta y el azul con
las más cortas. La luz blanca es una mezcla de diferentes longitudes de onda.
Cuando la luz choca contra un objeto opaco como la tiza sólo una parte se refleja;
el resto es absorbido. Una sustancia es de determinado color porque absorbe
ondas de ciertas longitudes: vemos el color que refleja. La tiza absorbe en el
infrarrojo y el ultravioleta, que son rangos del espectro invisibles, y refleja todos
los otros, los visibles. Por eso es blanca.
¿Pero por qué la tiza absorbe las longitudes de onda invisibles y refleja
todas las visibles?
La respuesta tiene que ver con las energías de los átomos y de la luz. Los
fotones de la luz no tienen masa o carga pero tienen cierta energía, que es
inversamente proporcional a la longitud de onda de la luz. Los estados de un
átomo son discretos, no se pueden cambiar excepto en ciertas cantidades
definidas. Normalmente un átomo está en su estado de mínima energía; cuando
absorbe luz salta a un estado de mayor energía y cuando emite salta a un estado
de energía menor. Entonces sólo absorbe o emite fotones de esas energías
particulares. La tiza es blanca porque las moléculas que la componen no tienen un
estado al que puedan saltar absorbiendo fotones de cualquier color de luz visible.
Pero ¿por qué los átomos y moléculas tienen estados discretos con energía
definida? ¿Por qué la luz tiene fotones de energía definida?
Estas preguntas se respondieron con la Mecánica Cuántica. Las partículas
de un átomo sólo pueden tener cargas, masas y energías en ciertos valores
discretos. Los fotones también, por su naturaleza cuántica, sólo pueden existir con
determinadas energías. Las moléculas de carbonato de calcio que forman la tiza
no tienen electrones que puedan cambiar su energía absorbiendo luz visible.
2 El ejemplo se tomó de la referencia [1]
12
¿Y por qué las ecuaciones de la Mecánica Cuántica que gobiernan a las
partículas en los átomos son así? ¿Por qué la materia consiste de átomos,
electrones y núcleos? ¿Por qué hay algo como la luz?
Las respuestas nos remontan al Modelo Estándar y para eso fue necesaria la
reconciliación de la Mecánica Cuántica con la Relatividad Especial en 1940. ¿Por
qué hay un neutrón y un protón, uno neutro y otro cargado de masas casi iguales y
mucho más masivos que el electrón?
Los quarks más livianos se llaman u (up) y d (down) y tienen cargas 2/3 y
–1/3 en unidades en que la carga del electrón es –1. Los protones consisten de
dos u y un d y entonces tienen carga 2/3+2/3−1/3=1. Los neutrones consisten de
un u y dos d, entonces su carga es 2/3–1/3–1/3=0. Las masas de los neutrones y
protones son casi iguales porque se originan en fuerzas fuertes que mantienen a
los quarks unidos y estas fuerzas son iguales para un u y un d. El electrón es más
liviano porque no siente estas fuerzas fuertes. Todos los quarks y electrones son
paquetes de energía de varios campos, y sus propiedades se siguen de las
propiedades de estos campos.
¿Pero por qué el mundo consiste sólo de estos campos, los quarks,
electrones, fotones? ¿Por qué tienen las propiedades que les atribuye el Modelo
Estándar? ¿Por qué la naturaleza parece comportarse de acuerdo a esta teoría?
Estas preguntas todavía no tienen respuesta. Son algunos de los
interrogantes que intenta responder la teoría M.
Vayamos ahora en otra dirección: ¿Por qué hay suficiente calcio, carbono y
oxígeno aquí en la tierra para formar la tiza? Estos elementos existen en todo el
universo, fueron creados en las estrellas. Según el modelo del big bang, que
describe la evolución del universo desde la gran explosión hasta nuestros días, la
materia se formó en los primeros minutos en una proporción de ¾ partes de
hidrógeno y ¼ de helio y otros pocos elementos livianos. Este es el material crudo
del que se formaron los elementos más pesados en las estrellas. Los cálculos de
reacciones nucleares en las estrellas muestran que los elementos más abundantes
son aquellos cuyos núcleos están más ligados, y éstos incluyen el carbono,
oxígeno y calcio. Las estrellas mandan este material al medio interestelar
mediante explosiones de supernovas y vientos estelares. Y en este medio, rico en
constituyentes de tiza, se forman las estrellas de segunda generación, como el Sol
y sus planetas. Por eso hay tiza en la tierra.
Hay una teoría bastante aceptable de la evolución estelar. Sabemos que las
estrellas se agrupan en galaxias y las galaxias en cúmulos y supercúmulos.
Entendemos cómo y cuándo se formaron los elementos, cómo era el universo
cuando tenía unos pocos segundos de vida. Pero este escenario depende de que
haya habido un big bang hace 12 a 15 mil millones de años, según se deduce de
la Relatividad General y el Modelo Estándar. Y todavía no sabemos si realmente lo
hubo ni por qué.
En definitiva ¿por qué rigen los principios de la relatividad y la mecánica
cuántica? Estas son otras incógnitas que pretende resolver la teoría M. Pero para
13
poder presentar el modo en que intenta responderlas, todavía necesitamos
introducir algunas otras ideas previas.
El concepto que dominó las unificaciones que desembocaron en el Modelo
Estándar es que las fuerzas intrínsecas de las tres interacciones (débil, fuerte y
electromagnética) se funden en una sola a alguna energía muy alta y evidencian
sus diferentes identidades a energías menores. Esta propuesta explota una
propiedad de las teorías cuánticas de campos: su manifestación física depende de
la escala de energía de las partículas involucradas. A energías grandes, una teoría
parece describir un conjunto de partículas con ciertas simetrías, mientras que a
energías más bajas éstas pueden cambiar drásticamente. En particular, las
simetrías presentes a energías altas pueden estar rotas a energías menores. La
energía predicha para esta gran unificación es muy alta (1016 GeV) comparada con
la escala de unificación electrodébil (unos cientos de GeV), y esto nos enfrenta a
un nuevo problema: si las fuerzas se unifican a una escala de energía (o
equivalentemente de masa) tan alta, hay que explicar por qué las partículas
conocidas son tan livianas. Esta observación puede parecer poco importante al
neófito, pero los especialistas consideran que una jerarquía poco natural de
escalas de energía es un signo de inconsistencias teóricas graves.
Una posible solución se obtuvo apelando a una nueva idea: la supersimetría.
Esta postula que para cada bosón hay un fermión y viceversa, con la misma masa.
Para cada partícula de espín entero hay otra de espín semientero. La
supersimetría vincula estos dos tipos de partículas de un modo fundamental,
avanzando un paso más en la tradición reduccionista. Lamentablemente esta
simetría no se observa en la naturaleza. Las compañeras supersimétricas de las
partículas conocidas no han sido detectadas todavía. Pero podría suceder que la
naturaleza fuera supersimétrica a escalas de energía altas y que esta simetría
estuviera rota a las escalas que podemos alcanzar en los aceleradores de
partículas. Esta idea es muy atractiva porque la supersimetría debería verificarse
en el rango de energías en que operará la nueva generación de aceleradores y esta
propuesta, que no tiene ningún sustento experimental, podría entonces ser
corroborada (o no) en un futuro cercano.
Combinando la supersimetría con la gran unificación se logra que la ruptura
de la simetría de gran unificación suceda a muy altas energías pero la ruptura de
la supersimetría ocurra a energías considerablemente menores. Si así fuera la
supersimetría resolvería el problema de las jerarquías: en teorías unificadas
supersimétricas es natural que algunas partículas sean livianas, aunque la escala
natural de energía sea muy alta. Estas propuestas resultan muy prometedoras,
pero todavía la gravedad queda fuera de la gran amalgama.
La teoría de cuerdas
A fines de la década del ’60 las propiedades de las partículas hadrónicas no
podían explicarse en el contexto de la teoría cuántica de campos. Buscando una
expresión matemática que describiera los resultados experimentales, se descubrió
14
accidentalmente que aquella que mejor reproducía los datos, no correspondía a la
interacción de partículas puntuales, sino de objetos extendidos en una dimensión.
Este fue el origen de la teoría de cuerdas.
Este descubrimiento representa una importante ruptura con las teorías
previas que, invariablemente, modelaban la materia en términos de partículas
elementales puntuales. El tamaño de las cuerdas es muy pequeño (10−33 cm),
pero lo importante es que no son puntuales, tienen una dimensión. Pueden ser
abiertas y con extremos, o cerradas formando un lazo (figura 3). A diferencia de
las cuerdas ordinarias (por ejemplo las de saltar a la soga –abiertas− o las
gomitas para atarse el cabello −cerradas), que están compuestas de partículas,
como protones, neutrones y electrones, estas cuerdas fundamentales son ellas
mismas los elementos de los que están hechos los protones, neutrones y todas las
partículas.
Figura 3: cuerda abierta cuerda cerrada
Así como las cuerdas de los instrumentos musicales vibran y producen
diferentes sonidos, las cuerdas fundamentales pueden estar en cualquier estado
posible de infinitos modos de vibración. Los distintos armónicos de una cuerda de
violín son esenciales para la riqueza musical. En el caso de las cuerdas
fundamentales, todos estos modos se comportan como partículas de distintas
masas, correspondientes a las frecuencias de oscilación de la cuerda. Entonces,
una única especie de cuerda producirá montones de excitaciones de partículas: el
electrón, el protón, el fotón, el gravitón (la partícula del campo gravitatorio), etc.
Surge así un nuevo cimiento en la cadena de explicaciones: cuerdas → partículas
→ átomos → moléculas.
La diferencia crucial con las teorías de partículas es que la propia naturaleza
de las cuerdas, el hecho de que sean extendidas y no puntuales, cura las
divergencias que plagan las teorías cuánticas de campos. Mientras en el caso de
las partículas hay un punto bien definido en el que ocurre la interacción, los
vértices de los diagramas de Feynman donde se originan las divergencias, cuando
una cuerda se separa en dos, o dos cuerdas se unen en una, no hay una noción
bien definida de cuándo y dónde esto sucede (figura 4).
15
Figura 4: Interacción de tres partículas Interacción de tres cuerdas
La interacción se suaviza al considerar objetos de una dimensión. Y esta
diferencia tiene muchas consecuencias. En primer lugar, en la teoría de cuerdas el
electrón ya no es puntual, sino una pequeña cuerda vibrante. La dimensión extra
de la cuerda permite darle sentido al campo gravitatorio del electrón. Y lo mismo
sucede con todas las partículas elementales, que en esta teoría son pequeñas
cuerdas oscilantes. La teoría cuántica de cuerdas es finita: no aparecen en esta
teoría magnitudes físicas divergentes como en las teorías de campos de partículas
puntuales.
El entusiasmo de los físicos con estas teorías creció cuando se mostró que a
bajas energías, donde las cuerdas se pueden considerar puntuales, la teoría
reproducía la Relatividad General. En efecto, la teoría de cuerdas predice que a
bajas energías los modos de vibración que corresponden a las partículas de la
gravedad, los gravitones, interactúan de acuerdo a las leyes de la Relatividad
General. Y no es posible que lo hagan de otro modo sin violar algún postulado
básico de la teoría. De la misma manera en que la Relatividad General se reduce a
la teoría de Newton para campos débiles, la teoría de cuerdas se reduce a la
Relatividad General para bajas energías. Pero la teoría de Einstein podría
modificarse, introduciendo pequeñas correcciones que no arruinen su consistencia
ni sus exitosas verificaciones experimentales. Por el contrario, la teoría de cuerdas
no puede cambiar, es más rígida, no tiene parámetros libres para ajustar. Las
correcciones que predice quedan determinadas por la consistencia matemática,
así como la ley del cuadrado inverso es arbitraria en la teoría de Newton, pero
queda determinada al deducirla de la Relatividad General. Como además la teoría
de cuerdas es una teoría cuántica finita, se considera que es la primera, y quizás
la única posible, teoría cuántica consistente de la gravedad.
Aunque se podría pensar en muchas teorías de cuerdas, así como hay
incontables teorías de partículas puntuales, resulta que sólo cinco tipos pasan el
test de consistencia matemática ¿Cómo logran las matemáticas restringir tan
fuertemente la teoría? Como las partículas, las cuerdas deben ser relativistas, es
decir deben estar sujetas a las leyes de la relatividad. Y también, al igual que en el
caso de las partículas, hay que desarrollar una mecánica cuántica de cuerdas. La
consistencia de la teoría cuántica de cuerdas relativistas es posible sólo en unos
pocos modelos.
Las matemáticas que describen cuerdas relativistas son bastante
elementales al nivel de la teoría clásica. Pero al intentar aplicar a la teoría los
postulados de la Mecánica Cuántica, a fines de los `70, se descubrió que el
número de dimensiones del espacio tiempo debía ser 26. Es decir, las cuerdas
cuánticas relativistas sólo pueden existir en un mundo de 25 dimensiones
espaciales además del tiempo. Por primera vez una teoría predice el número de
dimensiones del espacio-tiempo. Las teorías anteriores, basadas en partículas
puntuales, postulan las tres dimensiones espaciales que se manifiestan
cotidianamente. En la teoría de cuerdas la dimensionalidad del espacio−tiempo es
16
una predicción, una consecuencia de la consistencia matemática. Pero lo absurdo
del resultado, el excesivo número de 26 dimensiones, empañaba la satisfacción.
El entusiasmo se moderaba también porque la teoría tiene otra
característica desagradable: entre todos los modos de vibración que aparecen hay
uno que corresponde a una partícula cuya masa al cuadrado es negativa. Es decir,
la masa no es un número real sino imaginario. Estas partículas se llaman
taquiones y son objetos indeseables en las teorías cuánticas porque conducen a
resultados ilógicos e inexplicables. Además, estas cuerdas que viven en 26
dimensiones sólo tienen grados de libertad bosónicos, no incluyen fermiones, y
entonces no pueden explicar la materia que conocemos.
Todos estos problemas se solucionaron agregando supersimetría a la teoría,
es decir incorporando compañeros fermiónicos para cada bosón. Así se
encontraron otras formulaciones que no contienen taquiones y no requieren tantas
dimensiones para el espacio−tiempo. Estas son las cinco teorías de supercuerdas,
que viven en 10 dimensiones espacio−temporales. En ellas, el objeto fundamental
es una cuerda con grados de libertad adicionales, modos fermiónicos agregados
de manera supersimétrica. Resulta que sólo hay cinco teorías consistentes de
supercuerdas, que se distinguen porque contienen cuerdas cerradas y abiertas
(Tipo I) o sólo cuerdas cerradas (Tipo IIA, IIB, heterótica SO(32) y heterótica E8 ×
E8). Las siglas SO(32) y E8 × E8 indican el grupo de simetrías, las letras A y B se
refieren al tipo de supersimetría y los números I y II la cantidad de supersimetrías.
Todas estas teorías se reducen a la Relatividad General a bajas energías y
una de ellas se parece notablemente al Modelo Estándar de las partículas
elementales. Pero no tienen ninguno de los problemas que presentan las teorías
de partículas, son finitas y no tienen anomalías (otras enfermedades típicas de las
teorías cuánticas de campos). Comenzó así, con estos resultados, lo que se llamó
la Primera Revolución de la teoría de cuerdas en 1984.
A pesar de estos logros impresionantes, a principios de los ’90 el entusiasmo
decayó, principalmente porque la teoría no podía responder una pregunta esencial.
¿Por qué nuestro universo es sólo una de las muchas soluciones de la teoría de
cuerdas? Cualquier análisis de viabilidad u obtención de predicciones
experimentales requiere comprender cómo se relaciona la física en las 3
dimensiones espaciales con el mundo en las 9 que predice la teoría. Para poder
extraer conclusiones realistas es necesario suponer que 6 de ellas son invisibles.
El mecanismo era conocido: la compactificación introducida por Kaluza y Klein
para unificar la gravedad y el electromagnetismo. Las predicciones experimentales
dependerán de cómo sean las dimensiones extra, de cómo se realice esta
compactificación. Las propiedades físicas, las masas y cargas de las partículas de
materia y radiación, serán diferentes para distintas compactificaciones. Y aquí está
uno de los problemas más importantes que debe resolver la teoría de cuerdas:
existen muchas, demasiadas posibilidades de realizar esta transición de 9 a 3
dimensiones. Y muchas de ellas son consistentes con la fenomenología observada
experimentalmente.
17
La dimensión del espacio−tiempo es variable en la teoría de cuerdas, en el
sentido de que hay que entender y resolver las ecuaciones de la teoría para
determinarla. Esto representa un avance muy importante para una teoría
fundamental. Si los cálculos indicaran que es 4, se podría explicar uno de los
misterios más profundos de la naturaleza: ¿por qué nuestro universo tiene 4
dimensiones? Pero las ecuaciones eran muy complicadas y no podían resolverse. La
teoría no permitía elegir entre distintas posibilidades de otra manera que no fuera
el contraste con el experimento, seleccionando la versión que ajustara mejor a la
naturaleza. No había un criterio, un principio, que condujera a nuestro universo.
Esto llevó a pensar que en realidad todavía no existía una buena formulación de
la teoría. En particular, como los cálculos podían hacerse sólo de manera
aproximada, perturbativa, se pensaba que una formulación exacta eliminaría
muchas de estas soluciones. La esperanza era que eliminara todas excepto una: la
que corresponde a la naturaleza.
En el año ‘94 comenzaron a descubrirse nuevas propiedades y relaciones
entre las cinco teorías de supercuerdas que reavivaron el interés y permitieron
suponer la existencia de una única teoría, la teoría M, que reemplazó a la anterior
teoría de cuerdas. Las cinco supercuerdas parecen ser muy diferentes cuando se
describen perturbativamente, cuando sus interacciones son débiles. La gran
revelación de las simetrías de dualidad que se descubrieron entonces es que son
simplemente distintas manifestaciones de una sola teoría, aproximaciones a la
teoría M, válidas en ciertas condiciones particulares. Esta es otra mejora
sustancial respecto de las teorías de partículas, que son tantas. La unicidad es un
requisito indispensable que debe poseer la teoría primordial y la verificación
experimental de sus predicciones se transforma así en un test decisivo para la
viabilidad de la teoría. Tan importante fue el descubrimiento de estas simetrías de
dualidad y de la teoría M, que 1994 se considera el año de la Segunda Revolución
de las Cuerdas.
¿Cómo logran esta unificación las simetrías de dualidad? Dos teorías se
consideran duales cuando describen la misma física. Las dualidades son difíciles
de aceptar a primera vista. Por ejemplo, según la dualidad T, las distancias muy
cortas son equivalentes a las muy largas y según la dualidad S, las interacciones
muy débiles son equivalentes a las muy fuertes. Estas propiedades contrastan con
nuestra experiencia cotidiana, pero no se puede descartar que la naturaleza las
posea. Este tipo de predicciones cualitativas podrían ser relevantes para explicar
el universo primitivo y el big−bang y, con suerte, podrían permitir encontrar alguna
verificación cosmológica de la teoría.
La dualidad T relaciona una teoría con una dimensión compactificada en un
círculo de radio R con otra teoría compactificada en un círculo de radio 1/R.
Entonces, cuando la primera teoría tiene una dimensión muy pequeña, la otra
tiene una dimensión muy grande, pero ambas describen la misma física. Las
teorías Tipo IIA y IIB están relacionadas por dualidad T, y también lo están las
teorías heterótica SO(32) y E8× E8.
18
De acuerdo a la dualidad S, los estados de vibración de una cuerda que
corresponden a partículas muy livianas, se relacionan con otros correspondientes
a partículas muy pesadas en la teoría dual y viceversa. Esta simetría vincula las
teorías Tipo I y Heterótica SO(32). La teoría IIB es autodual S: todos los estados
livianos tienen su correspondiente pesado y viceversa. La dualidad S se puede
representar matemáticamente como g ←→ 1/g, de manera similar a la que
encontramos en el electromagnetismo, e ←→ g. Esta nueva relación, aunque
parece más simple, resulta ser extremadamente poderosa. Significa que una teoría
de cuerdas caracterizada con g y definida para g grande, que es usualmente
imposible de describir usando la matemática que conocemos, es equivalente a
otra teoría de cuerdas para g pequeño, que se describe fácilmente usando teoría
de perturbaciones. Entonces dos teorías de cuerdas que parecen diferentes, son
en realidad duales entre sí. En la región no perturbativa de la teoría de cuerdas
hay otra teoría de cuerdas que puede describirse perturbativamente. Este es el
modo en que se prueba la equivalencia de las cinco teorías.
La dualidad S permitió descubrir también que las supercuerdas no son sólo
una teoría de cuerdas. Poseen objetos de mayores dimensiones, llamados pbranas,
tan fundamentales como las cuerdas, las cuales se transforman ahora en
1-branas. Las partículas puntuales son 0-branas, los objetos de 2 dimensiones son
membranas o 2-branas, etc. La teoría de cuerdas ha evolucionado hacia una teoría
más general, la teoría M, donde conviven objetos de distintas dimensiones. ¿Cómo
aparecen estos nuevos objetos?
Lo que distingue a las cuerdas de las p-branas es que la teoría cuántica de
campos que describen objetos de una dimensión son renormalizables, mientras
que para p>1, estas teorías son no renormalizables. Esta característica coloca a
las cuerdas en una posición privilegiada. Como dijimos, las cuerdas pueden ser
cerradas o abiertas. Las cuerdas abiertas tienen dos puntos especiales: los
extremos. Estos puntos pueden moverse libremente o pueden estar restringidos a
ciertas condiciones. Las superficies sobre las cuales están obligados a moverse los
extremos de las cuerdas abiertas son las Dp-branas. Por ejemplo, si estos puntos
sólo pueden moverse en dos dimensiones, estas superficies son las D-membranas
o D2-branas (figura 5); si los puntos están libres, las D9-branas llenan todo el
espacio. Las D-branas son en realidad objetos dinámicos que, al igual que las
cuerdas, vibran y pueden moverse en el espacio− tiempo.
Otra sorpresa que revelaron las simetrías de dualidad es que la teoría M
tiene una dimensión adicional, es decir que el espacio−tiempo es de 11
dimensiones. En el límite de bajas energías, la teoría M se reduce a una teoría de
gravedad supersimétrica, la supergravedad en 11 dimensiones.
19
Figura 5: Cuerdas con extremos fijos sobre una D2−brana
Para estudiar las cuerdas se usaban aproximaciones perturbativas, que
tienen grandes limitaciones. Las simetrías de dualidad ofrecen una ventana a la
física no perturbativa, exacta. Estudiando estos efectos no perturbativos se llega a
la conclusión de que sólo hay una teoría cuántica, M. En esta teoría conviven
objetos de distintas dimensiones en un pie de igualdad, las D-branas. La
elaboración de M está en plena ebullición y nuevas propiedades se están
descubriendo permanentemente. La idea que existe entre los físicos es que no se
conocen todavía los principios fundamentales que sustentan las ecuaciones.
La situación actual suele resumirse con la figura 6 que especifica las teorías que
describen distintas regiones de los parámetros que caracterizan a la teoría M.
Figura 6
20
Conclusión
Los últimos años han visto el desarrollo de un marco radicalmente nuevo
para una teoría unificada de todas las interacciones, una teoría cuántica de la
gravedad y las otras fuerzas: la teoría M. Esta teoría es la primera con condiciones
para convertirse en la teoría madre.
Según M, el Modelo Estándar y la Relatividad General son aproximaciones a
energías bajas, también llamadas teorías efectivas, de una teoría fundamental que
no es una teoría de partículas solamente, sino también de cuerdas y D-branas.
Esta ruptura drástica con las ideas que dominaron la física hasta la década de
1980, marca el comienzo de una nueva era postmoderna en física.
Una diferencia fundamental que distingue a la teoría M de cualquier teoría
previa es que los principios no se ponen a dedo; son consecuencia matemática del
modo particular de satisfacer las reglas de la mecánica cuántica. No hay ningún
parámetro libre en la teoría M; no hay nada que se pueda ajustar. Todos los
elementos de la teoría quedan determinados por la consistencia matemática. M
predice que el espacio−tiempo tiene 11 dimensiones y es supersimétrico. Como el
gravitón parece ser una característica inevitable de M, se puede decir que esta
teoría explica por qué existe la gravedad.
Hasta ahora sólo hay una formulación muy elegante, pero para ser
verdaderamente exitosa la teoría debe tener una única solución a partir de la
cual podamos saber qué tipos de partículas existen a bajas energías, sus
masas, las intensidades de sus interacciones y probabilidades de todo tipo de
procesos. Sólo realizando estos cálculos y comparándolos con el experimento
podremos saber si M es correcta. Todavía no hay un test decisivo de la teoría, no
hay predicciones cuantitativas. Pero es la única candidata para ser la teoría
madre. Se puede pensar en M como la instancia inicial de un programa que
contiene la primera teoría matemáticamente satisfactoria de la gravedad
cuántica unificada con las otras fuerzas fundamentales de la naturaleza.
Un incentivo para recorrer el duro camino de comprender la teoría M, de
embarcarse en esta nueva “aventura del pensamiento”, es que, si realmente
constituye una explicación cuantitativa de todas las partículas e interacciones de
la naturaleza, representará uno de los mayores éxitos científicos de la historia de
la humanidad.
Pero no todos los físicos comparten este optimismo. Algunos piensan,
filosófica y científicamente, que estos esfuerzos están dirigidos en la dirección
equivocada. Entre ellos, Richard Feynman dijo, refiriéndose a la teoría de
cuerdas: “...creo que todo esto es un disparate.”
Bibliografía
1. S. Weinberg, "Dreams of a Final Theory"
2. P.C.W. Davies y J. Brown, "Superstrings: a theory of everything"
21
3. B. Greene, “The elegant universe: superstrings, hidden dimensions and the
quest for the ultimate theory”
4. M-. Kaku, “Hyperspace: A scientific odyssey through parallel universe, time
warps and the tenth dimension”
5. Varios artículos de divulgación pueden encontrarse en
http://feynman.physics.lsa.umich.edu/strings2000/mtheory.html
martes, 4 de octubre de 2011
miércoles, 20 de julio de 2011
PEDAGOGIA DE LA AUTONOMIA DE PAULO FREIRE
RESUMEN
En “La Pedagogía de la Autonomía” del autor Paulo Freire, el autor nos invita a reflexionar críticamente en torno a su pensamiento y al quehacer pedagógico del cual también somos parte. A partir de tres planteamientos que el hace y que surgen de su reflexión tales como;”No hay docencia sin discencia “, “Enseñar no es transferir conocimiento “, y” Enseñar es una especificidad humana” el autor nos ayuda e incentiva a reflexionar y cuestionarnos nuestro propio quehacer como docentes.
En cada uno de los planteamientos el autor va plasmando algo de su propia experiencia así como de su pensamiento, nos invita también a reflexionar críticamente acerca de lo que es y ha sido la práctica pedagógica.
En cada una de estas afirmaciones podemos advertir la presencia de algunos saberes los cuales son fundamentales para el autor y para la práctica educativa. Veamos primero a que se refiere el autor cuando dice “No hay docencia sin discencia”.
Primero debemos tener claro y como afirma el autor:”debemos asumirnos como sujetos de la producción del saber y apartir de esta afirmación convencernos que enseñar no es transferir conocimientos sino crear las instancias para su producción o su construcción “.Es decir nosotros mismos como educadores sin darnos cuenta somos sujetos que formamos y quienes a al mismo tiempo se forman y se re-forma al formar y quien es formado se forma al ser formado. Por lo tanto esto nos deja claro que las dos afirmaciones que se hicieran acerca de lo que somos son verdaderas, lo que una vez más deja al descubierto que enseñar es un proceso activo y no pasivo.
En esta dinámica de ser formador y ser formado tenemos que considerar que cada uno de nosotros al ser formadores debemos constantemente al enseñar, aprender y a la vez investigar ya que no podemos memorizar los conocimientos ya existentes para luego recitarlos inertemente, sino que debemos investigar para conocer lo que no conocemos y de esta manera apropiarnos de estos conocimientos los cuales deberemos enseñar a los educandos de la mejor manera para que ellos logren internalizarlos y hacerlos suyos adecuadamente. Pero así como nosotros entregamos conocimientos a los educandos debemos también respetar los saberes con los cuales los educandos llegan a nosotros , debemos saber respetar estos conocimientos que los educandos traen consigo producto de su educación social o educación no formal, como educadores debemos ser capaces de unir ambos tipos de conocimientos para que de esta manera los educandos internalicen lo que aprenden de mejor manera y no sientan que los contenidos que se les enseñan son completamente ajenos a ellos y a sus realidades diversas .Llevar a cabo esto exige critica ,critica del como lo estamos haciendo para no caer en tentaciones como el transformar la experiencia educativa solo en adiestramiento lo que contribuye a despreciar lo que es fundamentalmente humano , su carácter formador por lo que enseñar también exige estética y ética así como corporificacion de las palabras en el ejemplo, es decir , quien trabaja con lo que se dice “debe trabajar o enseñar”, en este caso con los contenidos del marco regulador , niega todo lo antes expuesto ya que esta persona sabe que a estos contenidos les falta la corporeidad del ejemplo, poco a nada valen para los educandos ya que estos contenidos niegan sus conocimientos previos los que son producto de sus vivencias, por lo que el educador que dice pensar acertadamente debe hacer acertadamente y al decir esto significa que el educador debe lograr que cada contenido que enseñe se pueda relacionar con las diversas realidades que encuentra en su aula .Es así , como en esta aseveración también podemos advertir como cuantos docentes no piensan acertadamente cuando preguntan de manera prepotente y amenazante a los educandos si saben con quien hablan o cuando dicen “bueno quien es el profesor” , esto generalmente porque los educandos al darse cuenta de que lo que están aprehendiendo no se relaciona mucho con sus vivencias hacen preguntas al respecto ,como ellos dirían ¿Para que me sirve esto? , y demás esta decir que nosotros como educadores sabemos que los educandos siempre tiene curiosidad por saber, por lo que este tipo de preguntas o discursos aun hoy en día no es difícil no dejar de escucharlo. Discursos que lo único que fomentan son la rabia por estos docentes quienes dejan muy en claro o marcan muy bien la distancia y la diferencia entre educando y educador, pasando por alto los saberes de estos últimos, y mas aun dejando de lado el hecho que cuando uno enseña también aprende ya que la educación es un proceso de retroalimentación constante por parte del educador como del educando.
El enseñar exige riesgos así como el asumir lo nuevo, y el rechazar cualquier forma de discriminación. El pensar acertadamente rechaza cualquier forma de discriminación, así como el autor de este texto se cuestiona su pensar acertado, lo mismo debemos hacer nosotros, el pensar acertado no es algo que se enseñe como un contenido, sino que es algo que se vive y se practica día a día, el pensar acertado es ser consecuente con lo que uno dice y hace. Sabemos que a partir del pensar acertadamente no se funda la practica docente critica ,pero también sin este pensamiento no funciona , entonces como si fuera una simple suma matemática debemos ser consecuentes y señalar que enseñar también exige una reflexión critica sobre la practica , y quien mejor que los propios educadores para enseñar un pensar acertadamente, aunque debemos estar conscientes que no todos serán el mejor modelo para esto, pero una manera de comenzar a mejorar es a través de los alumnos aprendices de docencia , el docente- guía podría como su nombre lo dice guiar a estos aprendices a una manera de pensar adecuada, ya que esta manera de pensar no se produce por si misma sino que con la ayuda o guía del profesor formador. Es así como a través de este pensar acertadamente lograremos el reconocimiento y la asunción de la identidad cultural, pero para lograr esto primero el educador y el educando deben ser capaces de asumirse como seres sociales e históricos , pensante , comunicante , transformador, creador , realizador de sueños, capaz de sentir rabia porque es capaz de amar, también asumirse como sujeto porque es capaz de asumirse como objeto , este tipo se asunción pertenece a una practica educativa progresista la que no tiene nada en común con el adiestramiento pragmático o con el elitismo autoritario de quienes creen saberse poseedores del conocimiento absoluto. El docente cuya práctica educativa es progresista , con un simple gesto hacia un educando, gesto el cual podría parecer insignificante, lo ayudara enormemente en su función transformadora , no así el otro educador quien erróneamente piense ser poseedor de la verdad absoluta quien lo único que lograra con sus educandos será anularlos como futuros sujetos históricos y sociales , ya que con su tipo de enseñanza estos educandos nunca se sentirán confiados de emitir algún juicio ya que el educador los desalentara .Anulando de esta manera también su curiosidad ingenua y critica sin dejar de mencionar el reconocimiento del valor de las emociones , de la sensibilidad , de la afectividad entre otros.
En segundo lugar, cuando el autor menciona “Enseñar no es transferir conocimiento” el se refiere que este es otro de los saberes que debe ser vivido, es decir, se deben crear las instancias para la producción o construcción propia del educador y del educando, ya que no debemos olvidar que al Yo enseñar también aprendo así como lo mismo le sucede al educando. Es en este punto donde debemos tomar consciencia que aunque al yo enseñar aprendo y me formo así como también me deformo en relación a lo que ya sabia de antes o mejor seria decir evoluciono, lo cual también le sucede al educando y es aquí donde debemos especificar que enseñar exige que tengamos conciencia del inacabamiento o mejor dicho el inacabamiento del ser humano. Como dice el autor donde hay vida hay inacabamiento pero solo existe entre hombres y mujeres, además este se volvió conciente y esto debido al soporte material en el cual radica la diferencia entre seres humanos y animales. Otra exigencia de enseñar es que esta exige el reconocimiento de ser condicionado. Como cita el autor “me gusta ser persona porque, inacabado se que soy un ser condicionado pero, conciente del inacabamiento, se que puedo superarlo” tenemos aquí entonces la gran diferente entre ser un ser condicionado y ser determinado ahí la diferencia, cuando sabemos que somos seres inacabados podemos superarnos para “tratar de llegar” y digo tratar porque es imposible que alcancemos el inacabamiento, esto solo se podría alcanzar desde mi punto de vista con la muerte del ser humano. Tenemos también el concepto de inconclusion del cual nos habla el autor , pero creo que el nos plantea este concepto haciendo una clara diferenciación entre seres humanos y cosas , todos los seres humanos somos o estamos inconclusos pero inacabados solo estamos los seres humanos ya que este concepto se puede relacionar al nivel de conocimiento que cada uno de nosotros tiene o quiere alcanzar , pero según nos explica Freire es un proceso social de búsqueda, que será muy difícil por no decir imposible de lograr. Al habernos hecho concientes de este inacabamiento nos hicimos seres responsables y por lo tanto seres éticos, mas aun es entonces que al sabernos seres inconclusos así como inacabados aparece la educación como un proceso permanente, ya que sabernos concientes de ser seres inconclusos he inacabados nos mueve a la búsqueda constante . Es por esto mismo que la educación exige respeto a la autonomía del ser del educando ya que todos tenemos diferentes niveles de inconclusion y de inacabamiento, lo que nos hace visiblemente diferentes unos de otros por lo tanto autónomos, aquel educador que no respete al educando con todos sus inacabamientos he inconclusiones transgrede los principios fundamentales éticos de nuestra existencia. Y esta transgresión de la eticidad no se considera una virtud sino que una ruptura con la decencia, de esta afirmación surge entonces el hecho que enseñar exige buen juicio. Es mi buen juicio el que me ayudara o indicara como debo hacer bien mi trabajo por ejemplo, siempre teniendo en mente que no es posible que para realizar un buen proceso de enseñanza aprendizaje se mantenga a la escuela alejada de las condiciones de vida reales de los educandos, ya que debemos respetar la autonomía de cada uno de ellos de los conocimientos hechos experiencia para así poder realizar bien este proceso. Lograr una practica educativa donde se lleve a cabo este respeto a la integridad del educando y no se niegue esta merece una reflexión critica permanente de mi propia practica, en la cual yo deberé evaluar mi actuar para con los educandos, porque si yo como educador quiero que los educandos me respeten debo obligatoriamente respetarlos a ellos primero. Este debe ser uno de los saberes primordiales de un educador. Es decir, debemos ser coherentes entre lo que decimos y hacemos, ya que cualquiera sea la categoría de educador en la que estemos siempre dejaremos una huella en los educandos.
Educar exige humildad, tolerancia y lucha en defensa de los derechos de los educadores, derechos que no son siempre respetados de la mejor manera ya que generalmente los educadores son mirados en menos , siendo que gracias a ellos la sociedad es lo que es, porque son ellos los que se encargan de inculcar conocimientos ,valores , respeto entre otros a los educandos quienes serán los forjadores del país, la constante lucha de los educadores por sueldos dignos es verdadera ya que en países como los nuestros, como el país del autor Brasil , y Chile nuestro país , la educación siempre es relegada en todo sentido ya sea en sueldos dignos para quienes son los formadores de los futuros forjadores del país así como en recursos destinados a mejorar la calidad de esta
En Chile últimamente podemos observar como se ha ido invirtiendo en educación , específicamente en recursos para tratar de mejorar la calidad de esta, pero mejorar la calidad de la educación no solo pasa por la inversión que se realice en cuanto a recursos materiales sino que también pasa por la elaboración del currículo mínimo obligatorio de la educación chilena así como sus planes y programas que lamentablemente en la mayoría de los casos no tienen mucha aplicabilidad ya que los contextos socio-culturales varían enormemente y estos estas elaborados de manera estándar para todos los educandos de Chile .Entonces debemos preguntarnos ¿que sacaran en invertir tanto dinero en recursos materiales , si lamentablemente no están siendo consecuentes al no respetar la autonomía de los educandos? ¿Proponiendo los mismos estándares educacionales de Arica a Punta Arenas? cuando como educadores, o como personas quienes vivimos la educación desde dentro sabemos que esto no es posible.
Volviendo al tema de los sueldos dignos ¿será digno que a un profesor le llamen “Profesor Taxi” porque debe ir de un establecimiento educacional a otro, para poder lograr tener a fin de mes un sueldo digno? el cual le permita vivir dignamente. Entonces en países como los nuestros hay personas quienes están involucradas en el tema de la educación que lamentablemente no son consecuentes con lo que dicen y hacen, siendo aquí donde podemos ver como enseñar exige aprehensión de la realidad. La mejor manera de darnos cuenta de esto es partiendo del hecho que el ser humano se ha dado cuenta de su inconclusion y que para esto necesita educación, esta es necesaria no solo por la inconclusion del ser humano sino que también debido a que esta nos ayuda a adaptarnos pero también a transformar la realidad para poder interferir en ella. Hombres y mujeres somos los únicos capaces de aprender, entonces debemos decir que enseñar requiere alegría y esperanza, esperanza que al sabernos inacabados nos mueve a participar en un movimiento de búsqueda constante. Enseñar exige la convicción de que el cambio es posible pero para poder llegar a esto es necesario que establezcamos una dialéctica entre la denuncia de la situación deshumanizante y el anuncio de su superación que es posible y lo que queremos alcanzar. Cambiar es difícil pero no imposible es lo que nos dice el autor , para eso debemos dejar atrás condiciones muy poco favorables para el desarrollo de la practica pedagógica es necesario concientizar a las personas que es necesario provocar y generar cambios , y nosotros como educadores concientes de esta realidad poco favorable somos las personas indicadas para ello, no es posible seguir manteniendo las mismas situaciones y/o condiciones que no nos llevan a ninguna parte, solo a la desidia de los educandos . Este cambio es posible pero debemos estar concientes que si se lleva a cabo será lento porque como sabemos todo lo que implica una cambio en este caso en estructuras ya establecidas por años tiene al comienzo un cierto rechazo pero luego poco a poco se va logrando y en los casos específicos de los sistemas educativos latinoamericanos creo de igual manera que seria lento, pero tras ese paso lento que aunque sea lento debemos dar habría algo nuevo.
En el caso de nuestro sistema educacional seria lento porque son años y años de seguir la misma rutina, la cual debe ser cambiada por el bien de todos y más aun por el bien de los futuros educandos. Una manera de incentivar este cambio es procurando incentivar la curiosidad en los educandos, como dice el autor “el ejercicio de la curiosidad convoca a la imaginación a la intuición, a las emociones, a la capacidad de conjeturar, de comparar, para que participen en la busquen de un perfil del objeto o del hallazgo del objeto de su razón de ser”.
Finalmente, el autor nos habla que enseñar es una especificidad humana en la cual enseñar exige seguridad, competencia profesional y generosidad. Es en este punto donde Freire nos habla de las prácticas de mandonismo, practicas las cuales se sustentan en la incompetencia profesional , en la arrogancia que niega la generosidad así como también niega la humildad , en la avidez por el mando ,es decir ,un gozo irrefrenable y desmedido por el mando. Una autoridad de este tipo no genera ningún tipo de creatividad en el educando ni menos algún tipo de innovación por parte de los educadores, este tipo de autoridad debería ser cambiada por una autoridad, como el mismo Freire dice una autoridad coherentemente democrática que se funde en la certeza de la importancia ya sea de si mismo, o de la libertad de los educandos para así poder construir un clima de autentica disciplina, nunca dejando de lado la libertad de los educandos. Esta autoridad esta conciente que la verdadera disciplina no es la de los silenciados sino la del alboroto de los inquietos, este tipo de autoridad reconoce la eticidad de hombres y mujeres que no se vive la eticidad sin libertad, y que no se tiene libertad sin riesgo .Desde mi punto de vista la única manera de innovar en los sistemas educativos latinoamericanos seria proponiendo la reinvención de los educandos en el aprendizaje de su autonomía, y a la vez haciéndolos participes responsables por su propio aprendizaje junto a sus familias, pero esto exige compromiso y este compromiso se basa entre otras cosas en ser consecuente entre lo que digo y hago , entre lo que parezco ser y lo que realmente soy, el educando hace una lectura de mi como educador que soy y también como persona , porque los educandos son seres críticos y ellos en esa lectura leen lo que yo digo y como actúo frente a ese decir . Es por esto que necesitamos aprender a interpretar el significado de un silencio, de una sonrisa o siendo aun mas agudos en no aceptar alguien retirándose de la sala de clases, cada gesto que el educando hace me indica como me percibe o como el me lee es por eso que enseñar exige comprender que la educación es una forma de intervención en el mundo ya que es una actividad específicamente humana, es a través de la educación que yo como educadora y los educandos intervenimos en el mundo, la educación es la mejor manera de hacer esta intervención ya que esta nunca ha sido ni será neutra o indiferente ,a través de la educación podemos intervenir en todos los ámbitos sociales pero para provocar una buena intervención desde mi posición como educador debo ser coherente ,es decir , debe haber una coherencia entre lo que digo, lo que escribo y lo que hago, ya que al no haber una coherencia mi impacto de intervención será nulo porque no seré consecuente con lo que estoy hablando o haciendo. Debo tener una opción y mantenerla, y no simplemente ser neutral ya que es una manera simple de desligarme de toda responsabilidad, siendo así no soy coherente. Enseñar exige libertad y autoridad, pero estas dos palabras no deben ser mal entendidas como suele suceder por lo tanto es aquí donde enseñar exige una toma conciente de desiciones .
Hemos dicho que los educandos son seres críticos al decir esto estamos afirmando que somos capaces de escucharlos abiertamente, si los escuchamos de esta manera será mas fácil para nosotros saber que es lo que ellos piensan u opinan acerca de nuestro quehacer pedagógico, debemos dejar de lado la comunicación vertical que es tan utilizada en nuestro país. Enseñar exige disponibilidad para el dialogo y esta disponibilidad la demuestro al respetar las diferencias entre las opiniones de los otros y las mías, es entonces con este gesto con el cual demuestro mi coherencia entre lo que digo y hago, esto deja ver que me respeto a mi mismo y mas aun respeto a los educandos ya que como nos dice Freire la falta de respeto a la educación a los educandos , a los educadores , a las educadoras deteriora en nosotros la sensibilidad o al querer bien la propia practica educativa, así como también la alegría necesaria del quehacer docente.
En conclusión al haber leído y analizado este libro “Pedagogía de la Autonomía” de Paulo Freire puedo concluir que si hubiera más educadores en esta línea de pensamiento, la educación no seria lo que es hoy en día, aunque se debe aclarar que habemos educadores que sin saber o sin haber leído a Paulo Freire ya teníamos esta línea de pensamiento, y tratábamos y continuamos haciendo de alguna manera de cambiar lo que es la educación hoy por hoy. En estos días en que todo avanza tan vertiginosamente debemos mantenernos actualizados no solo en lo que se refiere al uso de las tecnologías sino que también que la pedagogía debe actualizarse, los educandos de hoy , es decir, del siglo veintiuno no son iguales a los que nosotros fuimos como educandos , los educandos de hoy son seres realmente activos, críticos y por ende curiosos, ellos viven mas rápido de lo que nosotros mismos lo hicimos, es por esto que un educador el cual tiende a comportarse de manera anacrónica como si estuviera tratando con educandos del otro siglo, no esta bien en su propuesta como educador y menos como persona , el mundo cambia , y los seres humanos también , ya nada es como antes , hoy en día nos regimos por los constantes cambios debido a los sistemas políticos imperantes los cuales nos obligan a estar en constante movimiento y por ende en actualizaciones las cuales nos ayudan a desarrollarnos mejor en nuestros quehaceres.
Puedo decir que estoy en completo acuerdo con los planteamientos que nos hace el autor, pero me atrevería a decir que como el nos dice “cambiar es difícil, pero es posible” es verdad, solo que este cambio como todo lo nuevo demoraría un tiempo es establecerse, pero si habemos mas educadores con los mismos planteamientos e ideales que el tiene seria un tanto mas fácil para poder lograr este cambio tan anhelado.
LOS SIETE SABERES NECESARIOS PARA LA EDUCACION DE EDGAR MORIN
RESUMEN
1. Una educación que cure la ceguera del conocimiento.
Todo conocimiento afronta siempre el riesgo del error y de la ilusión; el conocimiento humano es frágil y está expuesto a alucinaciones, a errores de percepción o de juicio, a perturbaciones y ruidos, a la influencia distorsionadora de los afectos, al imprinting de la propia cultura, al conformismo, a la selección meramente sociológica de nuestras ideas, etc. La educación del futuro debe tener en cuenta esta posibilidad. . El primer propósito de la educación del futuro será pues facilitar las condiciones para que los alumnos tengan la capacidad para asumir y corregir los errores e ilusiones del conocimiento y, al mismo tiempo, enseñarles a convivir con sus ideas, sin ser destruidos por ellas.
2. Una educación que garantice el conocimiento pertinente
Bien sabemos en esta sociedad caracterizada por la revolución de las comunicaciones, el aluvión de información existente, por lo cual se hace necesario discernir cuáles son las informaciones clave; es decir, promover una inteligencia general que atienda simultáneamente lo general y lo particular; a lo global, a lo multidimensional y a la interacción compleja de los elementos. Esta inteligencia general se construye a partir de los conocimientos existentes y de la crítica de los mismos. Su configuración fundamental es la capacidad de plantear y de resolver problemas. Para ello, la inteligencia utiliza y combina todas las habilidades particulares. El conocimiento pertinente es siempre y al mismo tiempo general y particular. En este punto, Morin introdujo una "pertinente" distinción entre la racionalización (construcción mental que sólo atiende a lo general) y la racionalidad, que atiende simultáneamente a lo general y a lo particular.
3. Enseñar la condición humana
Todos debemos reconocernos en una humanidad común y, al mismo tiempo, reconocer la diversidad cultural inherente a todo lo humano. Conocer el ser humano es situarlo en el universo y, al mismo tiempo, separarlo de él. Al igual que cualquier otro conocimiento, el del ser humano también debe ser contextualizado: Quiénes somos es una cuestión inseparable de dónde estamos, de dónde venimos y a dónde vamos; es nuestra cultura y la cultura de los demás que forman parte de la cultura en general. La educación pues deberá mostrar el destino individual, social, global de todos los humanos y nuestro arraigamiento como ciudadanos de la Tierra. Éste será el núcleo esencial formativo del futuro.
4. Enseñar la identidad terrenal
Es necesario introducir en la educación una noción mundial más poderosa que el desarrollo económico: el desarrollo intelectual, afectivo y moral a escala terrestre. La perspectiva planetaria es imprescindible en la educación. Pero, no sólo para percibir mejor los problemas, sino para elaborar un auténtico sentimiento de pertenencia a nuestra Tierra considerada como última y primera patria. El término patria incluye referencias etimológicas y afectivas tanto paternales como maternales. En esta perspectiva de relación paterno- materno- filial es en la que se construirá a escala planetaria una misma conciencia antropológica, ecológica, cívica y espiritual. "Hemos tardado demasiado tiempo en percibir nuestra identidad terrenal", dijo Morin citando a Marx ("la historia ha progresado por el lado malo") pero manifestó su esperanza citando en paralelo otra frase, en esta ocasión de Hegel: "La lechuza de la sabiduría siempre emprende su vuelo al atardecer."
5. Enfrentar las incertidumbres
La educación debe hacer suyo el principio de incertidumbre, tan válido para la evolución social como la formulación del mismo por Heisenberg para la Física. La historia avanza por atajos y desviaciones y, como pasa en la evolución biológica, todo cambio es fruto de una mutación, a veces de civilización y a veces de barbarie. Todo ello obedece en gran medida al azar o a factores impredecibles.
Pero la incertidumbre no versa sólo sobre el futuro. Existe también la incertidumbre sobre la validez del conocimiento. Y existe sobre todo la incertidumbre derivada de nuestras propias decisiones. Una vez que tomamos una decisión, empieza a funcionar el concepto ecología de la acción, es decir, se desencadena una serie de acciones y reacciones que afectan al sistema global y que no podemos predecir. Nos hemos educado aceptablemente bien en un sistema de certezas, pero nuestra educación para la incertidumbre es deficiente.
6. Enseñar la comprensión
La comprensión es una necesidad crucial para los humanos y debe ser abordada por la educación de manera directa y en los dos niveles: a) interpersonal e intergrupal y b) a escala planetaria. Morin constató que comunicación no implica comprensión. Ésta última siempre está amenazada por la incomprensión de los códigos éticos de los demás, de sus ritos y costumbres, de sus opciones políticas. A veces confrontamos cosmovisiones incompatibles. Los grandes enemigos de la comprensión son el egoísmo, el etnocentrismo y el sociocentrismo. Enseñar la comprensión significa enseñar a no reducir el ser humano a una o varias de sus cualidades que son múltiples y complejas. Por ejemplo, impide la comprensión marcar a determinados grupos sólo con una etiqueta: intolerantes, apristas, fujimoristas, toledistas, caviares. Positivamente, Morin ve las posibilidades de mejorar la comprensión mediante: a) la apertura empática hacia los demás y b) la tolerancia hacia las ideas y formas diferentes, mientras no atenten a la dignidad humana.
La verdadera comprensión exige establecer sociedades democráticas, fuera de las cuales no cabe ni tolerancia ni libertad para salir del cierre etnocéntrico. Por eso, la educación del futuro deberá asumir un compromiso sin fisuras por la democracia, porque no cabe una comprensión a escala planetaria entre pueblos y culturas más que en el marco de una democracia abierta.
7. La ética del género humano
1. Una educación que cure la ceguera del conocimiento.
Todo conocimiento afronta siempre el riesgo del error y de la ilusión; el conocimiento humano es frágil y está expuesto a alucinaciones, a errores de percepción o de juicio, a perturbaciones y ruidos, a la influencia distorsionadora de los afectos, al imprinting de la propia cultura, al conformismo, a la selección meramente sociológica de nuestras ideas, etc. La educación del futuro debe tener en cuenta esta posibilidad. . El primer propósito de la educación del futuro será pues facilitar las condiciones para que los alumnos tengan la capacidad para asumir y corregir los errores e ilusiones del conocimiento y, al mismo tiempo, enseñarles a convivir con sus ideas, sin ser destruidos por ellas.
2. Una educación que garantice el conocimiento pertinente
Bien sabemos en esta sociedad caracterizada por la revolución de las comunicaciones, el aluvión de información existente, por lo cual se hace necesario discernir cuáles son las informaciones clave; es decir, promover una inteligencia general que atienda simultáneamente lo general y lo particular; a lo global, a lo multidimensional y a la interacción compleja de los elementos. Esta inteligencia general se construye a partir de los conocimientos existentes y de la crítica de los mismos. Su configuración fundamental es la capacidad de plantear y de resolver problemas. Para ello, la inteligencia utiliza y combina todas las habilidades particulares. El conocimiento pertinente es siempre y al mismo tiempo general y particular. En este punto, Morin introdujo una "pertinente" distinción entre la racionalización (construcción mental que sólo atiende a lo general) y la racionalidad, que atiende simultáneamente a lo general y a lo particular.
3. Enseñar la condición humana
Todos debemos reconocernos en una humanidad común y, al mismo tiempo, reconocer la diversidad cultural inherente a todo lo humano. Conocer el ser humano es situarlo en el universo y, al mismo tiempo, separarlo de él. Al igual que cualquier otro conocimiento, el del ser humano también debe ser contextualizado: Quiénes somos es una cuestión inseparable de dónde estamos, de dónde venimos y a dónde vamos; es nuestra cultura y la cultura de los demás que forman parte de la cultura en general. La educación pues deberá mostrar el destino individual, social, global de todos los humanos y nuestro arraigamiento como ciudadanos de la Tierra. Éste será el núcleo esencial formativo del futuro.
4. Enseñar la identidad terrenal
Es necesario introducir en la educación una noción mundial más poderosa que el desarrollo económico: el desarrollo intelectual, afectivo y moral a escala terrestre. La perspectiva planetaria es imprescindible en la educación. Pero, no sólo para percibir mejor los problemas, sino para elaborar un auténtico sentimiento de pertenencia a nuestra Tierra considerada como última y primera patria. El término patria incluye referencias etimológicas y afectivas tanto paternales como maternales. En esta perspectiva de relación paterno- materno- filial es en la que se construirá a escala planetaria una misma conciencia antropológica, ecológica, cívica y espiritual. "Hemos tardado demasiado tiempo en percibir nuestra identidad terrenal", dijo Morin citando a Marx ("la historia ha progresado por el lado malo") pero manifestó su esperanza citando en paralelo otra frase, en esta ocasión de Hegel: "La lechuza de la sabiduría siempre emprende su vuelo al atardecer."
5. Enfrentar las incertidumbres
La educación debe hacer suyo el principio de incertidumbre, tan válido para la evolución social como la formulación del mismo por Heisenberg para la Física. La historia avanza por atajos y desviaciones y, como pasa en la evolución biológica, todo cambio es fruto de una mutación, a veces de civilización y a veces de barbarie. Todo ello obedece en gran medida al azar o a factores impredecibles.
Pero la incertidumbre no versa sólo sobre el futuro. Existe también la incertidumbre sobre la validez del conocimiento. Y existe sobre todo la incertidumbre derivada de nuestras propias decisiones. Una vez que tomamos una decisión, empieza a funcionar el concepto ecología de la acción, es decir, se desencadena una serie de acciones y reacciones que afectan al sistema global y que no podemos predecir. Nos hemos educado aceptablemente bien en un sistema de certezas, pero nuestra educación para la incertidumbre es deficiente.
6. Enseñar la comprensión
La comprensión es una necesidad crucial para los humanos y debe ser abordada por la educación de manera directa y en los dos niveles: a) interpersonal e intergrupal y b) a escala planetaria. Morin constató que comunicación no implica comprensión. Ésta última siempre está amenazada por la incomprensión de los códigos éticos de los demás, de sus ritos y costumbres, de sus opciones políticas. A veces confrontamos cosmovisiones incompatibles. Los grandes enemigos de la comprensión son el egoísmo, el etnocentrismo y el sociocentrismo. Enseñar la comprensión significa enseñar a no reducir el ser humano a una o varias de sus cualidades que son múltiples y complejas. Por ejemplo, impide la comprensión marcar a determinados grupos sólo con una etiqueta: intolerantes, apristas, fujimoristas, toledistas, caviares. Positivamente, Morin ve las posibilidades de mejorar la comprensión mediante: a) la apertura empática hacia los demás y b) la tolerancia hacia las ideas y formas diferentes, mientras no atenten a la dignidad humana.
La verdadera comprensión exige establecer sociedades democráticas, fuera de las cuales no cabe ni tolerancia ni libertad para salir del cierre etnocéntrico. Por eso, la educación del futuro deberá asumir un compromiso sin fisuras por la democracia, porque no cabe una comprensión a escala planetaria entre pueblos y culturas más que en el marco de una democracia abierta.
7. La ética del género humano
Una exigencia de nuestro tiempo es validar una ética para todo el género humano. Morín presenta el bucle individuo-sociedad-especie como base para enseñar la ética venidera. En el bucle individuo-sociedad surge el deber ético de enseñar la democracia. Ésta implica consensos y aceptación de reglas democráticas. Pero también necesita diversidades y antagonismos. El contenido ético de la democracia afecta a todos esos niveles. El respeto a la diversidad significa que la democracia no se identifica con la dictadura de la mayoría. En el bucle individuo - especie Morin fundamenta la necesidad de enseñar la ciudadanía terrestre. La humanidad dejó de ser una noción abstracta y lejana para convertirse en algo concreto y cercano con interacciones y compromisos a escala terrestre
martes, 19 de julio de 2011
LA REFORMA UNIVERSITARIA:IDEOLOGIA YREIVINDICACIONES JOSE CARLOS MARIATEGUI
En esta parte de su obra comienza con los estudiantes de Córdova por la reforma de la Universidad ya que esta acusa el aparecer de una nueva generación pero que llega desvinculada de la anterior y además trae una idea distinta e ideas muy diversa a las que ya estaban planteadas.
Por eso, el anhelo de la reforma se presenta con idénticos caracteres en todas las universidades latinoamericanas pero los estudiantes de toda la América Latina, aunque movidos a la lucha por protestas, parecen hablar el mismo lenguaje.
Por eso, el anhelo de la reforma se presenta con idénticos caracteres en todas las universidades latinoamericanas pero los estudiantes de toda la América Latina, aunque movidos a la lucha por protestas, parecen hablar el mismo lenguaje.
EL INGENIOSO HIDALGO DON QUIJOTE DE LA MANCHA MIGUEL DE CERVANTES SAAVEDRA
Esta novela trata sobre dos personajes que se van a dar a conocer principalmente: Don Quijote y Sancho Panza uno idealista y el otro materialista, respectivamente. Don Quijote aunque fuera de su idea fija, es el más sabio y elocuente de los hombres y su cortesía es incomparable. Sus actos viene de una idea sublime: proteger a los débiles, castigar a los malvados, enderezar entuertos. Sancho es sinónimo del hombre positivista y aprovechador, pero no por ello menos leal y honesto.Capítulo I Que trata de la condición y ejercicio del famoso hidalgo D. Quijote de la Mancha
Capítulo II Que trata de la primera salida que de su tierra hizo el ingenioso D. Quijote
Capítulo III Donde se cuenta la graciosa manera que tuvo D. Quijote en armarse caballero
Capítulo IV De lo que le sucedió a nuestro caballero cuando salió de la venta
Capítulo V Donde se prosigue la narración de la desgracia de nuestro caballero
Capítulo VI Del donoso y grande escrutinio que el cura y el barbero hicieron en la librería de nuestro ingenioso hidalgo
Capítulo VII De la segunda salida de nuestro buen caballero D. Quijote de la Mancha
Capítulo VIII Del buen suceso que el valeroso Don Quijote tuvo en la espantable y jamás imaginada aventura de los molinos de viento, con otros sucesos dignos de felices recordación
Capítulo IX Donde se concluye y da fin a la estupenda batalla que el gallardo vizcaíno y el valiente manchego tuvieron
Capítulo X De los graciosos razonamientos que pasaron entre D. Quijote y Sancho Panza su escudero
Capítulo XI De lo que sucedió a Don Quijote con unos cabreros
Capítulo XII De lo que contó un cabrero a los que estaban con Don Quijote
Capítulo XIII Donde se da fin al cuento de la pastora Marcela, con otros sucesos
Capítulo XIV Donde se ponen los versos desesperados del difunto pastor, con otros no esperados sucesos
Capítulo XV Donde se cuenta la desgraciada aventura que se topó Don Quijote en topar con unos desalmados yangüeses
Capítulo XVI De lo que le sucedió al ingenioso hidalgo en la venta que él imaginaba ser castillo.
Capítulo XVII Donde se prosiguen los innumerables trabajos que el bravo Don Quijote y su buen escudero Sancho Panza pasaron en la venta, que por su mal pensó que era castillo
Capítulo XVIII Donde se cuentan las razones que pasó Sancho Panza con su señor Don Quijote con otras aventuras dignas de ser contadas.
Capítulo XIX De las discretas razones que Sancho pasaba con su amo, y de la aventura que le sucedió con un cuerpo muerto, con otros acontecimientos famosos.
Capítulo XX De la jamás vista ni oída aventura que con más poco peligro fue acabado de famoso caballero en el mundo, como la acabó el valeroso D. Quijote de la Mancha
Capítulo XXI Que trata de la alta aventura y rica ganancia del yelmo de Mambrino, con otras cosas sucedidas a nuestro invencible caballero
Capítulo XXII De la libertad que dio Don Quijote a muchos desdichados que mal de su grado los llevaban donde no quisieran ir
Capítulo XXIII De lo que sucedió al famoso Don Quijote en Sierra Morena, que fue una de las más famosas aventuras que en esta verdadera historia se cuentan
Capítulo XXIV Donde se prosigue la aventura de la Sierra Morena
Capítulo XXV Que trata de las extrañas cosas que en Sierra Morena sucedieron al valiente caballero de la Mancha, y de la imitación que hizo a la penitencia de Beltenebros
Capítulo XXVI Donde se prosigue las finezas que de enamorado hizo Don Quijote en Sierra Morena
Capítulo XXVII De cómo salieron con su intención el cura y el barbero, con otras cosas dignas de que se cuenten en esta grande historia
Capítulo XXVIII Que trata de la nueva y agradable aventura que al cura y barbero sucedió en la misma sierra
Capítulo XXIX Que trata del gracioso artificio y orden que se tuvo en sacar a nuestro enamorado caballero de la asperísima penitencia en que se había puesto
Capítulo XXX Que trata de la discreción de la hermosa Dorotea, con otras cosas de mucho gusto y pasatiempo
Capítulo XXXI De las sabrosos razonamientos que pasaron entre Don Quijote y Sancho Panza su escudero, con otros sucesos
Capítulo XXXII Que trata de lo que sucedió en la venta a toda la cuadrilla de Don Quijote
Capítulo XXXIII Donde se cuenta la novela del curioso impertinente
Capítulo XXXIV Donde se prosigue la novela del curioso impertinente
Capítulo XXXV Que trata de la brava y descomunal batalla que Don Quijote tuvo con cueros de vino, y se da fin a la novela del curioso impertinente
Capítulo II Que trata de la primera salida que de su tierra hizo el ingenioso D. Quijote
Capítulo III Donde se cuenta la graciosa manera que tuvo D. Quijote en armarse caballero
Capítulo IV De lo que le sucedió a nuestro caballero cuando salió de la venta
Capítulo V Donde se prosigue la narración de la desgracia de nuestro caballero
Capítulo VI Del donoso y grande escrutinio que el cura y el barbero hicieron en la librería de nuestro ingenioso hidalgo
Capítulo VII De la segunda salida de nuestro buen caballero D. Quijote de la Mancha
Capítulo VIII Del buen suceso que el valeroso Don Quijote tuvo en la espantable y jamás imaginada aventura de los molinos de viento, con otros sucesos dignos de felices recordación
Capítulo IX Donde se concluye y da fin a la estupenda batalla que el gallardo vizcaíno y el valiente manchego tuvieron
Capítulo X De los graciosos razonamientos que pasaron entre D. Quijote y Sancho Panza su escudero
Capítulo XI De lo que sucedió a Don Quijote con unos cabreros
Capítulo XII De lo que contó un cabrero a los que estaban con Don Quijote
Capítulo XIII Donde se da fin al cuento de la pastora Marcela, con otros sucesos
Capítulo XIV Donde se ponen los versos desesperados del difunto pastor, con otros no esperados sucesos
Capítulo XV Donde se cuenta la desgraciada aventura que se topó Don Quijote en topar con unos desalmados yangüeses
Capítulo XVI De lo que le sucedió al ingenioso hidalgo en la venta que él imaginaba ser castillo.
Capítulo XVII Donde se prosiguen los innumerables trabajos que el bravo Don Quijote y su buen escudero Sancho Panza pasaron en la venta, que por su mal pensó que era castillo
Capítulo XVIII Donde se cuentan las razones que pasó Sancho Panza con su señor Don Quijote con otras aventuras dignas de ser contadas.
Capítulo XIX De las discretas razones que Sancho pasaba con su amo, y de la aventura que le sucedió con un cuerpo muerto, con otros acontecimientos famosos.
Capítulo XX De la jamás vista ni oída aventura que con más poco peligro fue acabado de famoso caballero en el mundo, como la acabó el valeroso D. Quijote de la Mancha
Capítulo XXI Que trata de la alta aventura y rica ganancia del yelmo de Mambrino, con otras cosas sucedidas a nuestro invencible caballero
Capítulo XXII De la libertad que dio Don Quijote a muchos desdichados que mal de su grado los llevaban donde no quisieran ir
Capítulo XXIII De lo que sucedió al famoso Don Quijote en Sierra Morena, que fue una de las más famosas aventuras que en esta verdadera historia se cuentan
Capítulo XXIV Donde se prosigue la aventura de la Sierra Morena
Capítulo XXV Que trata de las extrañas cosas que en Sierra Morena sucedieron al valiente caballero de la Mancha, y de la imitación que hizo a la penitencia de Beltenebros
Capítulo XXVI Donde se prosigue las finezas que de enamorado hizo Don Quijote en Sierra Morena
Capítulo XXVII De cómo salieron con su intención el cura y el barbero, con otras cosas dignas de que se cuenten en esta grande historia
Capítulo XXVIII Que trata de la nueva y agradable aventura que al cura y barbero sucedió en la misma sierra
Capítulo XXIX Que trata del gracioso artificio y orden que se tuvo en sacar a nuestro enamorado caballero de la asperísima penitencia en que se había puesto
Capítulo XXX Que trata de la discreción de la hermosa Dorotea, con otras cosas de mucho gusto y pasatiempo
Capítulo XXXI De las sabrosos razonamientos que pasaron entre Don Quijote y Sancho Panza su escudero, con otros sucesos
Capítulo XXXII Que trata de lo que sucedió en la venta a toda la cuadrilla de Don Quijote
Capítulo XXXIII Donde se cuenta la novela del curioso impertinente
Capítulo XXXIV Donde se prosigue la novela del curioso impertinente
Capítulo XXXV Que trata de la brava y descomunal batalla que Don Quijote tuvo con cueros de vino, y se da fin a la novela del curioso impertinente
Suscribirse a:
Entradas (Atom)