miércoles, 22 de diciembre de 2010

De fondos y formas

El descuido, es sinónimo de dejadez, y a su vez, la dejadez es un cajón de sastre. Espacio confuso y difuso, donde prevalece la insatisfacción individual o la disconformidad del YO freudiano que castigado por las instancias superiores, asume su falta de independencia.







Esa falta de autogestión, genera la sensación de incapacidad para el autogobierno, la renuncia a la exigencia (auto y halodirigida) es automática. Ese automatismo refuerza el acto punitivo del SUPER-YO: verdugo que no acepta limitaciones fantásticas del ente yoico, genera un abanico de somatizaciones ansiosas de naturaleza esencial neurótica.

En la incapacidad subjetiva declarada, y la falta de resolución efectiva de conflictos lleva a la dinámica de huir de dichos problemas. Por lo tanto van perdiendo autonomía, personal y por ende social, laboral, sacrificando parcelas de su vida a un escapismo insoportable, cronificando el circulo de la incapacidad, el descontrol aumenta exponencialmente, y el re-enganche posterior es cada vez mas dificil. Suelen acudir a refugios futiles y entretenimientos ciertamente someros, para llenar ese espacio vacio. 

Mas en superficie, aparece un individuo anedonico, hacia la apatía, situación que provoca afectación cognitiva, claramente manifiesta al enfrentarse a situaciones de resolución de problemas, ante la irresolución o mala resolución se perpetua el circulo punitivo. Es la disciplina, la primera capacidad mermada. Si bien esta no es siempre evidente, si suele hacerse notable en una falta de educación ética y formas.

El espacio de las malas formas subyace de la permisividad del padeciente, mientras no recrimina al agresor, este perpetua en sus malas artes, a expensas del terreno cedido.

Esa falta de formas, lleva porsupuesto asociada la despersonalizacion o desestructuracion de la entidad del YO, donde la persona pierde no solo su capacidad de entender lo que le rodea, y poder actuar adecuandose al medio, si no que además pierde la capacidad de critica, y ubicación propia, limitandose a simplemenete existir de forma tediosa y ciertamente monotona. No suele ser extraño que proyecten sus conflictos, o conflictivas en las demas personas (ya que para ellos, el resto SI tiene entidad, aunque esta sea descalificable, es "la sombra de los demás que Peter Pan, no tiene"). El sentimiento global, es el vacio. 

La espiral del vacio, se perpetua debido a la desestructuracion de toda etica, ya que no son capaces de criticarse a ellos mismos, al igual que no son capaces de encontrar soluciones validas por sus propios medios, y necesitan intercesores, que se enfrenten a sus enemigos " que otros se enfrenten... yo no puedo, que alguien me saque las castañas del fuego, si."

La reversión: recuperar la referencia del YO.






jueves, 16 de diciembre de 2010

Alzheimer, actualizaciones.

Actualizaciones: Alzheimer.


Aun a nivel de blog, porque las evidencias impiden impresiones mas serias. Las placas de beta amieloide, han sido consideradas, el mecanismo nosologico que justificaba la aparicion del Alzheimer. La beta amieloide es una proteina, que a vista de miscroscopio aparece a modo de pelotitas en la materia gris. Cuando se acumula termina formando placas.

                                        (en este corte microscopico, la materia gris se presenta de color amarillo,                                           y  los depositos amiloideos en marron obscuro)

Resulta que la proteina de beta amieloide, es una produccion común: todos los cerebros la producen. El problema es cuando esos cumulos son demasiados, empiezan a formar placas. Los primeros signos de la enfermedad antes de que ocurra la clinica, es la produccion excesiva de Beta Amieloide.Y durante años se pensó que el problema del Alzheimer, era una produccion celular excesiva de dicho deposito.

                                           (corte microscopico que presenta acumulos en placas)


Sorprendentemente un nuevo estudio,Decreased Clearance of CNS β-Amyloid in Alzheimer’s Disease, Kwasi G. Mawuenyega,Wendy Sigurdson,Vitaliy Ovod,Ling Munsell,Tom Kasten,John C. Morris,Kevin E. Yarasheski,and Randall J. Bateman, revista Science 9 Diciembre 2010), parece haber tirado por tierra semejante hipotesis. Resulta, que la tasas de produccion de β amieloide, en los pacientes con Alzheimer, es perfectamente normal. El problema es la dificultad para librarse de esta, asi el cerebro se hunde en dichos depositos, los cuales no drena de la manera habitual.


Es sin duda una nueva perspectiva, que se abre en el conocimiento del Alzheimer, además, los investigadores parecen haber encontrado el proposito de dicho deposito! Sin duda una diana terapeutica consistira en poder modular dicha produccion y eliminación. Por otra parte resulta que el β amieloide, actua como un corto circuito, previniendo el control nervioso, asi ninguna elemento transmisor perderia el control en su proposito.Sin embargo demasiado β amieloide, provoca una merma total de la transmision nerviosa, llegando incluso a la muerte celular. Lo cual significa que bajando los niveles del deposito se controlaria la merma celular. Paralelamente, si la muerte celular no hubiere ocurrido, y se consiguieran bajar los niveles de amieloide, seria posible revertir el efecto de "apagado nervioso". 


Otra linea de investigacion, trata de un circuito constante, de celulas localizadas en el hipocampo (el centro de memoria del cerebro), asi como otras areas en zonas medias, circuiteria que se activa cuando por ejemplo una persona esta conduciendo a la vez que piensa en lo que va a cenar al llegar a casa. Parece que ese circuito es la principal diana en el Alzheimer, y por lo tanto la pregunta es evidente ¿que consiguiremos si protegemos dicho circuito? Y es que resulta que las ultimas teorias, hipotetizan sobre este circuito como modulador de la cantidad de produccion amieloidea. Este circuito, es el mismo que baja su actividad es esfuerzos intelectuales, o en fases de sueño no REM. Y es que la intencion es preservar este circuito de manera a "no volverse loco" y no disparar la produccion de β amieloide.


La pregunta clave:


Cuando el Dr. Randall Bateman intentaba resolver cuestiones sobre el alzheimer, bajo la perspectiva el huevo o la gallina, muchos de sus colegas, dudaron de que aquellas hipotesis fueran a funcionar. Pero se equivocaron. Y a pesar de que le ha llevado mas tiempo del que esperaba, la pregunta le surgió, cuando era residente de neurologia. Sentando en la cafeteria de la Universidad St Louis de Washington, su profesor Dr.David Holtzman, se unio a el, y empezaron a hablar de la enfermedad y su etiologia, asi como las diferentes hipotesis. El mentor le dijo "me parece muy bien tu hipotesis, pero que tipo de ensayo vas a hacer para verificarla?" Randall, pretendia mediante un cateter espinal, recolectar liquido cefalorraquideo, pero tenia un inconveniente: los sujetos llevarian el cateter 36 horas! Entonces penso que inyectandoles, leucina (un a.a que estimula la produccion β amieloide), mejoraria los tiempos, y para eso, modificaria mediante una base de carbono activado, asi marcaria la leucina, y esta a su vez permitira mediante este marcaje cuantificar la tasa de produccion segun la instilacion del amino acido.
                                                      (cerebro de un paciente con Alzheimer)

Cuando comenzo el estudio, el primer sujeto fue el propio Dr. Bateman, y posteriormente personas de 30 y 40 años, asi como ancianos, y pacientes con la enfermedad diagnosticada. Tardo siete años, en obtener respuesta frente a sus seis meses.

Las primeras conclusiones fueron que la disposicion del β amieloide se hace de una manera fugaz, en las 8 horas posteriores a la inyeccion la mitad del deposito ya habia sido substituido por otro. Asi en el alzheimer, la produccion de esta proteina se hace a tasa normal, pero su eliminacion esta disminuida en un 30% con respecto a personas sanas y de la misma edad. Si bien la edad provoca un empeoramiento general en la depuracion de la substancia. Asi parece claro que una diana terapeutica, resultara en poder controlar (aumentar la eliminacion, o disminuir la produccion) de dicho deposito, igualmente parece que en la cronopatologia del proceso, lo primero que falla son los mecanismos depurativos.

β amieloide: señal de control
Han sido años pensando que la β amieloide, era un detritus celular del metabolismo neuronal. Ahora se conoce que dicho deposito tiene una funcion de comunicacion entre celulas nerviosas, modulando la intensidad de la señal cuando estas son muy fuertes. El acumulo de β amieloide, provoca demasiada amortizacion, llevando a la muerte celular. Para llegar a esta conclusion tenemos que irnos a la Universidad de San Diego en California, donde el Dr. Roberto Malinow, trabajo con señales electricas en sinapsis neuronales como elementos de comunicacion entre estas. Objetivo que las celulas nerviosas podian producir β amieloide ellas mismas, y liberarla en las sinapsis. Tenia aquello alguna razon?Para que?


Ante lo cual, consiguio modificar geneticamente, nervios para aumentar la produccion de β amieloide. Los hallazgos fueron, que las señales eran amortiguadas casi llegando a silencio. Asi parece que la β amieloide, funciona en un feedback frente a la celula nerviosa, donde el nervio mediante la secrecion de la proteina señalaria a su celula nerviosa correspondiente que la produccion de la señal esta siendo muy intensa, asi mediante este feedback negativo, modularia la señal, y en exceso amortiguaria tanto que inactivaria la celula, y terminaria esta por morir. Asi controlando el exceso de produccion en celulas no muertas, el efecto nocivo pudiera ser reversible. 


Sin embargo, podemos ir mas allá... seria simplista pensar que mediante un mecanismo de feedback, esta todo conseguido. Debe de haber mas mecanismos que funcionen en situaciones de mucho β amieloide. Y en efecto, lo hay!!! Es otra proteina de la anatomia neuronal, cuyos niveles bajos destacables en pacientes con Alzheimer,  se han objetivo comparativamente con niveles altos de β amieloide, destacable: las TAU proteinas!!! (ejem)
                                                           (depositos de β amieloide)
La controversia TAU:
Durante decadas, las TAU proteinas, han sido objeto de discusion, pues no se sabia si eran detritus por muerte celular, si eran causa o efecto de daño en las celulas nerviosas muertas. Hoy en dia, parece que tienen una respuesta, mas concluyente (lo que paralelamente todo sea dicho, esta lanzando a la industria farmaceutica a la busqueda de farmacos para proteger a esas TAU proteinas, del β amieloide). 


El Dr. Mucke, neurologo de la Universidad de California y director del instituto Gladstone de Enefermedades Neurologicas, parecen haber encontrado que dichas TAU proteinas son las responsables, del acople del deposito a las estructuras nerviosas. Asi compararon ratones geneticamente modificados para la produccion de TAU proteinas, y concluyeron que los que menos TAU proteinas segregaban, mas resistentes al β amieloide, eran. A la pregunta "puede entonces la concentracion de TAU proteinas explicar la susceptibilidad al β amieloide?", la respuesta es clara " NO LO SABEMOS!"

Esta claro que la deteccion precoz del Alzheimer es crucial, si bien, aun no sabemos tratar con efectividad, el proceso. Nuevas dianas se estan abriendo, cabe destacar como proceso diagnostico que ya mediante imagen y TAC podemos identificar placas de deposito, gracias a lo cual, se abre otra nueva pregunta. Los depositos de β amieloide, se sobreponen inicialmente, en ese circuito residente, del cual hemos hablado mas arriba, en los primeros momentos de la enfermedad. Dicho circuito, no solo sirve para actos automaticos, la memoria, pero tambien para el concepto del Yo (en el sentido neurosomatico). Por ejemplo si damos una lista de adjetivos a una persona, para que esta elija los que mas le definen, este realizara la tarea usando ese circuito residente. 

Es sorprendente como la localizacion de dichas placas es EXACTA, a la posicion de dicho circuito residente.
No hacen falta sofisticados sistemas, para objetivar actividad de dicho circuito. Un buen marcador, es la tasa de consumo de glucosa, se sabe que dicho circuito para funcionar necesita grandes cantidades de glucosa cerebral, resulta que los scaneres de pacientes con la enfermedad la tasa de uso de glucosa se ve notoriamente reducida. El perfil metabolico de dicho circuito residente es unico! A la pregunta, de porque el Alzheimer ataca esa zona, la respuesta es sencilla: NO LO SABEMOS! 

Sin embargo si se ha visto una relacion, en cuanto a actividad/no actividad y produccion de
β amieloide. Los ratones de laboratorio producieron mas deposito cuando estaban comiendo o despiertos (mayor actividad del circuito residente) , que cuando dormian (menor actividad del circuito residente).


                                 (depositos en placas de β amieloide, fase avanzada, tecnica fluorescente)
 Los doctores Dr. David Brody at Washington University y Dr. Sandra Magnoni de la Universidad de Milan, midieron igualmente la produccion del deposito, en pacientes en coma. La relacion es clara y directa a mas actividad (en el sentido de despertar) mas produccion. Igualmente en el intento de correlacionar nivel cultura y susceptibilidad al alzheimer, siguiendo la fisiologia del circuito residente, las personas con mas nivel intelectual, y por lo tanto mas acostumbrados a la concentracion y a las situaciones de planteamiento y resolucion de problemas, activarian menos el circuito residente, por lo tanto producirian menos β amieloide!

 Muchas preguntas quedan en el aire todavia, pero nuevas perspectivas se estan abriendo.Ahora mismo, el tratamiento pasa por el ensayo de farmacos que reducirian la produccion de β amieloide. Igualmente debido a las imprecisiones actuales, todo es una posible diana frente al tratamiento, pero la deteccion precoz sigue siendo importante, y la lucha continua por seguir aprendiendo, aun mas. 

martes, 14 de diciembre de 2010

(cartas a alberto): Infinito, o la rigueur



Estimado A:

En respuesta a tu interesante carta, te escribo estas lineas. La verdad es de agradecer tu clarividencia, sobre las funciones y su representatividad. Tienes toda la razon cuando te indignas incluso, con cierta sorna, de los pseudocientificos sesudos, que pretenden darle significación a los numeros, resultados de los planteamientos teoricos. Afortunadamente esa falta de pericia ocurre, en pseudocientificos que desconocen el razonamiento cientifico, ya que la ciencia no busca la verdad absoluta, si no simplemente verificar hipotesis, y los numeros... bah, los numeros no son mas que la verificacion práctica de que la hipotesis planteada (h1), no es falsa.

La verdad, cada vez soporto menos a los pseudocientificos, no solo por su lenguaje laxo, si no que ademas hacen garante de una falta de rigor y metodo, terminando en una insoportable verborrea, que paradojicamente termina en un infinito, sin concreciones algunas. (ref. al analisis del poseur, que no hace mucho trataba con Oscar).

Si hay una maravilla, uno de esos planteamientos que nos acerca a entender el funcionamiento de este mundo que nos rodea, creo que es mencion destacada, el estudio de la ecuación: 
 {\lim_{x \to \infty} \left (1+ \frac {1}{x} \right )^x } =\, e


Si señor es el numero e, numero de Euler, o constante de Napier. Y fué gracias al señor Napier, que empezamos a hablar de LOGARITMOS! Parece magia, y me impresiona y me entristece que los pseudocientificos no sean capaces de trascender las rigideces de los numeros, perdiendo la magia del sistema logaritmico que aqui se plantea! Como no maravillarse ante una ecuacion semejante en vez de quedarse con la intrascendencia del valor absoluto de e?


El simple hecho de que la función ex coincida con su derivada hace que la función exponencial se encuentre frecuentemente en el resultado de ecuaciones diferenciales sencillas. Como consecuencia de esto, describe el comportamiento de acontecimientos físicos regidos por leyes sencillas, como pueden ser la velocidad de vaciado de un depósito de agua, el giro de una veleta frente a una ráfaga de viento, el movimiento del sistema de amortiguación de un automóvil o el cimbreo de un edificio metálico en caso de terremoto. De la misma manera, aparece en muchos otros campos de la ciencia y la técnica, describiendo fenómenos eléctricos y electrónicos (descarga de un condensador, amplificación de corrientes en transistores BJT, etc.), biológicos (crecimiento de células, etc.), químicos (concentración de iones, periodos de semidesintegración, etc.), y muchos más.

En este punto epistolar, los pseudocientificos, se volverian locos! (Risas), como se puede ser tan estupido de intentar abarcar la totalidad de un numero trascendente? Sin embargo, es incontable, lo que nos permite entender. Me sigue maravillando la capacidad de traducir en formulaciones matematicas el comportamiento de lo que nos rodea, y como nos permite igualmente entender el porqué de las cosas. Entiendo sin embargo, que hayan perspectivas totalmente simplistas incapaces de abstraerse y por lo tanto maravillarse ante la naturaleza irracional de e.

Pero por si la magia aun no fuera patente, recordare unos cuantos logaritmos que nos acercan a e desde distintas perspectivas. Por ejemplo relacionado con los numeros complejos
e^{ix} = \cos x + i\sin x,\,\!
El caso especial con x = π es conocido como identidad de Euler:
e^{i\pi}+1 =0 .\,\!  (el desarollo a este paso es facil, solo hay que otorgarle a la x=π, sin farfollas aritmeticas)
de lo que se deduce que:
\log_e (-1) = i\pi .\,\!
Además, utilizando las leyes de la exponenciación, se obtiene segun De Moivre:
(\cos x + i\sin x)^n = \left(e^{ix}\right)^n = e^{inx} = \cos (nx) + i \sin (nx)
No es increible, como elementos usuales tales como π y e resultan estar relacionados, y que se verifique dicha igualdad?


Pero por si fuera poco, y si algun pseudocientifico quisiera aproximarse al numero e, el señor Felix A. Keller, consiguió:
e = \lim_{n\to\infty} \quad {\rm }\frac{n^n}{(n-1)^{(n-1)}} - \frac{(n-1)^{(n-1)}}{(n-2)^{(n-2)}} \quad {\rm para}\quad\left|n\right|>2.
Me parece absolutamente fascinante! Como desde el concepto de infinito sin la necesidad de la entidad, numerica se han llegado a tantas igualdades y aplicaciones explicativas de nuestro entorno.

Ademas, en este punto se nos revela un secreto para los mas empiricos, el concepto de infinito esconde una precision que ahora mismo no nos es posible medir, por la falta de tecnologia al no ser tan precisa, pero nuevos resultados y objetivaciones nos aguardan! Y quien sabe cuando nos podamos mover con la precision de los decimales de la constante de Planck, a nivel experimental.

En la actualidad... el secreto para haber llegado tan lejos, ha sido la objetivacion clara del metodo cientifico, ni angustias, ni necesidad de conocer los numeros, pues los numeros per-sé no significan nada, solo la verificacion aritmetica de un planteamiento teorico. Teoria mucho mas avanzada que la tecnologia, que aun no permite obtener experimentalmente tantas cifras, por lo tanto es mejor quedarnos en la teoria, cultivando el concepto de INFINITO, frente las imprecisiones del intento de la transformación aritmetica.

Llega a ser alienante, como los pseudocientificos, es decir esa gente que sin base cientifica, pretenden discursos sesudos, criticando en general, de manera imprecisa vaga y sin dar mejores aproximaciones, solo se contentan con criticar de manera fugaz, sin dar mejores alternativas, que facil es abrir la boca para opinar! Especialistas en la descontextualizacion, solo muestran lo poco que han entendido por lo que dicen; y referidos de sus lecturas, generalmente de fuentes poco recomendables. Odio a los que hablan gratuitamente, sin saber, sin el rigor ni el respeto con el que creo hay que acercarse a toda postura, para argumentar en pro o en contra. La critica desaforada con nivel de papel couché es tan prescindible, una basura que habria que hacer por erradicar, pues no es mas que distorsión. Distorsión que proviene de su descontexto general y como diria S.F: descontento de ellos mismos y de su caminar por la vida, debido a sus planteamientos tan errados como estupidos, capaces de la negacion de la argumentacion y la evidencia hasta el extremo de lo delirante. Estos sesudos pseudocharlatanes, hablan de figuras retoricas, que solo muestran su incapacidad de abarcar la posibilidad intelectual de necesitando infinitesimales, (y de paso sea dicho, que les produce cierto desasosiego el ver letras y no numeros, RISAS). Es una lastima que se queden bloqueados, en la necesidad numerica aritmetica, y esta vez permiteme citarte:

La más bella y profunda emoción que nos es dado sentir es la sensación de lo místico. Ella es la que genera toda verdadera ciencia. El hombre que desconoce esa emoción, que es incapaz de maravillarse y sentir el encanto y el asombro, está prácticamente muerto. Saber que aquello que para nosotros es impenetrable realmente existe, que se manifiesta como la más alta sabiduría y la más radiante belleza, sobre la cual nuestras embotadas facultades sólo pueden comprender en sus formas más primitivas. Ese conocimiento, esa sensación, es la verdadera religión.



Un fuerte abrazo, amigo.






viernes, 10 de diciembre de 2010

The magnetic storm




TORMENTA SOLAR DE MÁXIMA INTENSIDAD
"Investigadores predicen la inminente llegada de la tormenta solar más intensa en los últimos 50 años"


La noticia fue definitivamente confirmada durante el mes de Marzo del 2006, cuando se comprobaba que el Mínimo Solar había llegado, pero a ido progresivamente adquiriendo importancia a medida que nos aproximábamos a fecha de hoy.

Las manchas solares habian desaparecido. No se detectaron llamaradas solares, el Sol se encontraba tranquilo. Como la calma antes de la tormenta.

A finales de ese mes, un grupo de investigadores anunció que una tormenta estaba en camino, la más intensa durante un mínimo solar en cincuenta años. La predicción fue hecha por el equipo dirigido por Mausumi Dikpati del Centro Nacional de Investigaciones Atmosféricas (National Center for Atmospheric Research ó NCAR). “El siguiente ciclo solar será de un 30 a un 50% más intenso que el anterior”, dice la misma. Y si todos estos datos son correctos, se prevé que en los próximos años se produzca un estallido de actividad solar apenas menor que el del histórico máximo solar de 1958.





El de 1958 fue un fenómeno de máximo solar, también llamado solarmax. La era espacial apenas comenzaba: el satélite Sputnik fue lanzado en octubre de 1957 y el Explorer 1 (primer satélite estadounidense) en enero de 1958. En aquellos años no se podía saber si una tormenta solar se avecinaba viendo las barritas de intensidad de señal de un teléfono móvil. Aun así, la gente sabía que algo grande estaba pasando porque las luces del norte se habían visto ya tres veces en México. Hoy en día, un máximo solar de intensidad similar tendría un efecto notable, e incluso destructivos en teléfonos móviles, aparatos de GPS, dispositivos Wi-Fi, satélites climatológicos y en muchas otras tecnologías modernas.

La predicción de Dikpati es sin precedentes. En los casi dos siglos desde que se descubrió el ciclo solar de 11 años, los científicos han luchado por predecir la intensidad de los máximos futuros, y han fallado. Los máximos solares pueden ser intensos como el de 1958, o apenas detectables como el de 1805, sin obedecer a patrón alguno.





La clave del misterio, como se dio cuenta Dikpati hace varios años, es el Cinturón de Transporte del Sol.

Tenemos algo similar aquí en la Tierra: el Gran Cinturón de Transporte Oceánico, popularizado por la película El Día Después de Mañana (The Day After Tomorrow). Es una red de corrientes que llevan agua y calor de océano a océano. En la película, el Cinturón de Transporte se detiene y esto ocasiona un caos en el clima terrestre.

El cinturón de transporte del Sol es una corriente, no de agua, sino de gas que conduce electricidad. Este fluye en un bucle que va del ecuador solar a los polos y de regreso. Tal y como el Gran Cinturón de Transporte Oceánico controla el clima de la Tierra, el cinturón solar controla el clima de nuestra estrella. Específicamente, controla el ciclo de manchas solares.





El físico solar David Hathaway del Centro Nacional de Tecnología y Ciencias del Espacio (National Space Science & Technology Center ó NSSTC) explica: “Primero, hay que tener en cuenta que las manchas solares —son nudos enredados de magnetismo generados por el dínamo interno del Sol. Una mancha solar típica dura apenas unas cuantas semanas. Luego decae, dejando detrás de sí un “cadáver” de campos magnéticos débiles”.

“La parte superior del cinturón de transporte roza la superficie del Sol, barriendo los campos magnéticos de manchas solares pasadas. Los “cadáveres” son arrastrados hacia los polos y a una profundidad de 200.000 kilómetros donde el dínamo magnético del Sol puede amplificarlos. Entonces los cadáveres (nudos magnéticos) son reencarnados (amplificados), se vuelven boyantes y salen a flote en la superficie”. De esta manera se crean nuevas manchas solares y más intensas.



Todo esto sucede con una gran lentitud. “Se requieren cerca de 40 años para que el cinturón complete un bucle”, dice Hathaway. La velocidad varía “entre un paso lento de 50 años a un paso rápido de 30 años”.

Cuando el cinturón se vuelve “rápido”, significa que muchos de los campos magnéticos están siendo barridos, y que el futuro ciclo solar será intenso. Esta es la base de las predicciones climatológicas solares: “el cinturón se estaba acelerando en el ciclo de 1986 a 1996″, dice Hathaway, “los campos magnéticos que fueron barridos entonces, reaparecerán ahora como grandes manchas solares en el período actual de 2010 a 2021″.





Como la mayoría de los expertos en su campo, Hathaway tiene confianza en el modelo del cinturón de transporte y está de acuerdo con Dikpati en que el siguiente máximo solar será de una intensidad sin precedentes. Pero está en desacuerdo en un punto. La predicción de Dikpati sitúa al máximo solar en el año 2012. Hathaway cree que llegará antes, para fianales del 2010 a principios del 2011.

“La historia muestra que los ciclos de manchas solares grandes se intensifican más rápido que los de manchas pequeñas”, dice. “Las primeras manchas del próximo ciclo se confirmaron durante el 2006 , y un máximo solar que llegará alrededor del 2010 ó 2011.

¿Quién está en lo correcto? Solo el tiempo lo dirá. La cuestión es que sólo tendremos que esperar algunos meses o un par de años. Pero de cualquier manera, una gran tormenta se avecina.






Addendum:

En el año 1859 se produjo una gran fulguración solar. La tormenta solar de 1859 fue la más potente registrada en la historia.[1] A partir del 28 de agosto, se observaron auroras que llegaba al sur hasta el Caribe.[2] El pico de intensidad fue el 1 y 2 de septiembre, y provocó el fallo los sistemas de telégrafo en toda Europa y América del Norte. Parece que este tipo de situaciones sólo se produce cada 500 años aproximadamente, según los estudios de muestras de hielo. Parece que los primeros indicios de este incidente se detectaron a partir del 28 de agosto de 1859 cuando por toda Norte América se vieron auroras boreales. Se vieron intensas cortinas de luz, desde Maine hasta Florida. Incluso en Cuba los capitanes de barco registraron en los cuadernos de bitácora la aparición de luces cobrizas cerca del zenit. En aquella época los cables del telégrafo, invento que había empezado a funcionar en 1843 en los Estados Unidos, sufrieron cortes y cortocircuitos que provocaron numerosos incendios, tanto en Europa como en Norteamérica. Se observaron auroras en zonas de baja latitud, como Roma, Madrid, La Habana y las islas Hawai, entre otras. En las Islas Baleares encontramos una referencia en el Diario de Menorca.
Anteayer a hora avanzada de la noche vio una persona fidedigna dos auroras boreales, que si bien eran mas diminutas que la que vimos años atras no dejaron de causar un efecto maravilloso.—J. Hospitaler, 'Diario de Menorca' - Año 2 Número 237 (04/09/1859)[3]
Fue la interacción más violenta que nunca se ha registrado entre la actividad solar y la Tierra. La acción del viento solar sobre la Tierra el año 1859 fue, con diferencia, la más intensa de la que se tiene constancia. El día 28 de agosto aparecieron numerosas manchas solares, y entre los días 28 de agosto y 2 de septiembre se declararon numerosas áreas con fulguraciones.
El 1 de septiembre el Sol emitió una inmensa llamarada, con una área de fulguración asociada que durante un minuto emitió el doble de energía de la que es habitual. Sólo diecisiete horas y cuarenta minutos después, la eyección llegó a la Tierra con partículas de carga magnética muy intensa. El campo magnético terrestre se deformó completamente y esto permitió la entrada de partículas solares hasta la alta atmósfera, dónde provocaron extensas auroras boreales e interrupciones en las redes de telégrafo, que entonces estaba todavía muy poco desarrollado.


La fulguración de Carrington

A veces, se habla de la fulguración de Carrington debido a que este científico hacía unos bocetos de un grupo de manchas solares el jueves primero de septiembre debido a la dimensión de las regiones oscuras, cuando, a las 11:18, se dio cuenta de un intenso estallido de luz blanca que parecía salir de dos puntos del grupo de manchas. Quiso compartir el espectáculo con alguien pero no había nadie más en el observatorio. Diecisiete horas más tarde una segunda oleada de auroras boreales convirtió la noche en día en toda Norte América hasta Panamá. Algunos ejemplos ilustran la magnitud de este hecho: se podía leer el periódico bajo la luz entre roja y verdosa de las auroras, mientras que los mineros de oro de las Montañas Rocosas se levantaron y merendaron de madrugada, creían que el Sol salía detrás una cortina de nubes! A la sazón había muy pocos aparatos eléctricos, pero los pocos que había dejaron de funcionar, por ejemplo, los sistemas telegráficos dejaron de funcionar en Europa y Norte América.

Imagen del Sol donde pueden verse en la parte inferior unas manchas solares.
Si la *tormenta de Carrington no tuvo consecuencias brutales fue debido a que nuestra civilización tecnológica todavía estaba en sus inicios: si se diese hoy los satélites artificiales dejarían de funcionar, las comunicaciones de radio se interrumpirían y los apagones eléctricos tendrían proporciones continentales y los servicios quedarían interrumpidos durante semanas. Según los registros obtenidos de las muestras de hielo una fulguración solar de esta magnitud no se ha producido en los últimos 500 años, aunque se producen tormentas solares relativamente fuertes cada cincuenta años, la última el 13 de noviembre de 1960.

El ciclo de actividad solar

La aparición de manchas solares, la actividad magnética, y otros datos relacionados con estos fenómenos siguen un ciclo que dura 11 años. El ciclo actual empezó el mes de enero de 2008, tras la pausa actual, llevarán unos cinco años la actividad solar será cada vez mayor. En los últimos 11 años han explotado en la superficie del Sol unas 13.000 nubes de plasma y unas 21.000 fulguraciones solares.
Se podría decir que las tormentas solares son similares a las tormentas terrestres a una escala superior, aunque, en el caso de las solares los gases del viento solar van acompañados de campos magnéticos que les dan forma y proporcionan energía. Como se da en el caso de las tormentas eléctricas son explosiones de partículas de altas energías e intensos rayos X debido de los cambios del campo magnético.
En el proceso de fusión nuclear, que origina la energía del Sol, hay una pérdida de masa del 0,7 %, que se convierte en energía tal y como expresa la conocida fórmula de Einstein:
E = mc2
Cuando un gramo de hidrógeno se transforma por fusión nuclear en 0,93 gramos de helio, se liberan 50.000 kWh de energía.[cita requerida] Esta energía se transmite primero por radiación dentro de una capa esférica —zona radiante— de 500.000 km de grueso y después se transmite por convección a través de otra capa esférica de 200.000 km—zona convectiva. Esta capa de convección es como un líquido en ebullición: por esto el Sol presenta con fuerte ampliación óptica una superficie granulada correspondiente a la cumbre de las células convectivas. La estructura granulada cambia de forma rápidamente (cómo cambia la superficie del agua hirviendo) y una unidad de la granulación se ve aparecer y desaparecer en diez o quince minutos. Con estas dos clases de transporte, la energía producida al núcleo solar ya puede escapar del Sol y radiar en todas direcciones.
La mayoría de estas tormentas producen auroras boreales en las regiones árticas que comparadas con los fenómenos meteorológicos parecerían un pequeño aguacero, pero a veces, el Sol larga un auténtico vendaval.
Nadie vivo hoy ha experimentado una tormenta de estas proporciones, pero Kenneth G. McCracken de la Universidad de Maryland descubrió en los núcleos de muestras de hielo de la Antártida y Groenlandia aumentos bruscos de nitratos, que ya se conocía que correspondían a intensas ráfagas de viento solar. La anomalía de nitratos de 1859 es la mayor en 500 años y equivale a la suma de episodios más importantes en los últimos 40 años.

Causas

La gran tormenta de 1859 fue precedida de la aparición, en el Sol, de un grupo numeroso de manchas solares cercanas al ecuador solar, casi en el momento de máxima actividad del ciclo solar, de una magnitud tan grande que se podían ver a simple vista, con una protección adecuada. En el momento de la eyección de masa coronal el grupo de manchas estaba frente a la Tierra, aunque no parece que sea necesaria tanta puntería, cuando la materia coronal llega a la órbita terrestre abarca una extensión de 50 millones de kilómetros, miles de veces la dimensión de la Tierra.
La intensa fulguración de 1859 liberó dos eyecciones de materia coronal: la primera tardó entre 40 y 60 horas para llegar a la Tierra (tiempo habitual) mientras la segunda, liberada por el Sol antes de que se llenase el vacío dejado por la primera, solamente tardó unas 17 horas para llegar a la Tierra. La primera eyección iba acompañada de un intenso campo magnético helicoidal, según los datos de los magnetómetros de la época. Esta primera etapa quedó registrada en los magnetómetros de superficie como un inicio brusco de actividad, pero no tuvo otros efectos. Al principio apuntaba al norte, pero después de 15 horas en lugar de reforzar el campo terrestre se oponía al campo mencionado. Esta oposición liberó gran cantidad de energía, que comenzó a interrumpir las comunicaciones telegráficas y formar auroras boreales, hasta pasados uno o dos días, en que, una vez que el plasma pasó más allá de la Tierra, dejó que el campo magnético de la Tierra volviese a la normalidad.
La fulguración de Carrington del primero de septiembre debió tener temperaturas de 50 millones de kelvin, por lo que es probable que no sólo emitiera radicación visible, sino también radiación gamma y rayos X. No hay noticia de la observación de una fulguración solar más brillante. La radiación solar sólo tarda unos 8 minuto y medio en llegar a la Tierra y si hubiera habido aparatos de radio y de onda corta en ese tiempo deberían de haber quedado inutilizados. La energía de los rayos X calentaron la atmósfera alta de la Tierra, lo que produjo su expansión entre decenas y cientos de kilómetros.
Como ya se ha mencionado se produjo una segunda ráfaga de viento solar. En el momento del impacto con la Tierra de esta segunda fulguración el campo magnético del plasma apuntaba hacia el sur, con lo que el caos geomagnético no tardó en manifestarse: la magnetosfera terrestre que suele estar a unos 60.000 km de la Tierra fue comprimido hasta llegar a unos 7.000, hasta alcanzar, quizá, la estratosfera. Cuando el cinturón de radiación de Van Allen desapareció temporalmente gran cantidad de protones y electrones se descargaron hacia la atmósfera, lo que podría haber sido la causa de las auroras boreales observadas.
La fulguración solar y la fuerte eyección de materia coronal aceleraron los protones hasta energías de 30 millones de electronvolt si no aun mayores, lo que hizo que estas partículas entrasen, en el ártico, hasta unos 50 kilómetros de la superficie terrestre y que estas partículas depositasen una cantidad extra de energía en la ionosfera que, según Brian C. Thomas de la Universidad de Washburn desencadenó una reducción del ozono estratosférico de un 5%, y que tardó unos 4 años para recuperar lo que se había perdido. Una gran "lluvia" de neutrones pudo abarcar la superficie de la Tierra, pero, debido a que en aquel tiempo no había detectores, no se pudo registrar, y parece no tuvo consecuencias para la salud.
Mientras las auroras se extendían desde las latitudes altas, que les son propias, hasta otras más bajas, las corrientes eléctricas de la ionosfera y de las mismas auroras indujeron corrientes intensas a través de los continentes, y que entraron en los circuitos de telégrafo y que llegaron a quemar algunas estaciones y produjeron electrocuciones.

La próxima tormenta solar

Una tormenta solar de esta magnitud tendría graves consecuencias para la civilización actual. Los rayos cósmicos erosionan los paneles solares de los satélites artificiales y reducen su capacidad para generar electricidad. Muchos satélites de comunicaciones, por ejemplo la ANIK E1 y la E2 en 1994 y Telstar 401 de 1997 han resultado dañados por este motivo. Un caso un poco diferente se debe a la expansión de la atmósfera por los rayos X que produjo daños al Asko japonés el 14 de julio de 2000.
Los satélites artificiales han sido diseñados específicamente para evitar las calamidades del clima espacial, pero las redes eléctricas son incluso más frágiles. Los grandes transformadores están conectados a tierra y, por tanto, pueden ser susceptibles de ser dañados por las corrientes continuas inducidas por las perturbaciones geomagnéticas y aunque los transformadores evitasen la destrucción de los núcleos magnéticos se podrían cargar durante la mitad del ciclo de corriente alterna, lo que distorsionaría la forma de las ondas de 50 o 60 Hertz.
En el año 1859, el invento del telégrafo se había producido 15 años atrás y la infraestructura eléctrica estaba realmente en su infancia. La tormenta solar de 1994 causó errores en dos satélites de comunicaciones, afectando a los periódicos, las redes de televisión y el servicio de radio en Canadá. Otras tormentas han afectado sistemas desde servicios móviles y señales de TV hasta sistemas GPS y redes de electricidad. En marzo de 1989, una tormenta solar mucho menos intensa que la perfecta tormenta espacial de 1859, provocó que la planta hidroeléctrica de Quebec (Canadá) se detuviera durante más de nueve horas; los daños y la pérdida de ingresos resultante se estiman en cientos de millones de dólares.
Como señala una página web de la Universidad George Washington "la meteorología espacial, que es el resultado de los rayos X y de partículas de alta energía del Sol que interactúan de manera compleja con la Tierra, atmósfera y campo magnético, a menudo afectan a los modernos sistemas tecnológicos negativamente (por ejemplo, satélites, la red eléctrica, la radio), causando pérdidas económicas y sociales en las latitudes altas de la Tierra, como el norte de Estados Unidos, Canadá, Escandinavia y Rusia, que están en particular riesgo porque los campos magnéticos convergen en estas regiones "

sábado, 4 de diciembre de 2010

De modernas con cremallera

Que mejor momento de hablar de disonancias que en este día donde el congelado cielo (no por el frío, si no por el suicidio del sentido común de unos cuantos de esos que dicen trabajar en una torre se control), al menos no me caerá un avión en la cabeza, aunque la vergüenza ajena sea otro tema que obviare esta noche, ya que el sentido común brilla por su ausencia y en esencia, intentemos recuperar un poco...

Codigo: Kif6
Es la variante genómica, por la cual unos cuantos advenedizos de la genómica pretendían indentificar la susceptibilidad individual genética a padecer accidentes coronarios. La cosa prospero tanto, que desde el 2008 comercializaron un test genético por el módico precio de 100$, el cual a su vez servia de base para la prescripción de estátinas.

Y como no existen tendencias únicas, ahora vamos con el ADN al olor del sobaco de los inventores del TBO! Una molecularidad de enorme complejidad que a su vez constituye el sistema mas extenso y complejo que exista en la faz de la tierra, y van estos señores, y como si la naturaleza fuera tonta, dicen haber dado con la clave de la susceptibilidad individual para ciertos procesos patológicos. De ahí el chorro de nombres de genes es interminables: Brca, oncogen myc, la base genética para el padecimiento de la diabetes miellitus... Con su patología relacionada, y test sanguíneo pertinente para ver si se padece la mutación.

Curiosamente, la American Society of Human Genetics , que de esto saben un poquito, hablan de que en los últimos años 2/3 de los trabajos vinculantes de "genes verdugos" y patología, son FALSOS!

Y para muestra un botón, en un estudio de 56 000 pacientes que se dice pronto, no encontraron vinculación ninguna entre sucesos coronarios y la presencia del Kif6!! (les animo a escribir kif6 en Google, las primeras páginas, hablan del "fantástico"acuerdo entre Abbot (como distribuidor) y Celera (laboratorio fabricante del test)). después de 56 000 pacientes, o el estudio lo ha hecho un neófito o la vigilancia científica de dicho vinculo la ha hecho un cretino.

Por si no fuera bastante, de las cuatro variantes genéticas mas en boga predisponentes a la enfermedad de Alzheimer, no se ha encontrado igualmente.

Y para terminar mi ataque, se considero un grupo de mujeres. Estas eran historiadas por un medico general, como de costumbre: historia familiar, patología oncológica en la familia , factores de riesgo, clínica... Los diagnosticos del cancer de mama en generalistas fueron 8 a 1 mas sensibles (diagnosticaron 8 veces mas pacientes de cáncer de mama, frente al 1 que el test para el gen BRCA).

Estimados soplamocos, deje de manipular sus ensayos, de mandarnos camellas en minifalda con cremallera y andares de modernas que si no recetas su mierda, te hacen morritos. Eso si, son los mismos, que no se interesaran por ayudarte a financiar procesos de formación




jueves, 2 de diciembre de 2010

E = hν

Dicho de otra manera, la energia (E) del foton es igual a la constante (h: constante de Planck) y a la velocidad V.

Sin embargo antendiendo a la fisica, las observaciones cambian, segun la posicion del observador. Ya que la energia no es la misma, si la observamos en nuestro campo de de gravedad (Observador) o en el campo de gravedad del foton.

\ E_{obs}=E_{con} e^{-\Phi}
\ h \nu_{rec}=h \nu_{em} e^{-\Phi}
\nu_{rec}=\nu_{em} e^{-\Phi}\,

siendo:
E_{obs}\, es la energía medida por un observador en reposo respecto al campo gravitatorio (en este caso un astrónomo),
Φ el potencial gravitatorio de la región donde se encuentra éste,
\ E_{con} la energía conservada del fotón,
νem la frecuencia de emisión,
νrec es la frecuencia percibida por el observador
h la constante de Planck.

Estas ecuaciones nos vienen a decir que la energia del foton permanece invariante. Pero y esta divergencia entre los resultados de la medición de la energía obtenidos por el astrónomo (Eobs) y la energía conservada del fotón (Econ)?Parece que la respuesta se encuentra en la segunda igualdad.(suprimimos la constante h de cada lado de la igualdad)
\ \nu_{rec}=\nu_{em} e^{-\Phi}
puede escribirse de este modo, atendiendo a la equivalencia f:1/t (f: frecuencia, T: es el periodo):
\ \frac{\mbox{ciclos}}{\Delta t_{obs}}=\frac{\mbox{ciclos}}{\Delta t_{em}} e^{-\Phi}
Descompongamos pues el concepto: frecuencia que es igual al número de ciclos que tienen lugar en un determinado período (generalmente, un segundo). Sea Δtem es el tiempo medido por un observador situado a una distancia infinita del cuerpo masivo (y por lo tanto no experimenta la atracción gravitatoria de éste), mientras que Δtobs es el tiempo medido por un observador bajo la influencia del campo gravitatorio y en reposo respecto a este (como, por ejemplo, una persona situada sobre la superficie terrestre). De ahí se deduce que cerca de un cuerpo masivo el tiempo se ralentiza, siguiendo estas reglas matemáticas:


\Delta t_{em} = \Delta t_{obs} e^{-\Phi}\,
\Delta t_{obs} = \Delta t_{em} e^{\Phi}\,
Por lo tanto, hemos demostrado que segunla posicion del observador, este estara sometido o no a determinadas "fuerzas" condicionates, del resultado. En otras palabras, las variables de la ecuacion, no tienen un valor fijo, pero RELATIVO, sometidos a las condiciones desde donde nos situemos. Sin embargo, la confrontacion de las variables hace que de valores relativos, lleguemos a una conclusion, objetiva. En este caso: el tiempo medido por el observador, no es el mismo que la variacion de tiempo bajo la influencia de campo gravitatorio. Asi nos permite establecer igualdad en estas ecuaciones.
Y es que efectivamente, las ecuaciones no tienen un valor "absoluto" pues no serian mas que un compendio aritmetico en tal caso, dando lugar a una situacion disyuntiva, sin posible relacion. Ampliemos el significado de esto. Cada uno estamos sucintos a nuestra variabilidad personal, lo cual hace que no se contemple de igual manera nuestros actos, reacciones o puntos de vista. Sin embargo, el hecho sigue siendo objetivo (en este caso el tiempo se varia de distinta forma), en otros, la evidencia es mas simple que la cuestion del tiempo como variable abstracta. Asi pues, no existe, desde el punto de vista cuantico, una ecuacion sencilla que se equipare a otra, mas bien todo lo contrario, la ecuacion esta sujeta a variabilidades de toda indole. Sin embargo y aun a pesar de las variabilidades personales, circunstanciales, aritmeticas, o espacio temporales, la objetivacion del hecho es siempre la misma.
Gracias a la relatividad, permite aplicar a los elementos el valor que les corresponde, sin exageraciones ni minimizarlos. Y ya que citamos a la relatividad, "No creo en la inmoralidad del individuo, y considero la ética una preocupación exclusivamente humana sobre la que no hay ninguna autoridad sobrehumana" donde afortunadamente la etica, si bien variable, depende estrictamente del individuo, no de ningun ente ajeno a este.

martes, 30 de noviembre de 2010

PAIN

estoy en medio, estirado por sentimientos y por valores, dos cuerdas en sentido contrario.
Y en medio mis gritos....

lunes, 29 de noviembre de 2010

Cartas a Oscar: o el opio de la razón

instrucciones de uso: darle al video, para que la musica acompañe a la lectura, si luego tiene tiempo, analice la letra, y verá que es el mismo contenido, hecho música...levedades del ser humano... (hagalo igualmente con el video del final, como broche)
 


Querido Oscar
En respuesta a mi carta del 14/11/2010, me pides que te hable de ese fenómeno: el poseur.
Como ya te dije, asistimos a la desvirtuación de los conceptos y por ende a su perdida de esencia. Supongo que es la evolución normal, cuando se deja de atender al fondo de las cuestiones y se contenta uno solo con la corteza, la superficialidad ya sabes. Lamentable, si, lo sé. Intentaré explicarte...

Todo radica en la actitud, supongo, que se adopta la actitud mas favorable, al conjunto de personalidad y entorno, asi como a cierta confortabilidad que da el "avestrusismo" o el sumergir la cabeza para no tener que generar un pensamiento propio, un refugio futil de la conciencia ni mas ni menos. El poseur, es una actitud derrotista por defecto, todo empieza mal y por lo tanto el desarollo es bastante predecible. Te diré que el pensamiento fantastico juega igualmente un papel esencial!

Dicho pensamiento genera un objeto, generalmente ideal, inalcanzable, sea una situación, una idea pretendida a ser global, o una simple cuestión onanistica.Como inalcanzable que es, el individuo se queja llevado por la frustacion que esto le supone. Esa queja no solo se manifiesta con una actitud, si no con una vestimenta, una pose, lenguage, apariencia... ese manifiesto es esencialmente de cara a la galeria. Cuando se intenta profundizar en dicha desesperanza, el individuo, afincando en su pose, es incapaz de verbalizar de manera concreta que es lo que le lleva a ese compendio. Algunos se quedan en "soy asi, me gusta" otros, empiezan con una verborrea insoportable, cuando no abstracta y flotante, que roza el delirio de ruina y termina sin excepción en lo absurdo, a veces camuflado mediante individualísima excluyentes. Por otra parte ruina que efectivamente no es ni cierta, ni presente, ni latente, si no ruina que ocurre en la contraposicion de su pensamiento fantastico, y la su interpretacion de la realidad circundante. Es un planteamiento tan vacio, que necesitan constantemente la referencia externa, "los demas"; por lo tanto se agrupan, y otras veces, simplemente se expresan con el mismo codigo derrotista pero sin agrupacion expresa. Lo que mas me llama la atención que aun cuando estas plañideras, consideran que el objeto (entiendase objeto segun la amplia definicion expuesta aqui arriba) merece la pena, estos no han hecho nada por conseguirlo, y eso que ignoran el papel tan crucial como condicionante de su pensamiento fantastico. Es sin duda un desproposito desde todos los frentes.


Todo esto resulta en el opio de la razón y por lo tanto, la producción de monstruos! La elección de la inopia, no se si por incapacidad o por comodidad. En cualquier caso la disonancia con el entorno es sorprendente.

Los adornos no les son ajenos, todos son grandes pasiones arrebatadoras, sensación de falta de control y el deseo expreso de conseguir un equilibrio astenico y abúlico, que obviamente no consiguen. En el tiempo el trastorno se cronifica y las necesidades histrionicas empeoran.

Los hay aunque pocos, que se cansan de vivir en semejante situación deliroide y salen del goticismo Narciso, rechazando su vagancia, afortunadamente. Otros buscaran miles de excusas incluso someterse a mayores deleidades, para no salirse del opio voluntario, llegando a pensar que ellos mismos están desprovistos de voluntad propia (si amigo Oscar, ya sabemos que la voluntad es inherente al ser humano, pero hay mucho cretino nihilista).

Espero amigo que esto te sirva para entender la putrefacción de los conceptos cuando se les arranca la esencia.