El cuento del superchocolate

Autor: Gonzalo Casino Fuente: IntraMed / Fundación Esteve 

La proliferación de investigaciones sobre los efectos beneficiosos del chocolate para la salud no es nada sorprendente, y todavía lo es menos que sus resultados se difundan de inmediato. El chocolate es un alimento muy apreciado y placentero, que tiene una historia fantástica y representa un negocio de 45.000 millones de euros anuales para la industria alimentaria, encabezada por la Big Chocolate. Por todo eso, es también un destacado objeto de estudio nutricional y de interés popular. A los consumidores y productores les encanta leer que la ciencia ha descubierto que reduce la hipertensión arterial, previene el cáncer, detiene el estrés y nos hace más inteligentes. Sí, todo esto y mucho más se ha dicho de este “alimento de los dioses”, como lo denominó Linneo. Pero hay algo extraño, equivocado y perturbador en poner el foco de estudio en un alimento aislado y en realizar más y más investigaciones que, por sus limitaciones metodológicas, permiten ofrecer titulares simplistas pero aportan conclusiones muy poco sólidas.

Un último estudio, publicado el 23 de mayo en la revista Heart, viene a concluir que la ingesta habitual de chocolate previene la fibrilación auricular. Esta arritmia cardiaca afecta a una de cada cuatro personas antes de los 80 años y es una causa relevante de ictus, por lo que siempre es bienvenida cualquier posibilidad de prevenirla. Sin embargo, la confianza que merecen las conclusiones del estudio es más bien baja. Los resultados indican que la ingesta moderada de chocolate (entre dos y seis veces por semana) reduce el 11-20% el riesgo de fibrilación auricular respecto al consumo ocasional (menos de una vez al mes). Pero, como han señalado algunos expertos, el grupo de personas que apenas toman chocolate es un tanto extraño. Estas personas tienen más hipertensión arterial, cifras de colesterol más altas, más sobrepeso y, lo más revelador, una prevalencia de diabetes muy superior. Probablemente, no toman chocolate porque padecen diabetes y deben seguir una dieta especial. Una interpretación más plausible es que no sea el chocolate lo que previene la fibrilación auricular, sino que es esta arritmia –u otros factores de riesgo asociados– lo que “previene” la ingesta de chocolate. En cualquier caso, un estudio observacional como este no permite clarificarlo.

No hay alimentos buenos y malos en términos absolutos, sino dietas mejores y peores

La mayoría de las investigaciones que pretenden mostrar otras supuestas bondades del chocolate tienen también importantes limitaciones, según una revisión crítica realizada por el National Health Service británico. Así, muchos de los estudios que sugieren que el consumo de chocolate reduce ligeramente la hipertensión arterial son de corta duración (entre dos y ocho semanas) y presentan otras debilidades. La investigación sobre la capacidad de reducir el estrés se basa en una muestra pequeña y es de muy corta duración, además de estar financiada por la industria chocolatera. La que sugiere que previene los ictus tampoco puede establecer una relación causa-efecto y deja abierta la posibilidad de que pueden ser otros muchos los factores implicados. Y, por lo que respecta a los estudios sobre el chocolate y el cáncer, basta decir que se han realizado con animales y que su extrapolación a humanos es de lo más incierta.

Con todo, lo más perturbador es la insistencia en sugerir que un solo alimento atesora por sí mismo todo un cúmulo de propiedades para prevenir enfermedades y promocionar la salud. Esto es tan absurdo como pretender convertirlo en una especie de superhéroe de la nutrición, cuando es más que sabido, aunque nunca suficientemente proclamado, que los alimentos deben considerarse siempre en el contexto de la dieta y del estado de salud de cada persona. En este sentido, no hay alimentos buenos y malos en términos absolutos, sino dietas mejores y peores. Y, desde luego, lo que no hay es superhéroes ni superalimentos.

Anuncios

Mastectomía bilateral en cáncer de mama unilateral

a1
Francesc Tuca
Unitat de Patologia Mamaria, Hospital Universitari de Girona Dr. Josep Trueta, Institut Català de la Salut, Departament de Salut, Generalitat de Catalunya, Girona
 
Rev Senol Patol Mamar 2015;28:145-7 – DOI: 10.1016/j.senol.2015.09.001

Se ha observado una tendencia en los últimos años a un incremento de la mastectomía profiláctica contralateral (MPC) en pacientes con diagnóstico de cáncer de mama unilateral, argumentada como cirugía reductora de riesgo y de prevención del desarrollo futuro de cáncer de mama en la mama sana o cáncer de mama metacrónico contralateral (CMMC). Aunque pueden considerarse otras opciones, la indicación de MPC es poco discutida en pacientes diagnosticadas de cáncer de mama y portadoras de alteraciones genéticas de alto riesgo de cáncer de mama, como mutaciones BRCA1/BRCA2, en las que se evidencia un riesgo de CMMC del 17% a 5 años, del 30% a 10 años y del 47% a 25 años, con un incremento acumulativo de riesgo de un 3% anual. La mastectomía profiláctica bilateral en portadoras BRCA1/BRCA2 consigue una reducción de riesgo de cáncer de mama de 90-95%. Aunque no esté claramente demostrado su impacto sobre la supervivencia a corto plazo, estudios recientes han mostrado una mejor supervivencia a largo plazo, observada a 20 años.

En contra de lo que sería esperable, el incremento de la realización de MPC no resulta mayormente explicable por un aumento de la identificación de mutaciones de alto riesgo. En el Memorial Sloan-Kettering Cancer Center de Nueva York sólo un 13% de las MPC se efectuaron en mujeres portadoras de mutaciones BRCA1 o BRCA2. Se ha relacionado la mayor utilización de la RM con el incremento de la MPC. La mama de seguimiento difícil, de alta densidad y con identificación de alteraciones que determinan la necesidad de estudios biópsico puede favorecer la indicación, no solo por el aumento moderado reconocido inherente a este factor sino también por la ansiedad generada en las pacientes. La mama de difícil seguimiento es considerada como una de las indicaciones potenciales de la MPC por la Sociedad de Cirugía Oncológica de Estados Unidos. La influencia mediática de casos de mujeres famosas sometidas al procedimiento contribuye a esta tendencia, independientemente de que probablemente la indicación de la intervención estuviese justificada en relación al riesgo individual de estas mujeres. La mayor generalización de la reconstrucción inmediata y los avances de la cirugía reconstructiva, como el descrito en uno de los artículos publicados en el presente número de esta Revista, también han contribuido al incremento de la MPC.

La indicación de la MPC es más discutible en cáncer de mama unilateral de mujeres no portadoras de mutaciones de riesgo. Las motivaciones de estas pacientes son una reducción de riesgo de cáncer de mama contralateral, una mayor supervivencia o la tranquilidad de no tener que volverse a enfrentar en el futuro con un nuevo diagnóstico y tratamiento de cáncer de mama.

El riesgo de desarrollo de CMMC es probablemente sobreestimado por estas pacientes. Un meta- análisis efectuado por investigadores españoles ha calculado un riesgo acumulado de sólo un 3% a 5 años y de 5% a los 10 años en mujeres no portadoras BRCA1/BRCA2, mientras que en las portadoras se estimó en un 14% a 5 años y en un 22% a los 10 años. De forma paradójica, mientras existe una tendencia al incremento de la MCP se ha observado un descenso en la incidencia de CMMC, hecho que se atribuido al tratamiento hormonal en pacientes con receptores de estrógenos (RE) positivos. En estas enfermas la aparición de CMMC a 15 años se reduce de un 9,8% a 6,5%. El efecto reductor de riesgo de CMMC también se ha observado con inhibidores de aromatasa, con quimioterapia, sobre todo en mujeres jóvenes de menos de 50 años y, aunque con una experiencia aun preliminar, con trastuzumab en tumores HER2 positivos.

La actualización de 2010 de la revisión Cochrane sobre MPC concluye que no hay evidencia de un beneficio de supervivencia asociado a la MPC. Un estudio reciente, aplicando un modelo estadístico de estimación de supervivencia sobre datos procedentes de registros epidemiológicos norteamericanos, ha sobreestimado el beneficio absoluto de supervivencia a 20 años obtenido por la MPC como inferior al 1%. La mejoría de la supervivencia asociada a la MPC en algunos estudios observacionales se ha relacionado con un sesgo de selección, sugerido por mayor supervivencia global y menor mortalidad por causas ajenas al cáncer de mama en las mujeres sometidas a MPC. El hecho de que la mayoría de segundas neoplasias se diagnostican en fases precoces de la enfermedad contribuye a la pobre influencia obtenida por la MPC. El impacto de la MPC en la supervivencia puede ser aún menor o inexistente en el futuro como consecuencia de la mayor supervivencia y reducción de riesgo de CMMC asociadas a la terapéutica complementaria.

La MPC se acostumbra a ofrecer en pacientes portadoras de mutaciones de alto riesgo como una posible opción más que como una indicación de tratamiento, pero no parece razonable ofrecer esta opción a mujeres no portadoras, considerando la limitada reducción de riesgo de CMMC y la ausencia de efecto demostrado sobre la supervivencia. Cuando las enfermas reclaman el procedimiento, como es el caso de dos pacientes asistidas este año en nuestra Unidad de Patología Mamaria, se debe desmotivar a estas pacientes sobre sus expectativas de mayor supervivencia y de sobre- estimación del riesgo de CMPC. Se debe efectuar una valoración individual del riesgo y circunstancias personales y discutir con ellas los beneficios y desventajas potenciales del procedimiento. Factores a considerar son la edad, los RE y el estadio del tumor diagnosticado, la existencia de antecedentes familiares y de diagnósticos histológicos de riesgo, especialmente el carcinoma lobulillar in situ. Las mujeres jóvenes con RE negativos presentan mayor riego de CMMC y podría valorarse un mayor beneficio. En las de mayor edad ha de considerarse la esperanza de vida, teniendo en cuenta que los mayores niveles de riesgo de CMMC se alcanzan a largo plazo. La MPC no resulta coherente en cáncer de mama no diagnosticado en estadios precoces de la enfermedad, cuando el riesgo de recaída local y sistémica supera ampliamente el de CMMC. Se ha de explicar adecuadamente en que consiste la reconstrucción mamaria y los resultados que puede ofrecer, sin fomentar expectativas poco realistas, así como del incremento de complicaciones relacionadas con el procedimiento de reconstrucción bilateral respecto al unilateral. Cuando existen antecedentes familiares, sobre todo más de un precedente de primer grado, la decisión se debe adoptar después de la evaluación lo más precisa posible el riesgo familiar y genético, preferentemente por unidades clínicas especializadas, y efectuar las pruebas de identificación de mutaciones de riesgo cuando se cumplan los criterios para su realización. Nuestras pacientes afirmaban que su principal motivación era evitar el impacto emocional del riesgo, sobrevalorado por ellas, de CMMC. Se ha de proporcionar un soporte psicológico adecuado que ayude a estas enfermas a encontrar mecanismos de superación del temor al CMMC. La información, valoración y toma de decisiones con las pacientes se debe abordar desde un enfoque multidisciplinario: unidad de patología mamaria, oncología, cirugía plástica, psico-oncología y una unidad especializada de valoración de riesgo oncológico.

No obstante, no podemos negar el hecho que el diagnóstico de un cáncer de mama es un evento que determina una mayor predisposición de aparición de una segunda neoplasia de mama en el futuro con una incidencia registrada a 5, 10, 15 y 20 años de 3%, 6.1%, 9.1% y 12%, respectivamente, correspondiente a un incremento anual de riesgo del 0.6%. El riesgo global de la población femenina sin antecedente de cáncer de mama a 10 años es de 1.45%, 2.31%, 3.49% y 3.84% en las década de los 40, 50, 60 y 70 años de edad respectivamente. Es decir una mujer duplica aproximadamente el riesgo a 10 años de CMMC tras el diagnóstico de cáncer de mama. El riesgo es más discreto en mujeres con RE positivos, como consecuencia del tratamiento complementario con hormonoterapia. El diagnóstico de cáncer de mama se encuentra entre los factores de riesgo que guías clínicas como la de la Clinical Practice Guidelines in Oncology (NCCN) admite como indicación de adopción de medidas reductoras de riesgo, entre las que se encuentra también la mastectomía profiláctica. Como opción solicitada por enfermas adecuadamente informadas más que sugerida por los equipos asistenciales, después de una exhaustiva valoración individual, es difícil negar el procedimiento en casos seleccionados. El perfil con una mayor justificación corresponde al de mujeres jóvenes, RE negativos, con diagnóstico de cáncer de mama en estadio precoz, con antecedentes familiares de cáncer de mama y modelos de predicción con riesgo elevado, con mamas de densidad heterogénea de difícil seguimiento con necesidad de estudios biópsicos, diagnósticos histológicos de lesiones premalignas o marcadores histológicos de riesgo, psico- emocionalmente estables y dispuestas a sacrificar parte de la imagen corporal en aras de evitar un riesgo moderado de CMMC por encima de una mejoría cuestionable de la supervivencia a largo plazo.

Desaconsejan la mayoría de cirugías artroscópicas de rodilla

MedlinePlus

La cirugía artroscópica “laparoscópica” se debe usar en raras ocasiones para reparar las articulaciones artríticas en las rodillas, señala un panel de expertos internacionales en unas nuevas directrices clínicas.

Los ensayos clínicos han mostrado que la cirugía laparoscópica no ayuda a las personas que sufren de artritis de las rodillas más que unos analgésicos leves, fisioterapia o perder peso, dijo el autor líder, el Dr. Reed Siemieniuk, investigador en salud de la Universidad de McMaster en Toronto, Canadá. (Arthroscopic surgery for degenerative knee arthritis and meniscal tears: a clinical practice guideline)

“Se puede afirmar con bastante firmeza que, desde una perspectiva a largo plazo, en realidad no ayuda para nada”, comentó Siemieniuk. “Si supieran todas las evidencias que hay, casi nadie elegiría hacerse esta cirugía”.

La cirugía laparoscópica es uno de los procedimientos quirúrgicos más comunes en el mundo, ya que se realizan más de dos millones cada año, apuntó Siemieniuk. Tan solo Estados Unidos gasta unos tres mil millones de dólares al año en ese procedimiento.

Las nuevas directrices, que aparecen en la edición en línea del 10 de mayo de BMJ, se publicaron como parte de la iniciativa de la revista de ofrecer recomendaciones actualizadas basadas en las evidencias más recientes. Las directrices realizan una recomendación contundente contra la artroscopia para casi todos los casos de enfermedad degenerativa de la rodilla.

Esto incluye a la osteoartritis además de las roturas de los meniscos, que son el cojín entre los dos huesos de las piernas en la rodilla, explicó Siemieniuk.

“Con la edad y el uso, el roce de los dos huesos puede descomponer ese cojín”, dijo. “Es muy común ver pequeños desgarros y roturas en ese cojín en los pacientes con artritis”.

Siemieniuk y sus colaboradores anotaron que un ensayo publicado en 2016 mostró que la cirugía no superaba a la terapia de ejercicio para los pacientes con roturas en un menisco.

A pesar de esta y otras evidencias médicas, la mayoría de directrices siguen recomendando la cirugía laparoscópica para las personas con roturas en el menisco, el inicio repentino de síntomas como dolor o inflamación, o dificultades entre leves y moderadas con el movimiento de la rodilla.

La cirugía artroscópica se realiza mediante pequeñas incisiones a través de las cuales se insertan una cámara y unos instrumentos minúsculos. Los médicos pueden extirpar o reparar el tejido dañado sin tener que abrir la rodilla.

La Academia Americana de Cirujanos Ortopédicos (American Academy of Orthopaedic Surgeons) desaconseja actualmente realizar la cirugía artroscópica en pacientes con una osteoartritis de rodilla en toda regla, dijo el Dr. Kevin Shea, vocero de la academia.

“La mayoría de cirujanos ortopédicos han reducido de forma dramática la cirugía artroscópica en los pacientes con artritis degenerativa”, comentó Shea. “La mayoría de los que conozco la han abandonado a lo largo de los últimos 10 o 15 años”.

Pero la cirugía artroscópica aún puede ayudar a las personas con problemas del movimiento provocados por las roturas de menisco que no han desarrollado osteoartritis moderada o grave, afirmó Shea.

Esos pacientes se deben tratar primero con analgésicos leves y terapia de ejercicio, pero la cirugía laparoscópica debe seguir siendo una opción para ellos, añadió. Shea es cirujano ortopédico en Boise, Idaho.

“No hace mucho, operé a una maestra de escuela de 67 años que es una entusiasta esquiadora”, dijo Shea. “No tenía artritis de rodilla, pero sí una inmensa rotura de menisco que se bloqueaba, se enganchaba y se salía. No ofrecerle un tratamiento no habría sido justo”.

Según las directrices de la BMJ, los pacientes con rotura de menisco deben ser tratados con analgésicos y fisioterapia, además de perder peso si tienen sobrepeso, dijo Siemieniuk. La cirugía para reemplazar la rodilla es la última opción de tratamiento, realizada una vez la degeneración ha avanzado hasta el punto en que ninguna otra terapia funciona.

Los médicos y hospitales tienen un incentivo financiero para realizar cirugías laparoscópicas innecesarias, pero Siemieniuk comentó que esas cirugías podrían ser impulsadas por el deseo de tratar una dolorosa afección médica.

“Es difícil eliminar una de las opciones de las personas ante el dolor crónico de rodilla y la artritis, que pueden ser tan debilitantes”, planteó. “Y los pacientes tienen la expectativa que cuando ven a un cirujano, el cirujano tendrá algo que podrá ofrecerles”.

La inercia también podría tener un rol. “Es mucho más fácil introducir un nuevo tratamiento en la práctica clínica que eliminar uno que luego averiguamos que no funcionaba”, advirtió Siemieniuk. “Es lo que vemos aquí”.

La cirugía laparoscópica tiene sus desventajas. La recuperación puede durar entre tres días y seis semanas, apuntó Siemieniuk, y hay un riesgo de coágulos sanguíneos o infección en la rodilla.

Los pacientes deben realizar un proceso compartido de toma de decisiones con el cirujano, y cuestionar si la cirugía en realidad les ayudará, planteó.

La cirugía todavía puede ser útil para arreglar los ligamentos rotos o el daño provocado por un traumatismo grave, aseguró Siemieniuk. Pero en la mayoría de los casos, dadas las evidencias, las aseguradoras “podrían decidir no financiarla, lo que creo que sería apropiado”, comentó.

El médico es un agente social, debe ocuparse de la enfermedad y del entorno

Entrevista

http://www.intramed.net/contenidover.asp?contenidoID=90882&uid=520577&fuente=inews

La Dra. Claudia Milano es una representante de una clase de médicos que “vive” el hospital público con una intensidad particular. El Hospital Alejandro Posadas ha sido una histórica escuela en gastroenterología con “próceres” como los Dres. Pablo Mazure y Luis Colombato. El servicio es un punto de referencia y alta consideración internacional. La Dra. Milano, no solo es una experta de altísimo nivel científico y larga experiencia asistencial y docente, sino que tambíen es una líder social y comunitaria para los pacientes y sus familias. Fiel a sus orígenes familiares y a una concepción del compromiso social que conoció desde la infancia y que recuerda con ternura y un emocionado agradecimiento hacia las figuras de su padre y de su abuela. Ha logrado articular varias de sus pasiones: medicina, arte, teatro, francés y otras en una vida plena y múltiple. Hay en ella una pasión que no puede contener cuando relata su trabajo cotidiano y una solidaridad que la desborda y la reclama en todo momento. Por favor, cada vez que alguien le diga que en la medicina todo está perdido, que ya no hay valores, que el humanismo está en retirada: hágale ver esta entrevista. Si es usted docente, compártala con sus alumnos; si es padre con sus hijos.  Eso que nos hizo médicos y nos sostiene todavía en la profesión, está todo en lo que usted va a ver en los próximos minutos.

 

Día Internacional contra los Ensayos Nucleares, 29 de agosto

Signing of the Partial Test Ban Treaty, 5 August 1963. Photo: CTBTO

Firma del Tratado de Prohibición Parcial de los Ensayos, 5 de agosto de 1963. El Secretario de Estado Dean Rusk, de Estados Unidos; el Ministro de Asuntos Exteriores Andrei Gromyko, de la Unión Soviética; y Lord Hume, del Reino Unido. Foto TPCEN.
http://www.un.org/es/events/againstnucleartestsday/history.shtml

El final de los ensayos nucleares

A continuación, en 2009, 2013 y en enero y septiembre de 2016, realizó cuatro pruebas más, que preocuparon casi unánimemente a la comunidad internacional. El Consejo de

Seguridad expresó su firme condena ante dichos ensayos que representaban una amenaza para la paz y la seguridad internacionales.

La historia de los ensayos nucleares comenzó muy temprano en la mañana del 16 de julio de 1945 en un desierto cercano a la localidad de Alamogordo, en el estado de Nuevo México, donde Estados Unidos detonó su primera bomba atómica. Esta primera prueba nuclear, conocida como Trinity, fue la culminación de años de investigación científica con el «Proyecto Manhattan».

Durante los 50 años que pasaron entre el fatídico día de 1945 y la apertura para la firma del Tratado de Prohibición Completa de Ensayos Nucleares (TPCEN) en 1996, se realizaron más de 2000 ensayos nucleares en todo el mundo.

  • Estados Unidos llevó a cabo 1032pruebas entre 1945 y 1992.
  • La Unión Soviética715 entre 1949 y 1990.
  • El Reino Unido 45 entre 1952 y 1991.
  • Francia210 entre 1960 y 1996.
  • China45 entre 1964 y 1996.

Después de que se abriera a la firma el Tratado de Prohibición Completa de Ensayos Nucleares en septiembre de 1996, se realizaron aproximadamente media docena de pruebas con armamento nuclear:

  • India realizó dosensayos en 1998 (además de una denominada explosión nuclear pacífica en 1974).
  • Pakistándos en 1998.
  • República Democrática Popular de Corea, varios llevó a cabo varios ensayos en 2006, 2009, 2013 y 2016.

Ruptura de la moratoria de facto

Entre 1998 y 2016 se realizaron, supuestamente, nueve ensayos nucleares: dos por la India y dos por Pakistán en 1998, y cinco por la República Popular Democrática de Corea en 2006, 2009, 2013 y 2016, poniendo así fin a la moratoria de facto que había establecido el TPCEN.

La India realizó dos ensayos nucleares subterráneos, cuyo nombre en clave era “Shakti ‘98”, el 11 y 13 de mayo de 1998 cerca de la localidad de Pokhran. A diferencia de la prueba llevada a cabo en 1974, en esta ocasión el Gobierno de la India no declaró que se tratara de «ensayos pacíficos», sino que enfatizó la naturaleza militar de las explosiones.

Apenas dos semanas más tarde, Pakistán reaccionó con dos ensayos nucleares subterráneos en la cordillera Ras Koh.

Inmediatamente después, tanto India como Pakistán anunciaron moratorias unilaterales de ensayos nucleares y desde entonces no han realizado ninguno.

El ensayo nuclear anunciado por la República Popular Democrática de Corea el 9 de octubre de 2006 acabó con la moratoria de facto que había durado ocho años y atentó contra la letra y el espíritu del Tratado de Prohibición Completa de los Ensayos Nucleares.

Tipos de ensayos nucleares

Ha habido explosiones nucleares terrestres, subterráneas (a más de 2400 metros de profundidad y en túneles horizontales) y submarinas (hasta 600 metros bajo el nivel del mar). Se han detonado bombas colocadas en torres, a bordo de barcos, en globos, lanzadas desde aviones y disparadas por cohetes a más de 300 km de altitud en la atmósfera.

Ensayos atmosféricos

Los ensayos atmosféricos se refieren a las detonaciones que tienen lugar en la atmósfera o más allá.

De las explosiones realizadas entre el 16 de julio de 1945 (Estados Unidos) y el 29 de julio de 1996 (China), más de 2000 en total, un 25%, es decir unas 500, se llevaron a cabo en la atmósfera: aproximadamente, 200 por Estados Unidos, 200 por la Unión Soviética, 50 por Francia, 20 por Gran Bretaña y 20 por China.

A mediados de los años cincuenta creció la preocupación internacional por la lluvia radioactiva resultante de los ensayos atmosféricos. En marzo de 1954, Estados Unidos probó su bomba de hidrógeno Castle Bravo en las Islas Marshall del Pacífico. La prueba Bravo produjo el peor desastre radiológico de la historia de ensayos de Estados Unidos. Por accidente se contaminaron con la lluvia radiactiva civiles de las Islas Marshall, militares de EEUU que prestaban servicio en el atolón Rongerik y el pesquero de arrastre japonés Lucky Dragon.

Los ensayos atmosféricos fueron prohibidos por el Tratado de Prohibición Parcial de Ensayos de 1963. Ha habido negociaciones que han dado una amplia réplica a la grave preocupación de la comunidad internacional por la lluvia radioactiva resultante de los ensayos atmosféricos. Estados Unidos, Unión Soviética y Reino tomaron parte en el Tratado; Francia y China no lo hicieron. Francia realizó su último ensayo atmosférico en 1974, China en 1980. Las estaciones internaciones de vigilancia (IMS, por sus siglas en inglés) de infrasonidos de TPCEN se usan para detectar explosiones nucleares mediante la monitorización de las ondas de sonidos de bajas frecuencias en la atmósfera. Las estaciones IMS de radionucleidos TPCEN están diseñadas para detectar partículas radioactivas que emanan de un ensayo atmosférico.

Ensayos submarinos

Los ensayos submarinos se refieren a las explosiones que tienen lugar en las profundidades submarinas o cerca de la superficie del agua. Se ha realizado un número relativamente bajo de ensayos submarinos. El primer ensayo nuclear submarino, Operación Crossroads, fue realizado por Estados Unidos en 1946 en sus áreas de pruebas del Pacífico en las islas Marshall con el propósito de evaluar los efectos de las armas nucleares usadas contra buques navales. Más tarde, en 1955, la Operación Wigwam de Estados Unidos llevó a cabo un único ensayo nuclear submarino a una profundidad de 600 m. para determinar la vulnerabilidad de los submarinos a las explosiones nucleares.

Las explosiones nucleares submarinas cerca de la superficie pueden desplazar grandes cantidades de agua y vapor radiactivo, contaminando barcos, infraestructuras y personas situadas en las proximidades.

Los ensayos nucleares submarinos fueron prohibidos por el Tratado de Prohibición Parcial de Ensayos de 1963. Las estaciones IMS hidroacústicas de TOCEN son las mejor adaptadas para detectar las explosiones nucleares submarinas.

De las más de 2.000 explosiones nucleares detonadas en el mundo entero entre 1945 y 1996, el 25% o más de 500 bombas explotaron en la atmósfera.

Ensayos subterráneos

Estación radionucleida 56, Peleduy, Federación Rusa. Foto: TPCEN.

Estación radionucleida 56, Peleduy, Federación Rusa. Foto: TPCEN.

Los ensayos subterráneos hacen referencia a las explosiones nucleares que detonan a profundidades variables bajo la superficie terrestre. Entre estos ensayos se encuentra la mayoría (es decir aproximadamente el 75%) de todas las explosiones nucleares durante la Guerra Fría (1945–1989); es decir, más de 800 de todos los ensayos realizados por Estados Unidos y cerca de 500 de todos los ensayos realizados por la Unión Soviética.

Cuando la explosión está totalmente contenida, el ensayo nuclear subterráneo emite una lluvia radiactiva insignificante en comparación con los ensayos atmosféricos. No obstante, si los ensayos nucleares subterráneos “descargan” en la superficie entonces pueden producir una cantidad considerable de restos radiactivos. Los ensayos subterráneos se hacen evidentes generalmente mediante la actividad sísmica relacionada con el efecto del dispositivo nuclear.

Los ensayos nucleares subterráneos fueron prohibidos por el Tratado de Prohibición Completa de los Ensayos Nucleares (TPCEN) de 1996, que prohíbe todas las explosiones nucleares en la Tierra.

El 75% de todas las explosiones de ensayos nucleares durante la guerra fría fueron subterráneos.

Las estaciones IMS sísmicas del TPCEN se usan para detectar explosiones nucleares subterráneas. Los datos sísmicos se combinan con los datos radionucleidos. Sólo la tecnología de radionucleidos puede determinar si una explosión es nuclear en su origen; sus estaciones y laboratorios por todo el mundo monitorizan la presencia de partículas y/o gases nobles en la atmósfera.

Para más detalles, vea Recuento de las Pruebas Nucleares : un desglose numérico del número de pruebas nucleares atmosféricas y subterráneas llevadas a cabo por cada país las pruebas para cada año a partir de 1945-2006.

Ensayos nucleares desde 1945 a 2009

El comienzo de la era nuclear

Estados Unidos inauguró la Era Nuclear en las horas anteriores al amanecer del 16 de julio de 1945 cuando detonó una bomba atómica de 20 kilotones con el nombre en clave «Trinity» en Alamogordo, Nuevo México.

Bajo el paraguas del «Proyecto Manhattan», el propósito original del ensayo ha sido confirmar que era viable un diseño de un arma nuclear del tipo implosión. También dio a los científicos y militares de Estados Unidos una idea del tamaño y efectos reales que dichas explosiones nucleares tendrían antes de usarlas en combate.

Mientras que el ensayo de Alamogordo demostró muchos de los efectos de la explosión, no consiguió en cambio aportar una comprensión con sentido de la lluvia nuclear radioactiva, que no fue bien entendida por científicos del proyecto hasta años más tarde.

Estados Unidos dejó caer dos bombas atómicas en Japón a finales de la Segunda Guerra Mundial: una fue una bomba de fisión con mecanismo de disparo no probada llamada «Little Boy», sobre Hiroshima el 6 de agosto de 1945; otra fue una bomba de tipo implosión probada en Alamogordo por primera vez un mes antes y denominada «Fat Man», sobre Nagasaki el 9 de agosto. Estas dos bombas juntas mataron unos 220.000 ciudadanos japoneses en el acto y más de 200.000 que murieron como consecuencia de la sobredosis letal de radiación.

Desde la «guerra caliente» a la Guerra Fría

El primer ensayo nuclear de la URSS «Joe 1» en Semipalatinsk, Kazajistán, 29 de agosto de 1949. Foto: TPCEN.

El primer ensayo nuclear de la URSS «Joe 1» en Semipalatinsk, Kazajistán, 29 de agosto de 1949. Foto: TPCEN.

En cuanto la Segunda Guerra Mundial llegó a su fin en agosto de 1945, se inició una carrera total técnico industrial de armas nucleares entre las dos superpotencias que habían emergido recientemente, los Estados Unidos y la Unión Soviética. Entre 1946 y 1949, Estados Unidos realizó seis ensayos adicionales. Después, el 29 de agosto de 1949, la Unión Soviética ensayó su primera bomba atómica, «Joe 1». Este ensayo marcó el principio de la carrera de armas nucleares, «Guerra Fría», entre las dos superpotencias.

Con el primer ensayo de bomba atómica de la Unión Soviética el 29 de agosto de 1949, la carrera de armas nucleares «guerra fría» entre la URSS y Estados Unidos había comenzado..

Al principio, ni los Estados Unidos ni la Unión Soviética tenían suficientes armas nucleares que desperdiciar así que sus ensayos nucleares fueron relativamente limitados. Sin embargo, en los años cincuenta Estados Unidos estableció un sitio de ensayos exclusivo (Sitio de Ensayos de Nevada) y también uso un sitio en las islas Marshall (área de ensayos del Pacíficos) para realizar amplios ensayos nucleares. La Unión Soviética también comenzó a realizar pruebas en una escala limitada, fundamentalmente en Semipalatinsk en la República Soviética de Kazajistán. Los primeros ensayos fueron usados fundamentalmente para averiguar los efectos militares de las armas nucleares y para probar nuevos diseños de armas.

Unas tensiones exacerbadas y una atmósfera omnipresente de miedo y sospecha actuaron como catalizador para construir bombas más potentes y sofisticadas. Durante los años cincuenta se probaron nuevos diseños de bombas de hidrógeno en el Pacífico, ya que eran nuevos y mejorados diseños de armas de fisión.

En 1954, el Primer Ministro de la India Jawaharlal Nehru se convirtió en el primer hombre de estado que hizo una llamada para «permanecer quietos» y no realizar ensayos nucleares.

 La prueba Bravo produjo el peor desastre radiológico de la historia de ensayos de Estados Unidos. Atolón Bikini, islas Marshall, 1 de marzo de 1954. Foto: TPCEN.

La prueba Bravo produjo el peor desastre radiológico de la historia de ensayos de Estados Unidos. Atolón Bikini, islas Marshall, 1 de marzo de 1954. Foto: TPCEN.

El Reino Unido se convirtió en el tercer país en probar armas nucleares el 3 de octubre de 1952. Inicialmente, el Reino Unido probó principalmente en Australia y más tarde en los Estados Unidos. Desde 1958 en adelante su programa fue coordinado estrechamente con el de los Estados Unidos a través del Acuerdo de Defensa Mutua entre el Reino Unido y los Estados Unidos.

La primera bomba de hidrógeno

El 1° de noviembre de 1952 los Estados Unidos se convirtieron en el primer país en probar la bomba de hidrógeno. El ensayo Castle Bravo del 1 de marzo de 1954 liberó 15 megatones y fue el arma nuclear más grande que jamás había detonado Estados Unidos. Por accidente, los atolones habitados de Rongelap, Rongerik y Utirik estaban contaminados con lluvia radioactiva como lo fue el pesquero de arrastre japonés Lucky Dragon. La controversia sobre la lluvia radioactiva de las actividades de los ensayos causó una gran preocupación internacional.

El 2 de abril de 1954, el Primer Ministro de la India Jawaharlal Nehru se convirtió en el primer hombre de estado que hizo una llamada para «permanecer quietos» y no realizar ensayos nucleares. No obstante, esto hizo poco para detener los amplios ensayos nucleares que caracterizaron los siguientes 35 años y que no remitieron hasta el final de la Guerra Fría a finales de los años noventa.

Desde 1955 hasta 1989, el número medio de ensayos nucleares realizados cada año fue 55. Los ensayos nucleares tuvieron su apogeo a finales de los cincuenta y principios de los sesenta. Sólo en el año 1962 se realizaron hasta 178 ensayos: 96 realizados por los Estados Unidos y 79 por la Unión Soviética. Este fue el año de la Crisis de los Misiles de Cuba cuando la Guerra Fría amenazó con convertirse en una guerra nuclear. El año anterior había visto los ensayos del arma nuclear más grande que hubiera explotado jamás, La “Tsar Bomba” de la Unión Soviética con un resultado de 50 megatones. Fue probada en el sitio de ensayos Novaya Zemlya cerca del Círculo Ártico.

Francia y China se convirtieron en Estados de armas nucleares en 1960 y 1964 respectivamente, con ambos programas nucleares concebidos para proporcionar unas armas nucleares disuasorias creíbles. Francia probó inicialmente en Argelia y posteriormente en el Pacífico Sur. China realizó todos sus ensayos nucleares en Lop Nur en la Provincia de Xinjiang.

El tratado de prohibición parcial de los ensayos de 1963 prohibió los ensayos, incluyendo aquellos que tenían fines pacíficos, en la atmósfera, bajo el agua y en el espacio…pero no prohibió los subterráneos.

A principios de los años sesenta se vio la introducción del único esfuerzo de limitación de los ensayos que tuvo efectos concretos sobre cómo se realizaban los ensayos durante la Guerra Fría. El tratado de prohibición parcial de los ensayos de 1963 prohibió los ensayos militares y para fines pacíficos, en la atmósfera, bajo el agua y en el espacio. El Tratado fue importante desde un punto de vista medioambiental, haciendo decaer la lluvia radioactiva que estaba estrechamente asociada con los ensayos atmosféricos, pero hizo poco para impedir los ensayos nucleares en su conjunto, que en su mayor parte pasaron a ser subterráneos.

Crecientes arsenales nucleares

Los arsenales nucleares del mundo se inflaron durante la Guerra Fría, de un número ligeramente superior a las 3.000 armas en 1955 a más de 37.000 armas en 1965 (Estados Unidos 31.000 y la Unión Soviética 6000), a 47.000 en 1975 (Estados Unidos 27.000 y la Unión Soviética 20.000) y más de 60.000 a finales de los años ochenta (Estados Unidos 23.000 y la Unión Soviética 39.000).

Según la Iniciativa de la Amenaza Nuclear, Israel inició un programa nuclear en los años cincuenta y había completado la fase de I+D de su programa de armas nucleares en 1986, aunque no ha probado dicha arma, según el conocimiento público. Israel ha adoptado una llamada «política de ambigüedad nuclear», ni confirmando ni negando su estado nuclear. No forma parte del Tratado de No Proliferación de 1968, y ha firmado pero no ratificado el TPCEN.

Oficialmente, la India se convirtió en la sexta nación en desarrollar armas nucleares, realizando un ensayo nuclear, declarado como explosión nuclear pacífica, en mayo de 1974.

En 1982, otra nación más, Sudáfrica, adquirió armas nucleares, según el Centro sobre Estudios de No Proliferación del Instituto de Monterrey. Según el conocimiento público, Sudáfrica no realizó ningún ensayo nuclear. Menos de diez años más tarde, con la transición anticipada a un gobierno de elección por mayoría, Sudáfrica desmanteló todas sus armas nucleares, la única nación hasta la fecha que renunció voluntariamente a las armas nucleares bajo su completo control. La desmantelación se completó en 1991. El mismo año, Sudáfrica accedió al Tratado de No Proliferación de 1968 como Estado sin armas nucleares. Votó abrumadoramente para acabar con el apartheid el 18 de marzo de 1992.

Los ensayos nucleares subterráneos fueron prohibidos por el Tratado de Prohibición Completa de los Ensayos Nucleares de 1996, que prohíbe todas las explosiones nucleares en la Tierra.

El mundo no fue testigo de ninguna disminución significativa de las actividades de ensayos nucleares y de la adquisición de armas nucleares entre los Estados con armas nucleares hasta principios de los años noventa. El número total de ensayos nucleares en la segunda mitad de los años ochenta llegó a ser 174.

Pero las relaciones más calidas entre la Unión Soviética y los Estados Unidos desde mediados de los ochenta prepararon el camino, como también lo hizo la caída del Muro de Berlín en 1989 y la disolución de la Unión Soviética en 1991, que fue sustituida por la Federación Rusa. Bielorrusia, Kazajistán y Ucrania que junto con Rusia han albergado el arsenal nuclear soviético, se convirtieron en Estados de armas no nucleares según el Tratado de No Proliferación. El sitio de ensayos principal de la URRS, Semipalatinsl en Kazajistán, fue cerrado en 1991.

Moratoria sobre las pruebas nucleares

En 1990, la Unión Soviética propuso una moratoria sobre los ensayos nucleares que fue acordada por el Reino Unido y los Estados Unidos. Esto generó una oportunidad de avanzar pata los abogados que, durante decenios, ha promovido una prohibición completa de todos los ensayos nucleares.

Entre 1998 y 2007 se realizaron unos cinco ensayos nucleares: dos por India y dos por Pakistán en 1998 y uno declarado por la República Popular Democrática de Corea en 2006.

El último ensayo nuclear de la Unión Soviética tuvo lugar el 24 de octubre de 1990; el del Reino Unido el 26 de noviembre de 1991 y el de los Estados Unidos el 23 de septiembre de 1992. Francia y China realizaron sus últimos ensayos en enero y julio de 1996 respectivamente, antes de firmar el Tratado de Prohibición Completa de Ensayos Nucleares el día que se habilitó para firmar, 24 de septiembre de 1996, junto con los otros tres Estados de armas nucleares y 66 otros países. Francia cerró y desmanteló todos sus sitios de ensayos nucleares en los años noventa; es el único Estado de armas nucleares que lo ha hecho hasta la fecha.

Tratado de prohibición completa de los ensayos nucleares (TPCEN)

El Tratado

El Día contra los Ensayos Nucleares gira entorno al Tratado que promueve su total prohibición a nivel mundial, sean terrestres, subterráneos, subacuáticos o atmosféricos. El Tratado también tiene por objetivo obstaculizar el desarrollo de armas nucleares, ya que tanto el desarrollo inicial como la mejora sustancial (bomba H) requieren ensayos reales. El TPCEN hace casi imposible que los países que aún no tienen armas nucleares poder desarrollarlas, de la misma manera que impide que aquellos que poseen armas nucleares desarrollen armamento nuevo o más avanzado. También ayuda a prevenir los daños que causan a los seres humanos y al medio ambiente.

Historia

Desde 1945 hasta que el TPCEN se abrió a la firma en 1996, se realizaron más de 2000 ensayos nucleares: Estados Unidos, unos 1000; la Unión Soviética, aproximadamente 700; Francia, más de 200; y el Reino Unido y China, unos 45. Tres países han roto la moratoria de facto y han hecho pruebas con armas nucleares desde 1996, a saber: India y Pakistán en 1998, y la República Popular Democrática de Corea (RPDC) en 2006, 2009, 2013 y 2016. Durante la Guerra Fría, se intentó repetidas veces negociar la prohibición completa de las pruebas, pero hasta los años noventa no se hizo realidad el Tratado, cuyas negociaciones tuvieron lugar en Ginebra entre 1994 y 1996.

Un tratado sin efecto

Para que el Tratado entre vigor son necesarias las firmas y las ratificaciones de los 44 países listados específicamente en el documento, aquellos que poseían capacidad nuclear en el momento de las negociaciones finales del Tratado en 1996.

De esos 44, faltan ocho por firmar: China, la República Popular Democrática de Corea, Egipto, India, Irán, Israel, Pakistán y Estados Unidos. RDPC, India y Pakistán aún tienen que firmar el TPCEN. A fecha de 2017, 183 países han firmado de Tratado, de los cuales 166 también lo han ratificado.

La Organización del Tratado

Como el Tratado aún no está en vigor, la Organización se llama Comisión Prepatatoria para la Organización de la Prohibición Completa de Ensayos Nucleares, u OTPCEN. Se fundó en 1996, con aproximadamente 260 personas de la mayoría de los 182 Estados Miembros del TPCEN. Su máximo responsable es el Secretario Ejecutivo, Tibor Tóth (Hungría). Las tareas principales del TPCEN son la promoción del Tratado y la construcción del régimen de verificación para que esté operativo cuando el Tratado entre en vigor. El presupuesto es aproximadamente de US$120,000,000 o €82,000,000.

Régimen de verificación

Es un sistema único y completo. En el corazón del régimen de verificación se encuentra el Sistema de Monitorización Internacional (IMS), que consta de 337 instalaciones repartidas por todo el mundo que monitorizan constantemente el planeta para buscar señales de explosiones nucleares. Aproximadamente el 80% de estas instalaciones ya envían datos al Centro Internacional de Datos de la sede principal del TPCEN de Viena. El IMS usa las siguientes cuatro tecnologías innovadoras:

  • Sísmica: Cincuenta estaciones sísmicas primarias y 120 auxiliares monitorizan las ondas de choque en la Tierra. La amplia mayoría de estas ondas de choque, muchos millares cada año, son causadas por terremotos. Pero también se detectan las explosiones causadas por el hombre tales como las explosiones mineras o los ensayos nucleares anunciados por la RPDC en 2006.
  • Hidroacústica: Once estaciones hidrófonas «escuchan» las ondas sonoras de los océanos. Las ondas de sonido de las explosiones pueden viajar muy lejos bajo el agua.
  • Infrasonidos: Sesenta estaciones sobre la superficie pueden detectar ondas de sonido de frecuencias ultrabajas (inaudibles para el oído humano) que son emitidas por grandes explosiones.
  • Radionucleidos: Ochenta estaciones miden la atmósfera para detectar partículas radioactivas, 40 de ellas también capturan los gases nobles. Solamente estas medidas pueden dar una clara indicación sobre si una explosión detectada por los otros métodos era realmente nuclear o no. Tienen el respaldo de 16 laboratorios radionucleidos.

Inspección en el sitio

Si los datos de las estaciones IMS indican que ha tenido lugar un ensayo nuclear, un Estado Miembro puede solicitar que se lleve a cabo una inspección in-situ para reunir evidencias que permitan hacer la evaluación final sobre si una explosión nuclear, una violación del Tratado, ha tenido lugar en realidad. Esto sólo será posible después de que el TPCEN haya entrado en vigor. Se realizó un gran ejercicio de inspección in-situ en septiembre de 2008 en Kazajistán.

Aplicaciones civiles y científicas

Los datos de IMS son facilitados a los Estados Miembros del TPCEN y a otras organizaciones internacionales. También se usan para aplicaciones distintas a la verificación de la prohibición de ensayos, tal como los avisos de tsunamis (probando los datos oportunamente), investigación en el núcleo de la Tierra, monitorización de terremotos y volcanes: investigación en los océanos, investigación de los cambios de clima y muchas otras aplicaciones.

Manifestaciones cutáneas de la resistencia a la insulina

Autor: González-Saldivar G, Rodríguez-Gutiérrez R . Ocampo-Candiani J . Dermatol Ther (Heidelb) (2017) 7:37–51
Resumen

  • Unos 382 millones de personas viven con diabetes y el 40–50% de la población mundial es considerada de ‘‘alto riesgo’’ (prediabetes). Estas dos entidades no solo causan aumento de la morbimortalidad, sino que también impactan por su costo, la carga de enfermedad y la disminución de la calidad de vida relacionada con la salud.
  • El 70–80% de los pacientes con obesidad y prácticamente todos los pacientes  con diabetes tipo 2 tienen resistencia a la insulina. Esta aparece años antes del diagnóstico de la enfermedad.
  • El método de referencia para el diagnóstico de la resistencia a la insulina es el pinzamiento euglucémico, pero este es costoso, complejo e invasivo. Las pruebas de laboratorio y los índices derivados de ellas (HOMA-IR-)] son pruebas indirectas y poco exactas. En cambio, las manifestaciones cutáneas de la resistencia a la insulina (acrocordones, acantosis pigmentaria, alopecia androgénica, acné, hirsutismo) son una manera fiable y directa de detectar la resistencia a la insulina. El diagnóstico de estas manifestaciones cutáneas puede impactar positivamente sobre la salud del paciente al generar su evaluación metabólica y su tratamiento oportuno.

INTRODUCCIÓN

Durante las últimas décadas la epidemia de obesidad y diabetes tipo 2 (DT2) aumentó tanto que se ha convertido en una de los desafíos para la salud más importantes en todo el mundo debido a la morbimortalidad y la disminución de la calidad de vida relacionada con esta epidemia. A pesar de todos los esfuerzos preventivos la frecuencia de estas dos entidades continúa creciendo exponencialmente. Un estudio proyectó que para 2050 hasta un tercio de la población de los EE. UU y probablemente también de la población mundial padecerá DT2.

La respuesta biológica subnormal de los tejidos a concentraciones normales de insulina se denomina resistencia a la insulina (es decir, el cuerpo produce insulina, habitualmente en concentraciones mayores que en sujetos normales, pero no la emplea eficazmente).

Este es uno de los factores fisiopatológicos clave de la DT2 y suele aparecer años antes del diagnóstico clínico de diabetes. Se sugirió que la resistencia a la insulina se produce por el exceso de tejido adiposo (obesidad), que tiene efectos bioquímicos debidos a la secreción de múltiples citocinas [MCP-1, TNF-a, IL-6, IL-18, leptina, resistina, e inhibidor del activador de plasminógeno (PAI)-1, entre otros], que se traducen clínicamente como síndrome metabólico.

El pinzamiento euglucémico es una técnica compleja que se considera el método de referencia para el diagnóstico de resistencia a la insulina.

Dada la complejidad inherente de esta prueba, su costo y la falta de implementación en la práctica médica habitual, hay varias pruebas indirectas para evaluar la resistencia a la insulina, entre ellas: el aumento de la glucemia en ayunas, la relación triglicéridos/ lipoproteínas de alta densidad y la concentración de insulina en ayunas. A fin de evaluar la resistencia a la insulina, estas mediciones se emplearon para crear índices como el modelo homeostático de evaluación de la resistencia a la insulina (HOMA-IR, por las siglas del inglés) y el índice de verificación cuantitativa de sensibilidad a la insulina (QUICKI).

No obstante, ninguna de estas pruebas es suficientemente fiable y por lo tanto no se recomiendan. La observación de las manifestaciones cutáneas de resistencia a la insulina, en cambio, es fiable y coincide con los resultados de la prueba de pinzamiento euglucémico.

Además, tiene ciertas ventajas importantes: se observan durante el examen físico, no son invasivas, no llevan tiempo, no son molestas ni significan aumento de los costos. Este artículo intenta ayudar a los médicos generalistas, los médicos de familia y los dermatólogos a reconocer las manifestaciones cutáneas de la resistencia a la insulina. Esto puede poner de manifiesto qué pacientes están en riesgo de sufrir DT2, generando la evaluación adecuada y, de ser necesario el tratamiento oportuno. Se podría así contribuir a evitar la carga de diabetes/síndrome metabólico y aumentar la calidad de la atención para estos pacientes

► La resistencia a la insulina y su asociación con manifestaciones cutáneas

La resistencia a la insulina se define como la disminución de la respuesta de una célula o un órgano a la concentración de insulina a la que está expuesto

La insulina es una hormona peptídica sintetizada y segregada por las células beta del páncreas. La glucosa es el principal regulador de la secreción de insulina; a medida que la concentración de glucosa aumenta, estimula la secreción de insulina. Algunos de los efectos glucorreguladores de la insulina son la inhibición de la glucogenólisis y la gluconeogénesis, el aumento de transporte de la glucosa al tejido adiposo y al músculo, la estimulación de la síntesis de glucógeno, así como su importancia central en el metabolismo de lípidos y proteínas.

Como ya se mencionó, la resistencia a la insulina se define como la disminución de la respuesta de una célula o un órgano a la concentración de insulina a la que está expuesto: en la práctica, se refiere al estado en el que la secreción de insulina se asocia con una respuesta anormal de la glucosa (por ejemplo, intolerancia a la glucosa o diabetes).

Existen cuatro tipos de la resistencia a la insulina: tipos A, B, C y causas secundarias.

  1. Tipo A: se asocia con disfunción o disminución de la cantidad de receptores de insulina.
  2. Tipo B: se refiere a anticuerpos contra los receptores de insulina (por ejemplo, leprechaunismo con mutaciones del receptor de insulina).
  3. Tipo C: se caracteriza por defectos en los posrreceptores (lipodistrofias).
  4. Tipo secundario: la gran mayoría de los pacientes, sin embargo, tienen resistencia a la insulina secundaria (por ej, intolerancia a la glucosa, diabetes, obesidad, estrés, infección, uremia, acromegalia, exceso de glucocorticoides y embarazo).

Alrededor del 50% de los pacientes con resistencia a la insulina, a pesar de la hiperinsulinemia compensatoria, tienen cierto grado de hiperglucemia ([100 mg/dl). Sin embargo, no todos los pacientes con hiperinsulinemia y resistencia a la insulina tendrán intolerancia a la glucosa o diabetes. Es importante reconocer que prácticamente todo paciente con DT2 tendrá resistencia a la insulina años -o por lo menos meses- antes del diagnóstico de diabetes. La resistencia a la insulina se puede presentar con un amplio espectro de manifestaciones, tales como:

  • Acantosis pigmentaria
  • Papilomas cutáneos
  • Hirsutismo, (hiperandrogenismo ovárico)
  • Alopecia androgénica.

Esta asociación se produce porque la hiperinsulinemia activa directa e indirectamente los receptores del factor 1 de crecimiento insulínico (IGF-1) ubicado en los fibroblastos y los queratinocitos, estimulando su proliferación.

La hiperinsulinemia también puede influir sobre la producción de esteroides sexuales. Asimismo, la insulina y el IGF-1 aumentan los andrógenos ováricos. Es importante mencionar que enfermedades de la piel como:

  • Psoriasis
  • Hidradenitis supurativa
  • Vitiligo

Se han asociado fuertemente con resistencia a la insulina y síndrome metabólico.

► Importancia de la obesidad y la DT2

La prevalencia de obesidad y la DT2 continúa en aumento a pesar de numerosos esfuerzos y ambas parecen imparables. En 2014, más de 1900 millones de adultos tenían sobrepeso y más de 600 millones eran obesos. Al mismo tiempo, más de 380 millones de personas en el mundo padecen diabetes y el 35–50% de la población mundial (>3000 millones) tiene gran riesgo de padecerla—la llamada prediabetes, que en todos los casos se acompaña de resistencia a la insulina.

El impacto de estas dos entidades no es solo por la carga de enfermedad, sino más por el aumento del riesgo cardiovascular, los trastornos musculoesqueléticos, el costo, la mortalidad, la carga del tratamiento y la disminución de la calidad de vida asociados. Ambas entidades sufren la influencia de factores genéticos, epigenéticos y ambientales. Entre estos últimos están el sedentarismo, las comidas poco saludables y el bajo nivel socioeconómico, entre otros.

La obesidad se considera la enfermedad concomitante y el factor de riesgo más frecuente para la diabetes, ya que el 80% de los pacientes con diabetes tienen sobrepeso o son obesos. El 70–80% de los pacientes con obesidad tendrán resistencia a la insulina. La obesidad y la DT2 se asocian con una cantidad considerable de dermatosis, entre ellas acantosis pigmentaria, acrocordones, hirsutismo y queratosis pilaris.

Alrededor de un tercio de los pacientes con diabetes tendrán algún tipo de manifestación cutánea durante el curso de su enfermedad. Un estudio reciente publicó que el 91% de los pacientes con diabetes tienen por lo menos una manifestación dermatológica. De ahí que todos estos trastornos cutáneos deben alertar a los médicos para estudiar las características metabólicas de estas personas, lo que puede generar un rápido diagnóstico.


► Manifestaciones cutáneas de resistencia a la insulina

♦ Acrocordones

Los acrocordones, también llamados pólipos fibroepiteliales, papilomas cutáneos o fibromas blandos, son uno de los tumores cutáneos más frecuentes. Son benignos, raros antes de los 30 años, pero muy comunes después, especialmente en la ancianidad. Son más frecuentes entre las mujeres y en los pacientes con sobrepeso u obesidad, aunque también tienen una relación familiar/genética. Recientemente, varios estudios asociaron los acrocordones con la intolerancia a la glucosa y la diabetes.

En 1976, Margolis et al, efectuaron uno de los primeros estudios y publicaron que el 9,4% de 500 pacientes hospitalizados tenían acrocordones y de ellos, el 72% padecían DT2 y sugirió que los acrocordones podrían ser un factor de riesgo para la diabetes. A fines de la década de 1980, Norris et a, informaron una relación entre los papilomas cutáneos y la resistencia a la insulina (el 61% de la población que estudiaron tenía hiperinsulinemia). Sin embargo, sólo el 15% tenía también aumento de la glucemia en ayunas. El estudio de Kahana et al, revelaron que el 34% de los pacientes con acrocordones padecía DT2.

La insulina es una hormona promotora del crecimiento. La hiperinsulinemia se ha vinculado directamente con el IFG-1 y la disminución de la proteína 3 de unión al factor de crecimiento tipo insulina (IGFBP-3). El IGF-1 se une a los receptores de los queratocitos, desencadenando la hiperplasia epidérmica, y la reducción de la IGFBP-3 puede disminuir la transcripción de los genes antiproliferativos activados normalmente. Estas perturbaciones endócrinas alteran la proliferación celular y a la larga se hacen evidentes como papilomas cutáneos.

Estas lesiones son tumores pequeños, blandos, levemente hiperpigmentados de tamaño variable y característicamente pediculados (véase Fig. 1). Los acrocordones con frecuencia son múltiples, pero pueden parecer una lesión única. Aparecen con más frecuencia en las zonas intertriginosas, como cuello, axilas e ingles, aunque también se las puede hallar en párpados y pliegues inframamarios. Estas lesiones cutáneas son totalmente asintomáticas, pero pueden ser dolorosas cuando se irritan. El diagnóstico diferencial es con los nevus melanocíticos, los neurofibromas y la queratosis seborreica pediculada.


Figura 1. A. Presentación típica de acrocordones mostrando múltiples tumores pequeños pedunculados. B. Acrocordón gigante, blando y pedunculado. Elaborado sobre el contenido del artículo de González-Saldivar.

Las enfermedades con las que se asocian son el síndrome de Gardner, el síndrome de Birt-Hogg-Dube y la esclerosis tuberosa, entre otras. El diagnóstico es clínico; si bien puede haber casos atípicos en los que la extirpación quirúrgica y la histopatología confirmarán el diagnóstico. El tratamiento es más una preocupación estética que médica. Los métodos más empleados son la electrocirugía y la crioterapia, aunque el problema con esta última es la dificultad para limitar la zona a congelar exclusivamente a la lesión. Lo más sencillo es extirpar el papiloma con una tijera afilada de buena calidad.

♦ Acantosis pigmentaria (o nigricans).

La acantosis pigmentaria (AP) se caracteriza por placas simétricas, aterciopeladas, hiperpigmentadas, especialmente en las zonas intertriginosas: cuello, axilas y codos, (véase Fig. 2, aunque también pueden estar en otros sitios.


Figura 2. Acantosis nigricans. Elaborado sobre el contenido del artículo de González-Saldivar.

Habitualmente se relaciona con trastornos asociados con resistencia a la insulina (por ej DT2 y obesidad). En casos raros puede aparecer como signo de un tumor maligno (por ej, adenocarcinomas agresivos del tubo digestivo). La AP se clasifica según su etiología en ocho tipos: benigno, asociado con la obesidad, sindrómico, maligno, distal, unilateral, inducido por fármacos y mixto.

El ácido nicotínico es el medicamento que causa AP con mayor frecuencia, aunque no el único

La AP asociada con la obesidad, también llamada ‘‘pseudo-AP’’, es la causa más frecuente de AP y es una expresión de resistencia a la insulina. La AP sindrómica comprende los síndromes de resistencia a la insulina tipo A y B (por ej síndrome de Berardinelli-Seip, síndrome de Lawrence), síndrome de Crouzon y otros numerosos trastornos sindrómicos raros. La AP maligna se asocia con adenocarcinomas del tubo digestivo; es grave, abrupta, exuberante y afecta las membranas mucosas.

El ácido nicotínico es el medicamento que causa AP con mayor frecuencia, aunque no el único. En estos casos la AP desaparece espontáneamente en 4–11 meses después de suspender la medicación. Los datos sobre la verdadera frecuencia de la AP son contradictorios, ya que varía mucho según la edad, la etnia, el fototipo cutáneo y las características antropométricas. Un estudio con 675 adolescentes halló una prevalencia de AP del 18,9%.

La prevalencia de AP fue mayor en estudiantes obesos que en aquellos con IMC normal (49,2% vs. 7,7%) [6]. Un estudio con 703 estudiantes latinos halló una prevalencia de AP del 47,8%. Además, se encontró AP en alrededor del 50% de los pacientes con síndrome de Down, que también son proclives a la obesidad, el síndrome metabólico y la diabetes. La patogenia es similar a la de los acrocordones y se produce por estimulación del factor de crecimiento de los queratinocitos y los fibroblastos en la dermis.

La familia del receptor de tirosina cinasa comprende la insulina, el IGF, el factor de crecimiento epidérmico y los receptores del factor de crecimiento de los fibroblastos, entre otros. El aumento de la concentración de insulina se traduce en la proliferación de queratinocitos y fibroblastos debido a la estimulación de los receptores del IGF-1.

Además de los lugares anteriormente mencionados un estudio de los autores de este artículo reveló que la ubicación más frecuente de AP, incluso en sujetos con IMC normal fue en los nudillos. Los cambios histopatológicos son sutiles y consisten en hiperqueratosis, acantosis y papilomatosis leve. El color amarronado de esta dermatosis se debe al engrosamiento del estrato córneo. El primer paso en la evaluación de la AP es determinar su etiología.

La información importante comprende:

  • la edad
  • el momento de inicio
  • la evolución
  • las mediciones antropométricas
  • los antecedentes familiares del síndrome metabólico
  • las medicaciones y los datos relacionados con el síndrome diabético (por ej , poliuria, polidipsia, polifagia, adelgazamiento)
  • síntomas sugestivos de tumor maligno

En todos los pacientes con sobrepeso u obesidad se recomienda la pesquisa de hiperglucemia en ayunas y pruebas de función hepática.

Para la mayoría de los casos (AP inducida por obesidad), se debe recomendar descenso de peso y ejercicio como tratamiento de primera línea. Otros autores comunicaron el empleo de retinoides orales o tópicos (que probablemente regulen la proliferación y la diferenciación de los queratinocitos) como tratamientos eficaces. También se emplean tratamientos locales con acitretina, lactato de amonio, ácido láctico, exfoliación con ácido tricloroacético, con respuesta variable.

♦ Alopecia androgénica

La alopecia androgénica (AAG) es el subtipo más frecuente de alopecia no cicatrizal. La AAG es un rasgo físico hereditario andrógenodependiente, producido por la conversión de los pelos terminales del cuero cabelludo en vellos diminutos con un patrón característico. Afecta a hombres y mujeres en las mismas proporciones y habitualmente aparece al término de la adolescencia. Al llegar a los 30 años casi un tercio de los hombres tendrán AAG. Esta proporción aumenta con la edad (alrededor del 50% a los 50 años).

El riesgo de tener AAG depende de varios factores, entre ellos los antecedentes familiares y factores genéticos. Otros factores relacionados son el tabaquismo, la hiperplasia prostática benigna y el cáncer de próstata. Paradójicamente, uno de los factores más frecuentes fue mencionado recién hace poco tiempo—el síndrome metabólico (es decir, la resistencia a la insulina). Recientemente, Nabaie et al, comunicaron una relación no significativa entre la alopecia androgénica y la resistencia a la insulina en un estudio de casos y controles; sin embargo otros argumentaron que la alopecia androgénica temprana es un marcador de resistencia a la insulina.

La dihidrotestosterona (DHT) es el andrógeno implicado en la patogénesis de la AAG. La testosterona se metaboliza en muchos tejidos de la piel; penetra en la membrana celular y es convertida por la 5-alfa reductasa del citoplasma en su forma más potente: la DHT. La 5-alfa reductasa tiene dos isotipos. El tipo II domina en la vaina externa de los folículos pilosos del cuero cabelludo, la barba y el tórax. La DHT se une a los receptores del andrógeno y es transferida al núcleo, donde estimula la  transcripción de genes. Esta activación es clave, ya que es la responsable de la transformación gradual de los folículos terminales en pelos vellosos más pequeños.

En un estudio de casos y controles en hombres jóvenes con AAG y sin ella, González-González et al, evaluaron diferentes mediciones de resistencia a la insulina en esta población. El índice HOMA-IR y la testosterona libres fueron significativamente más altos en los casos que en los controles. Bakry et al, estudiaron a 100 varones con AAG y sugirieron que a los pacientes en etapa III o mayor se los debería evaluar para síndrome metabólico y resistencia a la insulina. Una revisión sistemática más reciente, que incluyó 31 estudios y 50956 personas (29254 con AAG), reveló que estos pacientes tenían aumento del riesgo de enfermedad coronaria, hipertensión, resistencia a la insulina y dislipidemia. La calvicie en los hombres con AAG suele comenzar con retroceso bitemporal del nacimiento del pelo, así como adelgazamiento difuso del pelo en la coronilla (véase Fig. 3).


Figura 3. Alopecía. Elaborado sobre el contenido del artículo de González-Saldivar.

Más tarde, la pérdida total del pelo centralmente en la coronilla produce un parche de calvicie que se expande gradualmente, uniéndose al retroceso del nacimiento del pelo. La pérdida del pelo habitualmente comienza después de la pubertad. Este tipo de alopecia suele ser progresivo, simétrico y asintomático. En las mujeres la AAG típicamente comienza con la disminución difusa de la densidad capilar sobre las zonas frontal y central, aunque las zonas parietal y occipital también pueden estar afectadas (véase Fig. 3).

La anamnesis debe incluir la edad, el sexo, la existencia de tabaquismo, la evolución de la pérdida de pelo, los antecedentes familiares, los síntomas asociados, los tratamientos previos y el empleo de medicamentos (por ejemplo esteroides anabólicos). En las mujeres se debe efectuar una anamnesis ginecológica detallada que incluya menarca, ciclo menstrual, amenorrea, menopausia, empleo de tratamiento hormonal, trastornos de la fecundidad y signos de hiperandrogenismo.

El examen dermatológico debe incluir, además del cuero cabelludo, la distribución capilar en el cuerpo, piel y uñas. El cuero cabelludo suele ser normal, pero es común hallar dermatitis seborreica. En pacientes con AAG el examen físico total es especialmente importante, ya que está muy asociado con otras enfermedades, como la enfermedad coronaria y el síndrome metabólico.

La prueba de pilotracción se debe efectuar siempre en las zonas parietal derecha e izquierda, frontal y occipital, así como en la zonas afectadas. Esta prueba solo es positiva en sujetos en la fase activa de la AAG. Según el contexto, se puede considerar la medición de la tirotropina, el hierro y los andrógenos, a fin de descartar otras causas de. La dermatoscopia es útil para el diagnóstico de AAG. El signo dermatoscópico clásico es la diferencia mayor del 20% del diámetro del pelo (anisotricosis) con los pelos vellosos (véase Fig. 4).


Figura 4. Anisotricosis. Elaborado sobre el contenido del artículo de González-Saldivar.

Un halo marronáceo, hundido, en las aberturas foliculares también es frecuente (signo peripilar). Cuando el diagnóstico no es evidente, se deben tomar dos biopsias en sacabocados no menores de 4 mm de diámetro, siempre siguiendo la dirección de la vaina del pelo y profundas dentro de la grasa subcutánea, donde normalmente están los bulbos pilosos en fase anágena.

El lugar preferido para la biopsia es el cuero cabelludo central. La biopsia nunca se debe tomar de la zona bitemporal, ya que pueden existir pelos en miniatura independientemente de la AAG. La histopatología muestra el reemplazo de los pelos terminales por vellos secundarios, así como el aumento de la proporción de pelos telógenos sobre los anágenos.

Las recomendaciones generales para el tratamiento de la AAG son la alimentación adecuada, evitar los productos para el cuidado del pelo que podrían empeorar el proceso, suspender los medicamentos que podrían afectar negativamente el crecimiento del pelo (por ej. retinoides, citotóxicos, anticoagulantes) y tratar toda enfermedad de base local o sistémica (por ej. hipotiroidismo, anemia, dermatitis seborreica, psoriasis).

El tratamiento médico es con finasteride o dutasteride por vía oral y minoxidil tópico al 2% y al 5%, que se debe emplear por lo menos durante un año antes de descartar su eficacia. Las operaciones de recuperación del pelo son el trasplante capilar, la cirugía de reducción del cuero cabelludo o una combinación de ambas. La AAG produce estrés psicológico moderado en la mayoría de los hombres y para algunos significa disminución de su calidad de vida.

► Hirsutismo, acné e irregularidades menstruales

El síndrome de ovario poliquístico (SOPQ) es una entidad metabólica y reproductiva que aumenta el riesgo de sufrir DT2 y esterilidad. Además de obesidad, las mujeres con SOPQ tienen resistencia a la insulina. La frecuencia de la obesidad es del 25%-70% y contribuye a la resistencia a la insulina. El hiperandrogenismo es una de las características diagnósticas principales del SOPQ y se manifiesta clínicamente como hirsutismo, acné y AAG.

El hirsutismo en las mujeres es el exceso de pelo corporal terminal con distribución masculina, en el abdomen inferior , la línea alba, la zona periareolar, el mentón y el labio superior. Afecta al 5% – 10% de las mujeres premenopáusicas y la mayoría de los casos son secundarios al SOPQ. La actividad de la enzima 5-alfa reductasa está aumentada en los folículos pilosos y es estimulada por los andrógenos, el IGF y la insulina para convertir la testosterona a dihidrotestosterona, estimulando el crecimiento capilar.

Los diagnósticos  diferenciales incluyen, entre otros, la hipertricosis, medicamentos como los glucocorticoides o la ciclosporina, la hiperplasia suprarrenal congénita, el síndrome de Cushing, los tumores secretores de andrógenos y la disfunción tiroidea. El tratamiento comprende modificaciones de los hábitos de vida (hábitos alimentarios, ejercicio y descenso de peso) y tratamientos mecánicos y médicos. El empleo de blanqueadores, la afeitada, la depilación con cera y la depilación con láser son útiles, pero pueden ser dolorosos y caros.

El tratamiento médico comprende los anticonceptivos orales, los agonistas de la hormona liberadora de gonadotropina, los fármacos que sensibilizan a la insulina, como la metformina o los que tienen efectos antiandrogénicos, como el acetato de ciproterona, la eflornitina y la espironolactona.

El acné es otra característica de la resistencia a la insulina-hiperandrogenemia en el SPQO y coexiste en el 15–25% de las mujeres con SPQO. Las pacientes con acné con frecuencia tienen aumento de la glucemia y de la insulina, así como resistencia a la insulina.

En pacientes con acné vulgar, la desnutrina, también llamada lipasa adiposa de  triglicéridos, está baja y se relaciona con los valores de insulina y HOMA-IR.

El aspecto del acné es el de lesiones inflamatorias en la zona mandibular, el cuello, el pecho y la parte superior de la espalda. El tratamiento consiste en cambios de los hábitos de vida, como la nutrición y el ejercicio. Se demostró que un pequeño descenso de peso (2–5%) es beneficioso.

El tratamiento tópico es con retinoides y benzoil peróxido. Otros tratamientos son sistémicos, con anticonceptivos orales (acetato de ciproterona o drospirenona), espironolactona y antibióticos (minociclina, doxiciclina, azitromicina) y en determinados casos resistentes, isotretinoína.

Restablecer el reloj circadiano podría aumentar la salud metabólica

Autor: Bridget M. Kuehn Fuente: JAMA. Publicado en línea el 15 de marzo de 2017
Introducción
Considere lo que pasa en el juego de fútbol americano: si lanza la pelota demasiado pronto su receptor no estará en su lugar; si lanza el balón demasiado tarde corre el riesgo de ser expulsado. En cualquiera de los dos casos, el jugador no está en sincronía con su equipo para mover el balón hacia arriba del campo. Un escenario similar puede ocurrir cuando los hábitos alimenticios y de sueño están fuera de sincronía con el reloj circadiano del cuerpo, dando lugar a trastornos metabólicos.
Durante los últimos 20 años los científicos han reunido una imagen más clara de los relojes circadianos que mantienen la fisiología humana sintonizada en el ciclo de 24 horas luz-oscuridad. Ahora, la ciencia básica está dando paso a los estudios en humanos que revelan cómo los hábitos de sueño de una persona, los patrones de alimentación y la dieta pueden desincronizar los relojes del cuerpo y contribuir a los problemas metabólicos como la obesidad o la diabetes.
Los hallazgos han llevado a los científicos a buscar maneras de restablecer el reloj y restaurar un metabolismo saludable. Hasta el momento dos intervenciones conductuales resultaron prometedoras en los estudios en animales y preliminares en humanos.
1. Mejorar el sueño mejorado

2. El tiempo de restricción de la alimentación

“Estamos viendo comportamientos que afectan la hora circadiana del día y el sueño como comportamientos humanos que podemos alterar”, dijo Fred Turek, PhD, director del Centro de Sueño y Biología Circadiana en la Universidad Northwestern de Evanston, Illinois.

Manteniendo el tiempo

El núcleo supraquiasmático del cerebro (SCN) actúa como un marcapaso central para el sistema circadiano humano. Cuando la retina procesa longitudes de onda de luz emitidas típicamente por el sol, una serie de eventos de transducción de señales activan la expresión de genes circadianos dentro del SCN. En respuesta a estos cambios en la expresión génica impulsada por el ciclo luz-oscuridad, el SCN también estimula la liberación de la hormona cortisol que desencadena el despertar y la hormona melatonina, que señala cuando es hora de dormir. La expresión cíclica de los genes circadianos en el SCN regula la expresión de cientos, incluso miles, de genes en todo el cuerpo incluyendo muchos involucrados en el metabolismo.

Para los órganos internos, que no están expuestos a la luz del día, la ingesta de alimentos es un importante marcador de la hora del día

Más recientemente, los investigadores han descubierto que los órganos y tejidos periféricos tienen ritmos circadianos o “relojes” propios controlados por la expresión cíclica de los genes del reloj en sus células, explicó Eve Van Cauter, PhD, profesora de medicina en la Universidad de Chicago. Estas oscilaciones genéticas circadianas son particularmente importantes para los órganos involucrados en el metabolismo de la glucosa, el hígado, los músculos, el tejido graso, las células beta y el intestino. Para estos órganos internos, que no están expuestos a la luz del día, la ingesta de alimentos es un importante marcador de la hora del día.

“La sincronización de los alimentos (horarios de comida) sincroniza estos osciladores periféricos [circadianos]”, dijo Van Cauter. Cuando los alimentos se cronometran para coincidir con el ciclo luz-oscuridad -como habría sido evolutivamente- los relojes centrales del SCN y los relojes periféricos trabajan juntos para promover el metabolismo saludable. Pero si los relojes centrales o periféricos son alterados ​​-por ejemplo, comiendo fuera de las horas o habiendo alterado el sueño- puede causar desincronización entre ellos, lo que resulta en problemas metabólicos.

Aunque el descubrimiento de los relojes periféricos es bastante nuevo, el del metabolismo de la glucosa ligado a un ritmo circadiano e influenciado por la sincronización de los alimentos se realizó ya en los años 1970 y 1980 por los médicos que tratan la diabetes, señaló Satchidananda Panda, PhD, Laboratorio de Biología en el Instituto Salk en La Jolla, California. Explicó que algunos pacientes que respondieron mal a un test de tolerancia a la glucosa durante la noche no tenían signos de diabetes cuando se les administró el mismo test en la mañana. Incluso los individuos sanos, observó Panda, procesan el azúcar de las comidas nocturnas más lentamente de lo que procesan las comidas de la mañana aunque sean comparables.

“Esto demostró que hay un hermoso ritmo en el metabolismo de la glucosa”, dijo Panda.

Estudios que involucran animales, particularmente ratones, ayudaron a iluminar cómo las interrupciones de los relojes circadianos del cuerpo pueden conducir a la obesidad y a otras condiciones metabólicas. Un estudio seminal realizado en 2005 mostró que los ratones con mutaciones en un gen circadiano llamado Clock se convierten en obesos incluso cuando se alimentan con una dieta típica de ratones y desarrollan signos de síndrome metabólico, incluyendo colesterol alto, glucosa alta y producción insuficiente de insulina. También duermen alrededor de 2 horas menos y alteran los patrones de alimentación. Mientras que los ratones típicos comen principalmente durante sus horas activas por la noche, los ratones mutantes dividen su consumo de alimentos casi igual entre las horas de luz y las horas oscuras. El aumento de peso en los animales mutantes se exacerba cuando se alimentan con una dieta rica en grasas.

Otro estudio mostró que los ratones típicos alimentados con una dieta rica en grasas durante el día, cuando normalmente duermen, ganaban mucho más peso que los ratones alimentados con la misma dieta durante la noche durante sus horas normales de vigilia. Cuando los científicos observaron lo que estaba ocurriendo con los patrones circadianos de expresión génica en los ratones que comían a horas impares del día, encontraron que el SCN permanecía sincronizado al ciclo de 24 horas de día y noche, observó Turek. Pero los cambios en los comportamientos de sueño y alimentación rápidamente interrumpen y “enfrían” los ritmos circadianos de la expresión génica en los órganos periféricos a pesar de que los relojes centrales estén sintonizados. “Cuando los osciladores periféricos no están sincronizados con el oscilador central, el metabolismo trastornado produce aumento de peso y desarrollo de intolerancia a la glucosa”, explicó Van Cauter.

Los seres humanos fuera de sincronía

Los seres humanos no son inmunes al tipo de interrupciones del reloj documentado en ratones. Décadas de estudios epidemiológicos muestran que los trabajadores con turnos nocturnos u otros horarios fuera de sincronía con el ciclo de luz y oscuridad tienen un mayor riesgo de aumento de peso y diabetes. Las mutaciones genéticas en los genes del reloj humano se han asociado con la obesidad y la enfermedad metabólica. Por el contrario, una variación en el gen que codifica el receptor de melatonina se ha relacionado con un mayor riesgo de desarrollar diabetes tipo 2.

Incluso aquellos sin mutaciones genéticas u horarios inusuales pueden estar en riesgo de alteraciones del reloj. Gracias a la contaminación lumínica y al creciente uso nocturno de lámparas y dispositivos electrónicos que emiten las mismas longitudes de onda de luz que el sol, muchas personas, por lo demás sanas, pueden experimentar alteraciones del sueño o perturbaciones circadianas.

“Vivimos en una sociedad donde el sueño no se respeta”, dijo Van Cauter. Pero el sueño, los ritmos circadianos y el metabolismo constituyen una “tríada inseparable”, observó.

Se ha demostrado que el sueño insuficiente tiene un impacto nocivo en la tolerancia a la glucosa en muchas poblaciones, incluyendo adultos sanos, niños, pacientes hospitalizadosy en aquellos con diabetes, señaló. También se ha demostrado que reduce la tasa metabólica en reposo a un grado suficientemente grande que podría traducirse en una ganancia de peso de 5,700 kg en un solo año. La restricción del sueño también aumenta el hambre, señaló Van Cauter. Pero restaurar el sueño normal puede ayudar a revertir estos efectos nocivos. “El trabajo hasta ahora sugiere que estar privado de sueño y pretender perder peso son contradictorios”, dijo. “Para optimizar la pérdida de peso, es necesario dormir.” Una creciente apreciación de la importancia de la biología circadiana ha llevado a un impulso para comenzar a desarrollar intervenciones clínicas que aprovechan la biología circadiana para restaurar la salud metabólica.

En 2015, el Instituto Nacional de Diabetes y Enfermedades Digestivas y del Riñón (NIDDK) organizó un taller que reunió a los principales investigadores circadianos con investigadores metabólicos. La NIDDK también se han asociado con otros institutos para solicitar propuestas de investigación clínica sobre cómo los ritmos circadianos afectan la obesidad, la diabetes y otras enfermedades. “Estamos tratando de alentar a los investigadores no solo a hacer un trabajo metabólico en profundidad, sino también a probar la terapéutica”, dijo Karen Teff, PhD, directora de programa en la división de NIDDK de diabetes, obesidad y metabolismo.

Intervenciones Prácticas

Los médicos pueden estar abrumados por la perspectiva de recopilar información para evaluar si sus pacientes necesitan un ajuste del reloj. Sin embargo, los estudios clínicos preliminares que se están llevando a cabo constituirían herramientas prácticas para la evaluación e intervenciones bastante sencillas. Panda y sus colegas han creado una aplicación de teléfono móvil llamada myCircadianClock que ayuda a las personas a seguir sus patrones de comer, dormir y actividad, así como cuando toman medicamentos o suplementos. Han comenzado a inscribir a los participantes en un estudio de la aplicación con el objetivo de recopilar 2 semanas de datos de alrededor de 10,000 personas. Buscarán tendencias en los datos para determinar si pueden crear estándares de referencia que los médicos podrían usar para identificar a los pacientes con disturbios relacionados con el reloj. “Los médicos están acostumbrados a observar la presión arterial y el nivel de azúcar en la sangre en comparación con el nivel de referencia”, explicó Panda. “Si se llega a una simple regla de directrices para [los indicadores circadianos como comer o dormir] para los médicos, eso ayudará a los pacientes.”

El intervalo entre comidas es uno de los factores que el equipo ha examinado. El equipo descubrió que aproximadamente la mitad de los 156 participantes que usaban la aplicación en un estudio inicial comían durante más de 15 horas al día, con más de un tercio de las calorías consumidas después de las 6 de la tarde. Los estudios realizados con ratones habían demostrado que restringir la alimentación a 8, 9 o 12 horas durante los períodos activos tenía efectos beneficiosos sobre el peso, el metabolismo y los ritmos circadianos, incluso con una dieta rica en grasas. Así que Panda y sus colegas realizaron un estudio piloto de 16 semanas con 8 de los usuarios de la aplicación que tenían un intervalo de comer más de 14 horas. Se pidió a los usuarios que restringieran la comida a un período de 10 a 12 horas al día. Los participantes redujeron sus intervalos alimenticios y, en promedio, perdieron alrededor de 7 libras.

También informaron dormir mejor, tomar menos snacks y volverse menos tolerantes con los alimentos muy dulces. Un participante envió un mensaje por correo electrónico para decir que sentía que la comida con restricciones de tiempo es “la mejor dieta porque no le priva de sus comidas favoritas y sigue perdiendo peso”. “Creemos que el tiempo es algo que todo el mundo puede seguir”, dijo Panda. Los investigadores planean desarrollar aún más la aplicación para crear un “informe de estilo de vida” que puede ser un punto de partida para las entrevistas médicos con sus pacientes.  Por ejemplo, si el informe muestra que un paciente consume una gran cantidad de calorías en forma de alcohol y comida chatarra después de las 8 pm, esa persona puede decidir restringir comer o beber después de las 8 pm.

Aunque se necesita mucho trabajo para verificar el potencial de las comidas con restricciones de tiempo y otras intervenciones circadianas dirigidas, Teff señaló que no comer después de la cena probablemente sea beneficioso.

Los individuos gradualmente deben reducir su ventana horaria de comer.

“Es un consejo dietético y nutricional básico para las personas con diabetes u obesidad, pero potencialmente encaja en la teoría circadiana”, dijo Teff.

Panda aconsejó que las personas, particularmente aquellas en riesgo de hipoglucemia, no comiencen ninguna forma de ayuno sin la supervisión del médico. También sugirió que los individuos gradualmente deben reducir su ventana de comer.

Otros esfuerzos buscan cómo los médicos pueden prevenir los trastornos del sueño y los problemas metabólicos relacionados con la interrupción circadiana.

El sueño en los pacientes hospitalizados

El estudio Potenciar el Personal para Actuar (SIESTA) está en curso para evaluar si la formación del personal del hospital para ayudar a los pacientes hospitalizados a dormir mejor en realidad mejorará el sueño de los pacientes. “El hospital en sí es un experimento de restricción del sueño, de privación del sueño y de interrupción del sueño”, dijo Van Cauter.

Pero el personal del hospital puede tomar medidas sencillas para ayudar a los pacientes a dormir, dijo. Por ejemplo, pueden intervenir por tandas programadas (horarios de controles) durante el día, hablar en voces más bajas por la noche, o incluso dejar de lado el tiempo cada noche cuando las interrupciones del paciente se minimizan.

Todos los médicos deben pasar unos minutos preguntando a los pacientes acerca de sus hábitos de sueño porque el sueño pobre podría disminuir la eficacia de las terapias, sugirió Van Cauter. Señaló que se dispone de cuestionarios breves y validados sobre los patrones de sueño.

“El sueño debe ser considerado un pilar de la salud junto con la nutrición y el ejercicio”, dijo Van Cauter. “Es muy importante examinar la posibilidad de que la optimización del sueño podría ser una intervención de estilo de vida que podría tener más éxito que la restricción dietética o el ejercicio. Es una cosa más que la gente puede hacer”.