ARTÍCULOS CIENTÍFICOS
- Estudio de células T CD4+, posibilidad para prevenir enfermedades
Diferenciación y plasticidad de las células T CD4+
PLOS Computational BiologyEn un trabajo multidisciplinario en el que participan investigadores de varias dependencias, y publicado recientemente en la revista internacional PLOS Computational Biology, se reporta la creación de un modelo que describe las respuestas de las células T CD4+, y que abre la puerta para la prevención de diversas enfermedades.
En él participa el investigador del Instituto de Física, Carlos Villarreal, junto con sus colegas Luis Mendoza, del Instituto de Investigaciones Biomédicas, Elena R. Álvarez-Buylla, del Centro de Ciencias de la Complejidad y del Instituto de Ecología, y la estudiante del doctorado en Ciencias Biomédicas Mariana Esther Martínez Sánchez.
Los linfocitos T CD4+ (es decir, que expresan la molécula CD4 en su superficie) son un tipo de célula que dirige las respuestas inmunológicas de los vertebrados. El sistema inmunológico es el encargado de reconocer lo propio de lo extraño y con ello proteger a los organismos en contra de agentes externos que pueden causar algún tipo de enfermedad o daño. Para ello, al entrar en contacto con un agente particular, las células T CD4+ no activadas se transforman dinámicamente en diferentes tipos de células para generar la respuesta adecuada al peligro que se enfrente en ese momento.
Esa habilidad de las células de convertirse en otras como consecuencia de los cambios en el microambiente celular es conocida como plasticidad. Una vez atacado el peligro, el sistema inmune deben regresar a su estado basal para no provocar enfermedades autoinmunes y mantener el equilibrio interno del organismo; a esta propiedad se le conoce como resiliencia.
En su trabajo “A Minimal Regulatory Network of Extrinsic and Intrinsic Factors Recovers Observed Patterns of CD4+T Cell Differentiation and Plasticity” los investigadores de la UNAM exponen un modelo en el que estudian una red de regulación genética de los factores transcripcionales clave que determinan el destino celular de los linfocitos T CD4+, en otras palabras, los diferentes tipos celulares observados en una respuesta inmune. La red considera los diferentes mecanismos por los que se procesa la información internamente y las condiciones ambientales de la célula para describir y predecir en qué nuevas células se convertirán los linfocitos T CD4+ que no han sido previamente activados (tipo TH0 en la ilustración).
Para construir dicho modelo asignaron a cada uno de los parámetros de la red un valor booleano (1 o 0) que indica si ese elemento en particular se encuentra activo o no. Usando datos experimentales, se encontró también la relación que mantienen los elementos de la red entre sí, una especie de reglas de activación que nos dicen bajo qué circunstancias se van a “encender” elementos específicos de la red: cuáles aparecen con ciertas combinaciones de citoquinas, receptores moleculares o factores transcripcionales, cuáles se inhiben si determinadas proteínas se encuentran presentes, etcétera.
Con ello, fue posible considerar un estado inicial A (con cualesquiera elementos encendidos) y aplicar todas las reglas de activación para encontrar un segundo estado B consecuencia del estado A. Nuevamente a ese estado B se le aplican las reglas de activación y se encuentra un estado C, ese procedimiento puede repetirse sistemáticamente hasta que se llega a un estado N que, al aplicarle las reglas de activación, nos regresa al mismo estado N, es decir no presenta cambios.
“Esos estados de equilibrio es lo que vamos a identificar con la manifestación de un estado de la célula”, explica Villarreal.
Este modelo, a diferencia de otros ya existentes, considera no solamente las interacciones entre los factores de transcripción, sino también las interacciones causadas por las citoquinas presentes en el microambiente y por las citoquinas creadas por la misma célula. De esa manera fue posible crear un modelo consistente de 85 nodos a que reproduce casi todas las transformaciones de las células T CD4+ y posteriormente reducirlo a uno que considera únicamente 18 nodos.
Más aún, en el estudio de redes complejas de regulación, tanto celulares como más generales, es posible observar que existen ciertos nodos centrales que tienen un papel predominante en el tipo de célula o patrón de expresión que se, lo cual permite generar conclusiones que pueden utilizarse para investigaciones a futuro.
“Queremos estudiar los procesos de diferenciación celular involucrados en el desarrollo de ciertas enfermedades complejas que yo en particular identifico con un estilo de vida moderno […]. Se han desarrollado enfermedades asociadas a la sobreabundancia de nutrientes y a la falta de ejercicio, a los contaminantes, etcétera y que se pueden estudiar en términos de este tipo de aproximaciones. Ahora vemos que una serie de enfermedades que antes no tenían ninguna correlación entre sí tienen nodos centrales”, explica Villarreal.
Con este tipo de estudios, que involucran la colaboración de expertos de distintas disciplinas, es factible construir redes que nos digan cómo interactúan entre sí factores tales como la falta de ejercicio, el consumo de alimentos con alto contenido glucémico, la ingesta de bebidas alcohólicas o el uso del tabaco e identificar cuáles de ellos son nodos centrales en el desarrollo de enfermedades que podrían ser prevenibles al enfocar nuestra atención en la inhibición de estos nodos. https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1004324
- Descubren error en artículo sugerido por los editores de Phys. Rev. Lett.
|
Gerardo García Naumis, investigador del Instituto de Física, junto con Cristian Moukarzel del CINVESTAV, Mérida, publicaron en Physical Review Letters recientemente un comentario que contradice los resultados de una investigación publicada en la misma revista por los autores Olaf Stenull y T.C. Lubensky.
Desde hace algún tiempo, el descubrimiento de que los medios granulares tales como arenas o semillas se autoorganizan de manera óptima para evitar esfuerzos mecánicos internos usando el menor número de contactos posibles-propiedad llamada isoestaticidad- dio lugar a una intensa investigación al respecto debido a su importancia científica y múltiples aplicaciones prácticas.
Para modelar a estos sistemas se ha recurrido a redes ordenadas como la cuadrada o cúbica a las cuales se les agrega desorden. El problema había sido que dichos modelos teóricos se colapsan al comprimirlos por lo cual no se comportan como los sistemas reales.
Sin embargo, en un artículo reciente de la prestigiada revista Phys. Rev. Lett., Olaf Stenull y T.C. Lubensky, este último profesor de la Universidad de Pensilvania, propusieron que la red de Penrose con un poco de desorden podía representar un modelo de dichos materiales.
Esta red de Penrose se usa generalmente para describir unos materiales llamados cuasicristales y, por cierto, puede verse en un mural a la entrada de la biblioteca del IFUNAM.
Pero en el número de noviembre del 2015 de la misma revista Phys. Rev. Lett. apareció un comentario donde los investigadores Moukarzel y García Naumis demuestran que esta propuesta no es correcta y que más bien se debe a que no se consideró el tamaño del sistema (Comment on “Penrose Tilings as Jammed Solids”, Cristian F. Moukarzel and Gerardo G. Naumis, Phys. Rev. Lett. 115, 209801, 2015).
Así, los autores del comentario muestran que si se estudian diversos grados de desorden o diferentes tamaños, la propuesta de usar la red de Penrose resulta incorrecta.
En respuesta al comentario hecho por Moukarzel y Naumis, Stenull y Lubensky (Stenull and Lubensky Reply, Olaf Stenull and T. C. Lubensky, Phys. Rev. Lett. 115, 209802 (2015) ) repitieron durante varios meses sus cálculos y reconocieron que en efecto, su propuesta era errónea debido a que no consideraron este efecto.
Sin embargo, el preciso cálculo de Moukarzel y Naumis abre nuevas preguntas dado que se pudieron observar algunas propiedades nuevas e interesantes del sistema.
El estudio de los mexicanos es especialmente relevante porque el trabajo original de Lubensky había sido designado como "Editors Suggestions" por la revista, es decir, como lo más destacado que recomienda una de las mejores revistas de física del mundo. https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.113.158301
- Efectos cuánticos en nanodispositivos
Tecnología MEMS
https://www.blendspace.comMuchos de los dispositivos que usamos como teléfonos móviles y cámaras digitales requieren sistemas de funcionamiento que sean eficientes sin sacrificar el tamaño, sin embargo, estos dispositivos colapsarían y no serían posibles sin la física de pequeña escala en la que se presentan fenómenos diferentes.
Todos estos dispositivos usan tecnología conocida como sistemas electromecánicos de micro y nano escala (MEMS y NEMS por sus siglas en inglés), las cuales consisten en una unidad central que procesa información y varios componentes que interactúan con el entorno como microsensores.
El problema es que a estas escalas, la física para desarrollar y diseñarlos no se comporta como el mundo macroscópico que conocemos y se manifiestan fenómenos que afectan a los dispositivos como la fuerza Casimir.
Los investigadores Raúl Esquivel y Rafael Pérez, del Instituto de Física de la UNAM, se han dado a la tarea de estudiar el efecto Casimir para disminuir los efectos negativos que produce en los nanodispositivos, sus resultados fueron publicados en la revista The European Physical Journal b con el título “Geometry and charge carrier induced stability in Casimir actuated nanodevices”.
“La fuerza de Casimir es un concepto cuántico que no presenta ningún análogo en la mecánica clásica y es ocasionada por el vacío, el cual es el estado cuántico con la menor energía posible”, explicó Esquivel.
Nace de una predicción hecha en 1948 por el físico holandés Hendrik Casimir. Él predijo que dos placas conductoras perfectas neutras y paralelas se atraen una a la otra con una fuerza que depende solamente de constantes fundamentales y que varía como el inverso a la cuarta potencia de la distancia de separación.
De acuerdo con la mecánica cuántica, el vacío cuántico no es un espacio “vacío” sino que presenta fluctuaciones en la aparición y desaparición de ondas electromagnéticas y partículas, lo que se les conoce como partículas virtuales.
En 1956 el físico ruso Evgeny Mikhailovich Lifshitz, y otros colaboradores, mostraron que en los materiales reales la fuerza de Casimir depende de las propiedades dieléctricas de las placas, es decir, si se cambia el material con el que están hechas las placas se tiene diferente intensidad de la fuerza de Casimir y ésta ya no depende solamente de constantes fundamentales como se tenía para placas conductoras perfectas.
“La estabilidad de los micro y nano dispositivos electromecánicos es influenciada por la fuerza de Casimir como lo demostró el físico Fardad Michael Serry en 1995. Esta fuerza ocasiona fricción entre las placas y los hace inservibles“, comentó Esquivel.
La fuerza de Casimir ha sido medida con gran precisión usando una variedad de técnicas como microscopía de fuerza atómica y la balanza de torsión.
La estabilidad de los MEMS y NEMS presenta más complicaciones por la rugosidad de las superficies, e incluso en los dispositivos totalmente aterrizados, los potenciales residuales pueden añadir fuerzas parásitas extras. Estas han sido consideraciones importantes para la interpretación de la fuerza de Casimir en los experimentos.
Para evitar el indeseable efecto de fricción dado por la fuerza de Casimir, Esquivel también ha propuesto varios esquemas teóricos para disminuirlo, como superficies curvas, materiales con muy baja función dieléctrica y por medio de la aplicación de un campo magnético externo en las placas semiconductoras.
El estudio de la influencia de la fuerza de casimir en MEMS y NEMS usualmente asume placas semi-infinitas en vez de placas delgadas finitas que son más realistas.
En su artículo, Esquivel y Pérez Pascual desarrollaron un cálculo teórico sobre la influencia de la delgadez de las placas en micro y nano sistemas mecánicos en las que actúan fuerzas dispersivas.
Mostraron que las condiciones de estabilidad que antes se habían considerado han sido sobreestimadas, y que la delgadez de las placas puede ser usada como un parámetro de diseño adicional y la concentración de carga en las placas induce estabilidad en los nanodispositivos.
Las investigaciones hechas por Esquivel y Pérez Pascual en esta rama resultan muy importantes para tener mejores dispositivos como podrían ser controles de videojuegos, teléfonos móviles, cámaras digitales entre otros, logrando así mayor durabilidad y vida cotidiana más cómoda. https://epjb.epj.org/articles/epjb/abs/2013/11/b130779/b130779.html
-
Primeros resultados de PICO-2L: más cerca de las WIMP’s y la materia oscura
En el 2013 se creó el proyecto PICO-2L con el objetivo de encontrar las WIMPs.
PICOLos primeros resultados del proyecto PICO-2L, ubicado en el laboratorio SNOLAB, que pretende detectar materia oscura y en el que participa el investigador del IFUNAM Eric Vázquez Jáuregui, han sido publicados el pasado 11 de junio en Physical Review Letters.
“Entender la naturaleza de la materia oscura es una de las metas importantes de la física moderna de partículas”, comentó Vázquez Jáuregui, quien además es el único investigador latinoamericano en el proyecto.
“Existe una evidencia abrumadora, a muchas escalas, sobre la existencia de la materia oscura, que explicaría varios fenómenos de nuestro Universo como lo son las velocidades de rotación de algunas galaxias y la colisión entre cúmulos de galaxias; además de que el modelo estándar de la cosmología (Lambda-CDM) donde la materia dominante es oscura y fría, explica de manera muy consistente la mayoría de nuestras observaciones”, explica el investigador.
El experimento PICO-2L busca la detección de uno de los candidatos para ser la materia oscura: las WIMPs (partículas masivas que interactúan débilmente, por sus siglas en inglés). Vázquez Jáuregui describe el experimento PICO-2L como el más importante para interacciones WIMP-protón dependientes del espín.
Las WIMP’s no se pueden observar directamente ya que no emiten ni absorben radiación electromagnética y tampoco sería posible observarlas por medio de la interacción nuclear fuerte.
Estas características hacen que las WIMPs tengan propiedades parecidas a los neutrinos, con la diferencia de que las WIMPs deberían de ser más masivas y más lentas.
El laboratorio subterráneo SNOLAB que se encuentra en el norte de Ontario, Canadá, tiene instalado desde el 2013 el experimento PICO-2L con el objetivo de encontrar las WIMPs, las cuales serían observaciones importantes para entender la materia oscura y sus propiedades.
El experimento PICO-2L, en el que colabora Eric Vázquez Jáuregui.PICO-2L consiste en una cámara de burbujas que opera con 2 litros de C3F8 (octaflouropropano), el cual es un material líquido que tiene la propiedad de favorecer la interacción de espín con otras partículas más que otros materiales. De ahí se deriva el “2L” del nombre. Mientras que “PICO” proviene de la unión de las colaboraciones, también del SNOLAB, que lo antecedieron: PICASSO y COUPP.
Entre las partículas que inciden a la cámara de burbujas se encuentran los neutrones, las propuestas WIMPs y las partículas alfa. La Tierra recibe continuamente una lluvia de partículas procedentes del Universo exterior, a este tipo pertenecen las WIMPs, mientras que las partículas alfa y los neutrones son emitids por Uranio y Torio que se encuentran en los materiales de la cámara.
Cuando estas partículas entran en contacto con la cámara de PICO-2L, golpean a los núcleos del octaflouropropano y los desplazan. Los núcleos, al moverse, depositan energía y hacen que el material (C3F8) se evapore. Ese vapor produce las burbujas, las cuales son detectadas por cámaras de video.
Las cámaras de video no pueden diferenciar las burbujas producidas por las partículas alfa y los neutrones, pero los investigadores han logrado diferenciarlas por medio del uso de sensores piezoeléctricos (una especie de micrófonos sofisticados) que rodean la cámara y que permiten distinguirlas a través de la señal acústica que se obtiene cuando se crean los dos tipos de burbujas.
La clave entonces está en el sonido, pues esta señal acústica es más intensa para partículas alfa que para neutrones, explica Vázquez Jáuregui.
Además de poder diferenciar las diversas partículas que inciden en la cámara, PICO-2L encontró por primera vez la dependencia de la señal acústica producida por partículas alfa con respecto a su energía, es decir, entre más energía tiene una partícula alfa la burbuja que produce suena más fuerte al crearse.
La medida para estandarizar tiempos de exposición en este tipo de experimentos son los kg-día, y es un parámetro de comparación entre la cantidad de días y la cantidad de material que estuvo expuesto, PICO-2L utilizó 2.9 kg de material en la toma de datos.
Después de una exposición de 211.5 kg-día, entre octubre de 2013 y mayo de 2014, Vázquez Jáuregui y el equipo de PICO-2L aún no han conseguido ninguna detección directa a pesar de tener en la actualidad el sistema más sensible para la detección de la interacción entre WIMPs y protones del tipo dependiente del espín.
Sin embargo, se van acercando. Las investigaciones y los resultados que ha reportado PICO-2L han marcado un avance sin precedentes en las secciones eficaces para interacciones entre WIMP y protón dependientes del spin, al alcanzar por primera vez el espacio de parámetros de la teoría de supersimetría.
En febrero de este año, PICO-2L empezó una segunda fase de toma de datos con un nuevo contenedor y un nuevo conjunto de sensores piezoeléctricos así como protocolos más estrictos de limpieza para disminuir eventos no deseados, lo que significará subir otro escalón en la escalera para entender la materia oscura, y con ello, nuestro Universo. https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.231302
-
El caldo primigenio en un modelo computacional
Moléculas de agua, metano y amoniaco confinadas en una caja de fullereno.
www.tandfonline.comPocos pensarían que el origen de la vida, el gran campo magnético de Júpiter, y el principio de Arquímedes tienen algo en común con una olla de presión. Y sin embargo, así es. Los tres casos responden a un mismo proceso que ha sido modelado recientemente y por primera vez por investigadores mexicanos.
Rubén Santamaría, del Instituto de Física de la UNAM, en colaboración con el polaco Ludwik Adamowicz de la Universidad de Arizona y Hortensia Rosas-Acevedo de la Facultad de Estudios Superiores Zaragoza de la UNAM, se dieron a la tarea de construir un modelo para simular el comportamiento de los componentes que están dentro de una olla de presión.
En su artículo “Microscopic pressure-cooker model for studying molecules in confinement” publicado el 17 de noviembre de 2014 en la revista Molecular Physics, Santamaría y su equipo describen un modelo para el confinamiento de moléculas, así como las expresiones para determinar la temperatura, presión y volumen del sistema.
El origen de la vida y la olla de presión
La primera prueba de que se pueden formar espontáneamente moléculas orgánicas a partir de sustancias inorgánicas simples se llevó a cabo en 1952 por los científicos estadounidenses Stanley Miller y Harold Clayton Urey en la Universidad de Chicago.
El experimento de Miller y Urey fue clave para apoyar la teoría del caldo primigenio(o prebiótico) propuesto por el ruso Aleksander Oparin en 1924 y es una de las hipótesis centrales sobre la creación de la vida.
Se basa principalmente en reproducir en un lugar hermético las condiciones que se dieron en la tierra hace millones de años, junto con el caldo primigenio usando los elementos en las proporciones en las que se encontraban entonces y rayos ultravioleta. El resultado fue la generación de estructuras simples que conforman a las proteínas, base de las criaturas vivas.
En el caso de la olla, al ser un recipiente hermético en contacto con un baño térmico, podemos imponer presiones mucho más altas que la atmosférica, simultáneamente considerando los efectos de temperatura. Por ejemplo, bajo los efectos de presión, la ebullición del agua se da por encima de los 100°C. Así la temperatura más alta hace que los alimentos se cocinen más rápido.
El rompimiento entre enlaces se dio a partir de la radiación, hace millones de años y se simuló en el experimento de Miller–Urey. En el modelo de Rubén Santamaría, el rompimiento es gracias a la combinación de varios efectos, los de presión, temperatura y radiación en los compuestos que se encuentran en la olla.
Sin radiación, no hay nada… ¿o sí?
Como en la teoría del caldo primigenio y en el experimento de Miller-Urey es necesaria la radiación para dar origen a nuevos compuestos, Santamaría y su equipo decidieron incluir radiación en su modelo.
Así pues, las simulaciones mostraron que en el caso de los componentes prebióticos, el rompimiento de los enlaces a través de los efectos de la temperatura y radiación es esporádico y que, al aplicar presión alta, los enlaces rotos pueden ser inmediatamente restaurados.
Según las simulaciones de Santamaría y su equipo, la mayor causa de rompimiento de enlaces es la radiación ionizante. Esta es una radiación energética que extrae algunos de los electrones y fomenta la recombinación de átomos.
“En conclusión, es la radiación la que juega un papel preponderante en la formación de nuevos componentes” afirma el investigador.
“Sin embargo, algunos resultados preliminares, donde se introdujeron moléculas de sulfuro de hidrógeno en la sopa prebiótica, conducen a resultados diferentes”, concluye.
Por tanto, los investigadores planean hacer trabajos futuros en los que van a involucrar cambios de densidad, o un diferente número de moléculas confinadas, así como otras moléculas de diferente composición química, además de metales catalizadores.
La simulación de la teoría del caldo primigenio es una de las aplicaciones del modelo desarrollado por los investigadores, pero no es la única.
El campo magnético de Júpiter
Júpiter posee el campo magnético más grande del sistema solar, esto incluye al sol. Hasta el momento no se conoce la razón exacta de esto pues “a nivel de Astronomía no se puede ver el interior del planeta” comenta Santamaría.
“Nuestras simulaciones con altas presiones nos permiten inferir la existencia de cúmulos de hidrógenos que se auto-ensamblan dentro de Júpiter” comenta también.
En su modelo, Santamaría y su equipo pudieron constatar que al someter cúmulos de hidrógeno a efectos de presión y temperatura, éstos se vuelven metálicos, lo que quiere decir que pueden portar carga eléctrica. Estos cúmulos metálicos en movimiento de convección producen un campo magnético.
Si esto es lo que ocurre en el interior de Júpiter es posible considerar que el gigantesco campo magnético que posee se debe a los efectos de presión y temperatura de los cúmulos de hidrógeno que contiene.
El principio de Arquímedes
El principio de Arquímedes dice: un cuerpo total o parcialmente sumergido en un fluido en reposo, recibe un empuje de abajo hacia arriba igual al peso del volumen del fluido que desaloja.
De acuerdo con ésto, si tenemos una pelota y la sumergimos en una alberca, la pelota será impulsada hacia arriba.
Algo tan simple como esto, que la pelota salga volando, no se puede predecir con los modelos computacionales moleculares precedentes al de la olla de presión. Pero con el modelo de Santamaría esto es posible.
Para este caso el contenedor u olla de presión se muta a una pelota, pues haciendo ajustes en las ecuaciones el contenedor puede tomar la forma y composición que se desee; el interior de la olla no tuvo compuestos, y quedó vacío, mientras que el baño térmico que rodeaba al contenedor fue sustituido por un fluido: agua.
Así, mediante este modelo modificado, las ecuaciones predicen que la pelota sale “volando” tal como sucede en la vida real.
“El modelo molecular es consistente con el principio de Arquímedes”, comenta el investigador y “lo que esperamos ahora es que nuestras ecuaciones y técnicas sean implementadas en otros paquetes de computo” concluye. https://www.tandfonline.com/doi/full/10.1080/00268976.2014.968649
-
¿Cómo ha cambiado el uso de las palabras en el tiempo?
Modelaron la evolución de palabras desde 1800 en español, ruso, inglés, francés, italiano y alemán.
Plos OneEn 1700, los cinco sustantivos más usados en español eran “fe”, “señor”, “cardenal”, “rey” y “dios”; en el año 2000, todos estos desaparecieron de los primeros lugares y han sido sustituidos por “parte”, “estado”, “años”, “vida” y “nacional”. Lo que ocurrió en esos tres siglos, la forma en que se ha modificado la frecuencia de las palabras año con año en seis idiomas distintos, ha sido modelado, por primera vez, por un grupo de físicos mexicanos.
Germinal Cocho, Jorge Flores y Carlos Pineda, investigadores del Instituto de Física, junto con Carlos Gershenson, del Instituto de Investigaciones en Matemáticas Aplicadas y Sistemas, y Sergio Sánchez, de la Facultad de Ciencias, todos de la Universidad Nacional Autónoma de México, publicaron recientemente en PLOS One un estudio que aborda la evolución de las palabras utilizando herramientas de la física, la matemática, la estadística y la computación.
Los autores del artículo (de izq. a der): Sergio Sánchez, Carlos Pineda, Germinal Cocho, Jorge Flores y Carlos Gershenson. Foto: Isaac Chávez.El primero de sus retos lo resolvió Google hace pocos años al anunciar que llevaría a cabo la maratónica tarea de escanear y digitalizar todos libros publicados desde 1500.
En el 2009 ya tenía un registro de 10 millones de libros así que los científicos procedieron a analizar la nada despreciable cantidad de 6.4x1011 palabras registradas en Google Books, provenientes de libros publicados desde 1700 en seis lenguajes: inglés, alemán, español, francés, italiano y ruso.
Luego hicieron listas de palabras, una para cada idioma y para cada año, ordenadas por su frecuencia con el fin de comparar cómo cambian los rangos en el tiempo.
“En una competencia, como un maratón, el rango k es simplemente el lugar en el que quedaron los competidores. El más rápido es el primero (k=1), y así hasta los más lentos. Para las palabras, el menor rango se da no por la velocidad sino por la frecuencia de uso de las palabras. Entonces la palabra más usada (“de” en español en el año 2000) tiene el menor rango y mientras menos se usen las palabras tendrán un mayor rango”, explica Carlos Gershenson.
Con este sistema encontraron que las palabras más usadas (menor rango) casi no cambian su lugar (en la misma analogía, los mejores corredores casi siempre quedan en los primeros lugares).
Mientras las palabras se usan menos, se incrementa el rango y la variación de su rango es mayor año con año (los corredores "del montón" casi no repiten el lugar en el que quedan en cada carrera).
Esto lo describieron a partir de un modelo Gaussiano de caminante aleatorio invariante de escala, una herramienta de la física estadística utilizada en diversos campos de las ciencias para encontrar ciertos patrones en sistemas complejos, es decir, aquellos que tienen varias componentes interconectadas.
La idea que utilizaron para modelar cómo cambia el rango de las palabras en el tiempo es una caminata aleatoria en la que se escoge al azar el tamaño del siguiente paso pero con cierta desviación estándar que nos dice qué tanto puede variar el paso. https://www.plosone.org/article/metrics/info%3Adoi%2F10.1371%2Fjournal.pone.0121898
-
Destacan investigación sobre las propiedades de dosímetro
La revista en la que fue publicada la investigación es la más importante en Europa en esta área.
Physics in Medicine and BiologyEl Institute of Physics (IOP) ha destacado un trabajo originado en la tesis de Maestría en Física Médica de Iván Domingo Muñoz, alumno asociado al Instituto de Física, sobre una interesante propiedad de un dosímetro luminiscente que no había sido reportada.
Esta propiedad podría mejorar la forma de evaluar la dosis de radiación en procedimientos de mamografía y permitiría investigar distribuciones de energía para campos de fotones dentro de maniquíes en procedimientos de radiodiagnóstico.
El trabajo fue publicado el 16 de febrero de 2015 en la principal publicación europea en Física Médica Physics in Medicine and Biology, editada por el IOP.
Un dosímetro es un material que se utiliza para medir dosis de radiación. En el área de la Física Médica existe una importante línea de investigación que se encarga de evaluar dichos materiales para analizar sus propiedades.
Comercialmente existen dosímetros con distintas composiciones y diversos funcionamientos. El que utilizó Iván Muñoz para su tesis es un cristal compuesto de fluoruro de calcio dopado con Tulio (CaF2:Tm, comercialmente llamado TLD-300), con propiedades termoluminiscentes.
La termoluminiscencia significa que al ser expuesto a radiación ionizante el material posee la capacidad de ‘almacenar’ información relacionada con la dosis (cantidad energía por unidad de masa) en la estructura cristalina y que es liberada al calentar el cristal.
Esto es posible porque dentro del dosímetro existen trampas de electrones generadas por la presencia de defectos en la red del cristal. La presencia de trampas con diferentes profundidades (energía con respecto a la banda de conducción) propicia que la energía depositada se almacene en distintas formas.
“Otra propiedad que exhiben algunos dosímetros termoluminiscentes es que pueden revelar la densidad de ionización de la radiación a la que son expuestos. Desde el punto de vista de la física médica y la radiobiología, esta información es de gran interés", explica Iván Muñoz.
En particular, un análisis detallado de la curva de brillo del TLD-300 no sólo permite medir la dosis absorbida sino que hace posible evaluar, de forma simultánea, la energía del campo o haz de fotones al que es expuesto.
"Esta es una propiedad que no había sido observada antes para dosímetros termoluminiscentes”, explica Muñoz a Noticias IFUNAM. El análisis de la curva de brillo consiste en la deconvolución de la misma (que se refiere a la descomposición de la curva de brillo en los picos individuales que la componen) en picos individuales para evaluar el cociente entre señales de alta y baja temperatura.
Curvas de brillo del TLD-300 expuesto a haces de fotones con diferentes energías efectivas. La respuesta TL se normaliza al máximo de la región de baja temperatura. Fuente: artículo de Iván Muñoz.El trabajo de Iván contiene medidas realizadas en los laboratorios del grupo DOSIFICAME del Instituto de Física y calibraciones realizadas en el Instituto Nacional Investigaciones Nucleares (ININ), por lo que cuenta con la colaboración de investigadores de ambas instituciones y del Instituto de Ciencias Nucleares. https://iopscience.iop.org/0031-9155/60/6/2135
-
Ir al cine, o de cómo se propaga información en la sociedad
Analizaron cómo se propaga la información para ir a ver una película.
Artículo de PLoS One¿QUé determina que una película sea un éxito de taquilla o un fiasco total? ¿Si los protagonistas son estrellas consagradas o se inunda a la sociedad con publicidad, se garantiza un éxito?
Estas son algunas de las preguntas que productores de todo el mundo pero en particular de Hollywood, la Meca del cine, se hacen continuamente. Y es que el cine es considerado como una industria de altísimo riesgo; es posible ganar quinientos millones de dólares como con “Batman, el caballero de la noche”, pero de igual manera es posible perder cien millones como fue el caso de “Las aventuras de Pluto Nash”.
De acuerdo con Juan Valentín Escobar Sotomayor, investigador recién contratado por el Instituto de Física (IFUNAM), “el mecanismo principal que determina el éxito de una película es la propagación de recomendaciones directas de 'voz a voz', de igual manera que se propagan las enfermedades. La propaganda en los medios y los actores que la protagonicen sólo afectan la cantidad de gente que asiste las primeras semanas, pero no el total agregado a lo largo de los meses”.
Lo sabe porque él junto con Didier Sornette, investigador del Swiss Finance Institute, hicieron un estudio que concluye que el criterio clave para entender cómo se comportará la audiencia respecto a una película e incluso cuánto recaudará cada cinta es la calidad percibida.
Sus resultados los publicaron el pasado 22 de enero en el artículo “Dynamical Signatures of Collective Quality Grading in a Social Activity: Attendance to Motion Pictures”, publicado el 22 de enero de 2015 en PLoS One.
Para ello, los investigadores extrajeron datos de alrededor de 3,500 películas del portal de internet Box office mojo sobre el dinero recaudado por cada filme así como el pico de asistencia durante las siguientes cuatro semanas. Paralelamente, obtuvieron las opiniones de los espectadores de esos filmes (categorizadas en A, B, C y D) publicadas en Internet Movie Data Base (INMDB).
Entonces establecieron relaciones de cada filme y ubicaron que el pico de actividad (de asistencia para cada película) se ajusta a un exponencial decreciente que relaciona el máximo pico y el decaimiento de la audiencia que asiste a ver cada película con la duración típica de la cinta en las salas de cines.
Con un modelo de ramas epidémicas conocido como procesos de Hawkes, los investigadores estimaron que el público que ve la película primero influye o ‘infecta’ a otros.
Es, básicamente, como se dispersa una enfermedad. Así como una persona enferma puede contagiar a otro y éste a otros y ellos a otros más, así sucede con el cine: una persona induce a otra a ver una película que le gustó, recomendándola. Si esta persona ve la cinta, puede a su vez recomendarla a sus propios conocidos, y así sucesivamente hasta lograr un efecto “cascada”.
Pero hay dos elementos importantes en este modelo. Una es la opinión positiva del filme. De manera que el ‘efecto cascada’ estaría relacionado directamente con la calidad percibida de cada película.
El otro es el tiempo. La persona enferma que se contagia de un virus no cae enferma de inmediato, requiere tiempo para enfermarse y tiempo para contagiar a otros. De la misma forma, la gente que es influenciada por la opinión de otros sobre una película, no va inmediatamente a verla.
Esquema del modelo de epidemia de ramificación: las flechas apuntan a la asistencia progresiva debido a los efectos de latencia, mientras que los cuadros punteados representan a los espectadores anteriores que influencian o "infectan" a nuevos espectadores potenciales que constituyen las nuevas generaciones. La asistencia total en el tiempo t (columna derecha) es la suma de las contribuciones de todas las generaciones anteriores.Así, la asistencia colectiva es descrita por una función exponencial, pero “renormalizada” dependiendo de la calidad de la película. En otras palabras, las recomendaciones crean un efecto de cascada o de avalanchas de asistencia que hacen que el decaimiento sea mucho más lento para películas buenas que para películas malas.
De hecho, la probabilidad de que alguien asista al cine a través de una recomendación es de hasta un 70% para las mejores películas. Por lo tanto, la clave para poder predecir el desempeño es conocer la percepción de la calidad de la gente que ya vio el filme. Esto podría llevarse a cabo utilizando encuestas de salida durante la primera semana, y ayudar así a determinar si es conveniente retirar o dejar más tiempo en cartelera una película. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0116811
-
Desarrollan láser atómico de brillo sin precedentes
Los tres regímenes del láser ultra brillante.
Daniel SahagúnEl investigador del Instituto de Física, Daniel Sahagún, junto con investigadores de Grecia y Singapur, desarrolló un láser atómico ultra brillante, que ha sido destacado recientemente como uno de los trabajos más importantes del 2014 en el área de física atómica, molecular y óptica por el New Journal of Physics.
Se trata de un láser que mejora por mucho la luminosidad de todos los láseres de su tipo que existen actualmente. Y, de acuerdo con el editor en jefe de la revista, Eberhard Bodenschatz, el artículo ‘An ultra-bright atom laser’ (publicado en marzo de 2014) ha sido elegido “por su novedad, impacto científico y su atractivo para la comunidad”.
Para entender la aportación del grupo de investigadores, es necesario saber que un láser atómico es distinto a uno óptico (como el típico de un apuntador o el de un lector de discos compactos, por ejemplo). Este último emite ondas electromagnéticas, mientras que el láser atómico emite, justamente, átomos.
Los láseres atómicos más fuertes se originan a partir de condensados de Bose-Einstein (BEC). El BEC es un estado de la materia (como el líquido, sólido, gaseoso o plasma) compuesto por una nube atómica que se comporta como si fueran un gran átomo – una “onda de materia”. Esto se logra sólo a temperaturas cercanas al cero absoluto.
Para crear el láser atómico el primer paso es crear un BEC dentro de una trampa. Esta puede ser visualizada como una copa hecha de campos magnéticos que mantienen a los átomos oscilando (como canicas) en el fondo.
Hasta antes de este trabajo, la técnica común utilizada para hacer láseres atómicos era aplicándole a la trampa pulsos de radiofrecuencia (RF) de campo electromagnético débil.
“La RF (débil) provoca un hoyo en la trampa magnética causando que los átomos que están en ese punto salgan (o caigan), dejen de estar confinados”, explica Sahagún.
“Para nosotros qué tan luminoso es el láser es qué tan alto es el flujo de átomos. Es decir, lo que para los láseres normales es el flujo de fotones, para nosotros es el flujo de átomos”.
Pensando inocentemente, para producir un láser más luminoso, la forma más lógica de lograrlo sería aumentando el tamaño del hoyo lo que incrementaría la intensidad de la radiofrecuencia. Sin embargo, al hacerlo, aparecen dos problemas.
Por un lado, al aumentar el flujo, también se incrementa la interacción de los átomos que salen con los que se quedan en la trampa. Esta interacción tiene un efecto de lente sobre los átomos fríos (ondas de materia) y entonces el láser resulta afocado y difícil de controlar.
Por el otro, si la trampa no es estable en extremo, en vez de uno, se hacen dos hoyos en la trampa. Y esto propicia que salgan dos láseres que, de nuevo, son difíciles de controlar.
Frente a ese reto, el grupo con el cual colabora Sahagún decidió hacer algo completamente distinto: aplicar radiofrecuencia con intensidad alta, de hecho, mucho más alta que la que los otros grupos habían utilizado.
Al aplicarle una radiofrecuencia tan fuerte, se cambia por completo la geometría de la trampa porque se transforman los estados de los átomos (ellos lo describen como ‘estados vestidos’) y, en consecuencia, cambia la forma en que estos ‘ven’ al campo magnético de la trampa. Los átomos, básicamente, ‘ven’ una trampa distinta. https://iopscience.iop.org/1367-2630/16/3/033036
-
Tecnología desarrollada en el IFUNAM aplicada a paleontología
Pieza de ámbar para estudio.
Artículo Plos ONEPor primera vez en México se ha utilizado tecnología desarrollada en el IFUNAM para observar fósiles encapsulados en ámbar, gracias a un equipo de investigadores en el que colaboran físicos de nuestro Instituto.
Arnulfo Martínez, Mercedes Rodríguez y José Luis Ruvalcaba, en colaboración con Francisco Riquelme del Posgrado en Ciencias Biológicas y Jesús Alvarado Ortega, del Instituto de Geología de la UNAM, reportaron datos morfológicos de especímenes fósiles que fueron obtenidos usando la tecnología denominada microtomografía computarizada de rayos X (micro-CT).
Sus resultados fueron publicados en agosto del 2014 en la prestigiada revista PLoS One con el título “Two Flat-Backed Polydesmidan Millipedes From Miocene Chiapas-Amber Lagerstätte, Mexico”.
Los investigadores del Instituto de Física ayudaron a resolver el problema del análisis de este tipo de muestras con un método que permite ver las imágenes en tres dimensiones de diplópodos (del griego “di” dos, “plo” multiplicar por y “podos” pies, conocidos comúnmente como milpiés) que se encuentran embebidos en ámbar.
Lo más relevante del artículo es que por primera vez en México se ha utilizado esta técnica para hacer análisis de esta índole.
“Este tipo de equipo no existía hasta hace pocos años en México, y es probable que a la fecha siga siendo el único construido por latinoamericanos. Estos son los primeros resultados para esta clase de aplicaciones”, explica Arnulfo Martínez.
El equipo se construyó principalmente para aplicaciones en investigación biomédica, para realizar estudios con animales pequeños como lo son ratas, ratones, peces y cultivos celulares, entre otros, y tiene la ventaja de que es un método no-destructivo.
La tomografía computarizada consiste en un haz de rayos X que incide desde diferentes direcciones sobre el objeto que se estudia. La radiación que no absorbe el objeto es recogida por un conjunto de detectores que transforman los rayos X en una señal digital.
Fue inicialmente desarrollada para estudios clínicos con humanos, pero los avances tecnológicos de los últimos 15 años han permitido trasladar la técnica a animales pequeños.
Al principio, sin embargo, existían complicaciones tecnológicas debido al tamaño de los órganos de los animales. Los aparatos disponibles para estudios con seres humanos están diseñados y optimizados para obtener imágenes de órganos que son tres órdenes de magnitud más grandes que los utilizados en investigación preclínica con animales pequeños.
"El mayor problema residía en los detectores de rayos X ya que las celdas que registran los rayos X eran grandes en comparación a lo que se necesitaba observar; obtener mayor resolución espacial fue un reto que tecnológicamente ha sido difícil de conseguir”, explica Martínez.
Las muestras que se analizaron pertenecen al Museo del Ámbar Lilia Mijangos de San Cristóbal de las Casas, en Chiapas, México, y son patrimonio de la nación; están registradas ante el Instituto de Nacional de Antropología e Historia por su valor científico y cultural. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0105877
-
Comprueban violación de la simetría de paridad en los quarks
Colisión electrón-quark
https://people.virginia.edu/~xz5y/Research.htmlJens Erler del Instituto de Física de la UNAM (IFUNAM) y un grupo de científicos de cerca de diez países, llevaron a cabo un experimento en el “Jefferson Lab”, en Newport News Virginia, que ha permitido medir por primera vez la violación de la paridad en las interacciones débiles de los quarks.
Sus resultados fueron publicados en febrero en la revista Nature, bajo el título “Measurement of parity violation in electron–quark scattering”.
“En nuestra vida diaria, los fenómenos de la naturaleza son idénticos si los observamos directamente, o si observamos su imagen especular; es decir reflejada en un espejo. Por ejemplo, si una cara no se distingue de la imagen que refleja un espejo", dijo Jens Erler. A esta simetría se le conoce como simetría de paridad.
De las cuatro fuerzas fundamentales de la naturaleza (gravedad, electromagnetismo, fuerza nuclear fuerte y nuclear débil) la única que no respeta esta simetría es la fuerza nuclear débil. Esto significa que la interacción débil puede distinguir entre algo que está rotando a la derecha o a la izquierda.
Dado que los quarks sienten la interacción débil, una pregunta legítima en física es si los quarks tienen las mismas propiedades al rotar hacia la izquierda o hacia la derecha. Y para responder esta cuestión, un grupo de científicos diseñaron un experimento para analizar el comportamiento de los quarks en relación a la simetría de paridad.

Átomo y su composición. Fuente: https://people.virginia.edu/~xz5y/Research.htmlEl experimento realizado recientemente en el Jefferson Lab, constituye una extensión de una serie de experimentos que se iniciaron en los años 50. Como resultado de estos experimentos se habían podido corroborar la violación de la paridad para electrones y neutrinos. El reto ahora era extender estos resultados al caso de los quarks.
Para ello se analizó la paridad en la colisiones electrón-quark. La violación de la paridad en dichas colisiones había sido medido en varias ocasiones; sin embargo el nivel de precisión alcanzado sólo permitía identificar las contribuciones debidas a los electrones. “Los quarks producen efectos mucho más pequeños, por eso se necesitaba diseñar un experimento mucho más preciso”, menciona Erler. https://www.nature.com/nature/journal/v506/n7486/full/nature12964.html
-
Por una teoría de cuerdas unificadora
La teoría de cuerdas intenta ofrecer respuesta a la pregunta milenaria: ¿de qué está hecho el Universo? Además de hacer más comprensible el estudio de la fuerza gravitacional.
www.taringa.net/¿De qué está formado el Universo? A pesar de los tremendos éxitos de la física de partículas y la cosmología, hay razones para pensar que aún no lo sabemos. Sin embargo, se han desarrollado diversas teorías y modelos que tratan de explicarlo, tales como la teoría de cuerdas.
Esta teoría surge en 1970 por los trabajos realizados por Yoichiro Nambu, de la Universidad de Chicago; Holger Nielsen, del Niels Bohr Institute; y Leonard Susskind, de la Universidad de Stanford, en los que mostraron que si se representa a las partículas elementales como pequeñas cuerdas unidimensionales vibratorias es posible entender las interacciones nucleares.
La teoría supone que todas las partículas que componen la materia (quarks y leptones) están formadas por cuerdas infinitamente pequeñas que son capaces de vibrar de diferentes modos aparentando ser diferentes partículas tal como lo hacen las cuerdas de guitarra generan: al vibrar, cada tono representaría una partícula distinta con sus muy diversas características.
A la fecha, la teoría de cuerdas ofrece unificar las cuatro fuerzas de la naturaleza: fuerza gravitacional, fuerza electromagnética, fuerzas fuerte y débil. Esto no es para nada poca cosa, pues significa unificar nuestra comprensión de la gravedad con la de las otras fuerzas de la naturaleza, tarea que Einstein dejó inconclusa con su muerte en 1955.
Saúl Ramos, investigador del IFUNAM, es uno de los que han retomado esta tarea y, junto con un equipo de investigadores especialistas en dicho tema, ha trabajado para construir un nuevo modelo basado en teoría de cuerdas, que describa al Universo de forma congruente con el Modelo Estándar de partículas elementales, teoría que describe los bloques fundamentales que constituyen al Universo, y la cosmología moderna.
Los resultados de su equipo serán publicados en la revista Journal of High Energy Physics bajo el nombre de "Non-supersymmetric heterotic model building" poco antes de concluir este año.
Otro aspecto esencial del modelo que buscan es que aporte soluciones a problemas que no han sido resueltos con las teorías existentes. “Aún no entendemos muchas cosas que se observan con la física fundamental (…), no conocemos el origen de las fuerzas que nos afectan, por ejemplo, la gravedad o el electromagnetismo”, dice Ramos a Noticias IFUNAM. “La teoría de cuerdas podría indicarnos un origen común para todas ellas”.
La mecánica cuántica es una teoría que nos ha llevado a entender mucho sobre las interacciones moleculares y atómicas. “Todos los fenómenos que habíamos observado hasta el siglo XIX han tenido que ser reformulados para caracterizar su naturaleza cuántica a distancias cortas o de energías muy altas”, abunda el investigador. No obstante, la única fuerza que presenta problemas para ser entendida en el contexto de la mecánica cuántica es la gravedad.
Por fortuna, en la teoría de cuerdas sí es posible entender la gravedad en un formalismo cuántico, explica Ramos, ya que los componentes fundamentales cuánticos que rigen las interacciones gravitacionales son cuerdas en lugar de partículas. Los gravitones (partícula hipotética que sería responsable de transmitir la fuerza gravitacional a nivel cuántico) tradicionalmente son considerados partículas puntuales cuyas interacciones conducen a cantidades que divergen, es decir, cantidades que crecen infinitamente y que, por lo tanto, son inmensurables.
“La teoría de cuerdas se deshace de todas las cantidades divergentes encontradas al momento en que se trata de cuantizar ingenuamente la teoría gravitacional” debido a la suposición fundamental de que las cuerdas -y no las partículas- son quienes rigen las interacciones gravitacionales a pequeñísimas distancias y nos deja solamente con partículas a un nivel de bajas energías o grandes distancias”, partículas (vistas como cuerdas desde el punto de vista de teoría de cuerdas) “que son completamente estables y cuyas interacciones son relacionadas directamente con constantes de acoplamiento entre cuerdas”, y con esto se espera que sea posible construir el modelo que explique nuestro Universo, dice Ramos. https://arxiv.org/pdf/1407.6362v1.pdf
-
Física hasta los dientes: lo último en el análisis dental
Sigue sorprendiendo el alcance que la física tiene por su carácter tan interdisciplinario, ahora la física llega hasta los dientes.
es.wikipedia.orgSe sabe que nuestros dientes están compuestos en un 70% de un material denominado dentina, que es el que aporta su dureza. Sin embargo, no había sido posible estudiarla a detalle, hasta ahora.
La investigadora Maricela Garcés, del Laboratorio de Patología Bucal de la Facultad de Odontología de la UNAM y quien recientemente terminó una estancia sabática en el Instituto de Física, reportó hace unos meses la primera observación de las partes que constituyen la dentina.
Sus resultados, producto de una investigación en conjunto con Constantino Ledesma, de su misma procedencia, y de José Reyes Gasga, investigador del IFUNAM, fueron publicados con el título de "Presence of matrix vesicles in the body of odontoblasts and in the inner third of dentinal tissue: A scanning electron microscopic study" en la revistaMedicina Oral, Patología Oral y Cirugía Bucal.
Antes de llegar al IFUNAM, Garcés utilizaba un microscopio de luz para observar cortes hechos a los dientes por medio de un microtomo (del griego mikros, que significa "pequeño", y tomo, que significa "parte" o "división") aparato que le permite hacer cortes hasta de 5 micras de espesor.
Para ello, obtenía los dientes que se les extraían a los pacientes, generalmente premolares, y los mantenía en una solución que hace que los dientes se mantengan “vivos” como si aún siguieran dentro de la boca. “Ya que están fijados y preparados se meten al microtomo para que los rebane cual si fuera una rebanadora de jamón”, abunda.
Con el microscopio de luz pudo observar las estructuras dentales a un buen nivel, sin embargo, Maricela llegó a un límite en que ya no podía ver más allá.
Entonces llegó al IFUNAM, al Laboratorio de Nuevos Materiales, a cargo de Reyes Gasga, en el que se dedicaron a estudiar la biología de la dentina y de la pulpa dental, que son estructuras importantísimas que conforman nuestros dientes, con un microscopio electrónico de barrido. Con él, encontraron las bases de crecimiento de la dentina.
“Encontré la manera en la que se comienza a producir la dentina de nuestros dientes, que es la estructura fuerte del diente (…) Esto para nosotros fue grande porque hasta la fecha somos pioneros en esta investigación pues no hay nada reportado en la literatura universal,” dice Maricela Garcés a Noticias IFUNAM.
Maricela encontró las estructuras más pequeñas que dan lugar a la formación de la dentina, llamadas calcosferitas (formadas por hidroxiapatita) que no se habían observado en otras investigaciones.
Estas calcosferitas son como pequeñas “esferitas” que se encontraron en la zona donde se une el tejido suave con la dentina. Esta zona de intersección se conoce como complejo pulpo-dentinario.

A la izquierda se observa el esquema de los odontoblastos que a la izquierda se contrasta con la fotografía tomada con el microscopio electrónico de barrido. En ambos se resalta la presencia de las calcosferitas.“El tejido pulpar es un tejido suave, dentro de él ‘viven’ los odontoblastos; las células que crean al tejido duro o dentina”. Los odontoblastos tienen su núcleo dentro del tejido suave y en la parte dura se encuentran sus terminaciones delgadas llamadas prolongaciones de los odontoblastos.
Es justo ahí (en las prolongaciones de los odontoblastos) donde comienza el proceso de liberación de las calcosferitas, las cuales se van depositando en la parte inferior del diente, como sedimento y se va formando la dentina. https://www.medicinaoral.com/pubmed/medoralv18_i3_p537.pdf
-
Descubren un nuevo tipo de caminatas aleatorias en monos capuchinos
El movimiento de los monos capuchinos: ¿instinto o memoria?
Matthias Schrader / Associated PressLos monos capuchinos son característicos por tener en la cabeza pelo negro o marrón oscuro con patillas oscuras, con copetes de pelo sobre las orejas, llegan a vivir aproximadamente 40 años, son cuadrúpedos y la cola la utilizan para la alimentación o para frenarse cuando descienden de los árboles. Se alimenta de frutas, insectos, néctar, hojas, ocasionalmente pájaros, ranas y lagartos pequeños.
Se les puede encontrar en algunos países de Sudamérica, en hábitats selváticos y boscosos. Un cuarto de su tiempo lo dedican al descanso, poco más de eso en viajes y más de la mitad en alimentarse.
Y aunque en apariencia serían únicamente los biólogos los interesados en entender su comportamiento, en realidad también la ciencia de la complejidad (que analiza sistemas complejos desde diversas disciplinas) los ha tomado como objeto de estudio para responder una pregunta interesante: los monos capuchinos ¿se mueven al azar o no?

Monos capuchinos en la naturaleza.Los físicos Denis Boyer y Citlali Solís-Salas reportan una posible respuesta en el artículo “Random walks with preferential relocations to places visited in the past and their application to biology” (Paseos aleatorios con reubicaciones preferenciales a los lugares visitados en el pasado y su aplicación a la biología), publicado enPhysical Review Letters, el 18 de junio del 2014.
En estudios previos, investigadores reportaron que muchos animales caminan o deambulan de manera aleatoria como si fueran “caminatas azarosas” (Random Walk –RW- en inglés) como los llamados “vuelos de Lévy” donde movimientos cortos se mezclan con movimientos largos (que se dan con menor frecuencia que los cortos).
Estos vuelos de Lévy, y en general los modelos de movilidad animal y humana, son procesos Markovianos (llamados así por el matemático ruso Andréi Márkov) que se basan en un principio: carecen de "memoria", es decir, la probabilidad de que ocurra un suceso no depende de eventos anteriores.
Sin embargo, estudios recientes reportados en Nature Physics o PLos ONE, indican que si se analizan los movimientos individuales de animales o humanos por un tiempo prolongado se revelan resultados distintos: surgen efectos no-Markovianos, en otros términos que los sucesos no son independientes entre sí y son más bien fuertemente correlacionados en el tiempo.
Boyer explica que “muchos animales tienen capacidades cognitivas sofisticadas y un uso de la memoria que les permite moverse a lugares conocidos que no están en su rango de percepción inmediata”.
Los movimientos de estos animales no dependen de un evento inmediatamente anterior sino de eventos guardados en su memoria por mucho tiempo, que ellos (de una forma aún por descubrir) rescatan y utilizan para moverse. https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.112.240601
-
Las mentiras piadosas unen a la sociedad
Algunas mentiras pueden ser realmente esenciales para el buen funcionamiento de la sociedad.
https://www.taringa.net/Mentimos... y mentimos mucho. Estudios recientes, elaborados con base en encuestas en Estados Unidos, revelan que el promedio de mentiras por día de la población es de 1.65. Y a pesar de lo común que resulta mentir en nuestra sociedad, se ha preservado la idea de que mentir es malo, que el deshonesto termina mal y causa daño a todo aquel afectado por sus mentiras.
¿De verdad lo es? ¿Cómo es que a pesar de tanta deshonestidad seguimos siendo una sociedad funcional?
En un artículo publicado el pasado 23 de julio en la revista Proceedings of the Royal Society B., Rafael A. Barrio, del Instituto de Física de la UNAM, junto con Gerardo Íñiguez y Kimmo Kaski, de la Aalto University School of Science, Tzipe Govezensky, del Instituto de Investigaciones Biomédicas de la UNAM, y Robin Dumbar, de la Universidad de Oxford, intentaron responder estas preguntas.
“En este trabajo, nos centramos en el impacto que la mentira tiene en la coherencia y la estructura de las redes sociales y usamos un modelo reciente de dinámica de opinión para explorarla”, mencionan los autores en el artículo.
Como nos enseñan desde la infancia, algunas mentiras son peores que otras, las llamadas “mentiras blancas” suelen tener un “buen” motivo y no afectan de manera tan negativa como las “mentiras negras” o malintencionadas que por lo general tienen un motivo que beneficia a quien la dice y perjudica a quienes las reciben.
En su artículo “Effects of Deception in Social Networks”, Rafael Barrio y colegas denominan a las blancas como “mentiras pro-sociales” y a las negras como “mentiras antisociales”.
"Un ejemplo de mentira pro-social sería decirle a tu hijo de 7 años que su melodía en el violín suena muy bien, para que no se desanime, aunque suene horrible. Una mentira antisocial sería decirle a un amigo que su esposa lo engaña con otro", explica Barrio.
El modelo consistió en recrear una red social en la que cada individuo que la conforma tiene una opinión acerca de un tema en particular que varía entre estar totalmente de acuerdo y totalmente desacuerdo. Estas opiniones son afectadas por las interacciones con los demás individuos y por el promedio de las opiniones de la red completa.
Cuando las opiniones difieren demasiado, los enlaces entre la red se debilitan y cuando sucede lo contrario se fortalecen.
“En el estudio cada individuo tiene asignadas dos variables, que pueden tener un valor entre 1 (totalmente de acuerdo) y -1 (total desacuerdo). Una representa su verdadera opinión y por lo tanto es privada, y la otra es la opinión que los demás creen que tiene. El tamaño de la mentira es la diferencia entre estos dos valores”, comenta Barrio.
Cuando las mentiras de los individuos contribuyen a la cohesión de la red, o sea que la diferencia de opiniones disminuye, fueron consideradas pro-sociales, mientras que aquellas que tienden a diversificar en mayor medida la opinión fueron llamadas antisociales.
Lo que encontraron después de echar a andar la simulación es que, como suele decirse, los excesos son siempre malos. Cuando todo mundo es honesto, la red se vuelve una masa en la que no existe diversidad de opiniones, lo que no contribuye a tener una red equilibrada. Y por otro lado, cuando todos son deshonestos en una manera antisocial, es decir, con el fin de obtener un beneficio personal sin importar el beneficio general de la red, la diversidad es demasiada y tampoco se logra un equilibrio.
Así pues, de acuerdo con los investigadores, el equilibrio se logra cuando existe una cierta cantidad de engaño por parte de los individuos de la red social. Siempre y cuando este engaño sea pro-social o, lo que es igual, que al llevarlo a cabo se tome en cuenta el beneficio de la red completa.
Los resultados del estudio se pueden apreciar en la siguiente gráfica, en la cual se muestran los efectos de las mentiras pro y antisociales en sociedades totalmente honestas, semi-honestas o totalmente deshonestas. https://rspb.royalsocietypublishing.org/content/281/1790/20141195.full.pdf+html?sid=55a84284-5e22-4fae-bf6c-46ed4dadd30f
