Cuaderno de Cultura Científica: El bisturí que opera ADN | |
- El bisturí que opera ADN
- "Análisis del cerebro: Innovación tecnológica y estrategia interdisciplinar" por Javier de Felipe
- El camino hacia la neoeugenesia
- El Sistema Solar en el encierro de Pamplona
- Armas para las guerras futuras: planeadores hipersónicos
- Una proteína humana para potabilizar agua
- Juegos del mundo: el mancala
- De los eclipses
- Cuando sí es lupus
- Hola robot, ¿me ayudas con esto?
Posted: 06 Jul 2014 03:00 AM PDT La experimentación con animales es parte importante de la investigación en ciencias biomédicas dado que, salvo que se trate de pruebas inocuas, no se puede experimentar con seres humanos. Por ello, para cada problema que se intenta resolver, para cada enfermedad cuyos misterios se quieren desvelar, o para cada fármaco cuya seguridad y eficacia se pretenden evaluar, se busca la especie o variedad animal cuyas características la asemejen lo más posible a nosotros. No hay una especie que sea la más adecuada para todo tipo de experimentos o estudios, por lo que se utiliza aquella que mejor representará a la nuestra en cada caso. Por eso, en el argot científico se utiliza la expresión "modelos animales" para referirnos a las especies concretas con las que se trabaja en cada área. En la actualidad, todas las instituciones científicas de nuestro entorno han de cumplir una serie de requisitos para poder experimentar con animales, de manera que los investigadores están obligados a justificar su uso y, en caso de que sea necesario utilizarlos, de minimizar el sufrimiento que se les vaya a infligir. De hecho, existen comisiones de ética en la investigación que velan por el cumplimiento de esos requisitos, y hasta las editoriales de las revistas mediante las que se difunden los resultados de las investigaciones, exigen que se hagan constar esos elementos en los artículos que se les envían para ser publicados. Como es sabido, hay un movimiento social, llamado animalista, que se opone -con violencia en algunas ocasiones- al uso de animales en la experimentación científica, tanto la que se hace en el campo biosanitario como en otras áreas, como la cosmética, por ejemplo. Hay incluso investigadores que han de ser protegidos por la policía por esa causa. La oposición a experimentar con animales se acentúa cuando las especies utilizadas en las investigaciones se encuentran biológicamente más próximas a la nuestra. De hecho, son las del orden Primates -al que pertenece nuestra especie- las que provocan una mayor oposición a investigar con ellas. Vienen estas consideraciones al caso de un anuncio hecho hace algunas semanas por investigadores de la Universidad Médica de Nanjing, en China. Han conseguido utilizar por primera vez con monos una técnica, dada a conocer en 2013, denominada CRISPR. La técnica es asombrosa pues, haciendo uso de una proteína bacteriana, corta ADN con gran precisión. Es, por así decirlo, un verdadero bisturí molecular, y ha sido considerado uno de los diez mejores descubrimientos de 2013 por la revista Science. Al permitir copiar y pegar fragmentos de ADN con mayor precisión y rapidez que los métodos anteriores, facilitará mucho la obtención de monos transgénicos que, por ejemplo, desarrollen enfermedades, como el alzhéimer o el párkinson, difíciles de recrear hasta hoy en primates no humanos. Se trata, por lo tanto, de facilitar la investigación con modelos animales adecuados a esas enfermedades u otras con las mismas limitaciones. Pero, como era de esperar, la utilización de esa técnica con macacos no ha sido bien recibida por las organizaciones animalistas, que creen que puede acabar conduciendo a que aumente la utilización de monos en la experimentación en las ciencias de la salud. Las posibilidades que ofrece la técnica, según los especialistas, son enormes, pues abre puertas hasta ahora cerradas a la investigación de enfermedades que, como las citadas, están lejos de ofrecer hoy perspectivas de curación o prevención a corto o medio plazo. La controversia está servida, por supuesto, aunque sospecho que ni las autoridades chinas ni los investigadores de ese país van a sentirse concernidos por la oposición animalista al uso del bisturí molecular. Nota: hace unas semanas, Javier Peláez escribió aquí un artículo sobre este mismo tema, con bastante más información sobre los aspectos técnicos.
———————————— Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU ————————- Este artículo fue publicado el 9/2/14 en la sección con_ciencia del diario Deia. The post El bisturí que opera ADN appeared first on Cuaderno de Cultura Científica. |
"Análisis del cerebro: Innovación tecnológica y estrategia interdisciplinar" por Javier de Felipe Posted: 05 Jul 2014 02:59 AM PDT Este texto de Javier de Felipe apareció originalmente en el número 14 (2013) de la revista CIC Network y lo reproducimos en su integridad por su interés. La información procedente del mundo que nos rodea es conducida hacia el cerebro a través de un complicado sistema sensorial consistente en receptores de diversas clases que actúan como transductores; estos transforman los estímulos físicos y químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y darles un significado. Existe una gran variedad de cerebros en el reino animal, pero como además el sistema sensorial es muy distinto entre las diferentes especies, la interpretación, necesariamente, no puede ser la misma; es decir, la interpretación del mundo externo es característica de cada especie. Asimismo, la inteligencia, creatividad, comunicación y relación entre los seres vivos ha alcanzado su máxima capacidad y refinamiento en el ser humano, y esto se debe, principalmente, al notable desarrollo y evolución del cerebro. Aunque el cerebro funciona de forma modular -en el sentido de que está organizado en bloques o sistemas anatómicos y funcionales (como el sistema visual, el auditivo, etc.)-, estos módulos interactúan entre sí para integrar la información que se procesa por separado. No obstante, el estudio de la corteza cerebral es el tema preferido de muchos científicos teóricos y experimentalistas por su implicación directa en diversos aspectos del comportamiento de los mamíferos y porque es la estructura más 'humana' del sistema nervioso del ser humano. Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan extraordinarias y sumamente complicadas y humanas como escribir una poesía o inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar de elementos al de cualquier otra región del sistema nervioso central. Del mismo modo, las propiedades fisiológicas, los neurotransmisores, receptores y otras moléculas que normalmente se encuentran en las neuronas corticales, no son características exclusivas de la corteza, sino que se encuentran también en diversas regiones del cerebro humano y en el de otras especies. De este modo, dos de las metas principales de la neurociencia son, por un lado, establecer cuál es el substrato neural que hace al hombre ser humano, y por otro, conocer el diseño estructural de los circuitos neuronales y cómo estos contribuyen a la organización funcional del cerebro. La neurociencia ha avanzado de un modo extraordinario en las últimas décadas, permitiendo el estudio del cerebro desde múltiples ángulos -genético, molecular, morfológico y fisiológico-, pero el salto de una disciplina a otra es gigantesco y está poco explorado. Por estos motivos han surgido recientemente ambiciosos proyectos a nivel mundial con objeto de aplicar nuevas tecnologías y aunar esfuerzos para abordar el estudio del cerebro de forma interdisciplinar. A continuación se debate el tema de las maquinas 'pensantes' y los proyectos Blue Brain, Cajal Blue Brain y Human Brain Project, como ejemplos de las grandes iniciativas internacionales para investigar el cerebro. Máquinas 'pensantes' A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar limitadas porque pensábamos que algunas facultades eran exclusivas del ser humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene relación con uno de los temas recurrentes desde los tiempos de René Descartes (1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-1954), considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, comienza su clásico artículo Computing Machinery and Intelligence (Turing, 1950) con el siguiente planteamiento: "Propongo considerar la siguiente cuestión: ¿pueden pensar las máquinas?". Al final de su ensayo afirma: "Es de suponer que con el tiempo las máquinas podrán competir con los seres humanos en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con una actividad muy abstracta, como el juego de ajedrez." Cuarenta y seis años después, la sugerencia planteada por Turing se hizo realidad, y el superordenador Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos torneos de ajedrez de 6 partidas cada uno. El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una. Al año siguiente, después de que los programadores introdujesen mejoras en el superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató 3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por qué la idea de la inteligencia artificial provoca una reacción emocional negativa en muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno humano y el de la máquina? La neurociencia computacional está adquiriendo cada vez mayor preponderancia. Parece evidente que para crear un cerebro artificial no es suficiente con replicar cada una de sus partes o sistemas modulares con sus conexiones y organización, sino que es necesario conocer cómo funcionan cada una de estas partes (tareas computacionales) por separado para aprender cómo se generan comportamientos complejos y cómo estos sistemas se integran en una unidad, que es el cerebro. De este modo, se han creado modelos para estudiar cómo se implementan las tareas computacionales a nivel de redes neuronales y cómo estas redes pueden generar comportamientos complejos. Recientemente se ha creado un modelo altamente sofisticado denominado Spaun (acrónimo de Semantic Pointer Architecture Unified Network) que demuestra que diversas tareas, tanto cognitivas como no cognitivas, se pueden integrar en un solo modelo a gran escala (Eliasmith et al., 2012). Spaun está diseñado para responder a secuencias de imágenes visuales (tiene un 'ojo' para la entrada de datos) y se comunica con el experimentador a través del movimiento de un modelo físico de 'brazo' que escribe sus respuestas (salida). El modelo incluye muchos aspectos de la neuroanatomía, neurofisiología y conducta psicológica, y está basado en la simulación de unos 2,5 millones de neuronas que se organizan en subsistemas que se asemejan a diferentes regiones del cerebro. Estos subsistemas están conectados mediante un cableado que proporciona la funcionalidad e integración de dichos subsistemas, y se basa en la simulación de las conexiones anatómicas generales de las regiones del cerebro -incluyendo diversas áreas corticales (como la corteza visual, corteza motora primaria y corteza prefrontal) y centros subcorticales, así como diversas regiones de los ganglios basales y el tálamo-. Además, Spaun no solamente integra percepción, cognición y acción a través de varias tareas diferentes, sino que también puede cambiar de tarea y responder sin necesidad de que el experimentador modifique manualmente los parámetros. Un aspecto interesante es que la arquitectura anatómica y funcional que utiliza Spaun y otros modelos similares está basada en el cableado general entre regiones del cerebro tratadas a modo de 'cajas negras' (por ejemplo, el tálamo [caja A] conecta con la corteza visual [caja B]; o un área cortical X está más conectada con un área Z que el área Y). Es decir, únicamente considerando la relación entre las entradas y las salidas de dichas regiones, prescindiendo total o casi totalmente de su estructura interna. Este tipo de arquitectura se puede denominar black brain architecture (arquitectura cerebral negra), y lo interesante es que, como se ha demostrado, es un modelo excelente para simular ciertas funciones del cerebro que hasta ahora era difícil de creer que pudieran ser realizadas con un ordenador. Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la contestación más satisfactoria es que depende de la complejidad de la tarea y de la respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud como para construir un robot que nos imite, pero realizar las múltiples tareas complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos aspectos del funcionamiento del cerebro, pero hasta que no conozcamos completamente el contenido de estas cajas negras y pasemos de la 'arquitectura cerebral negra' a una 'arquitectura cerebral detallada', en donde además de conocer todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no podremos entender completamente el funcionamiento de cerebro. Otra característica importante es que el cerebro no puede interaccionar con el medio externo de forma determinista, ya que la información disponible es incompleta y variable. Por el contrario, el cerebro tiene que realizar un cálculo probabilístico del estado del mundo y de los posibles resultados de sus respuestas de forma muy rápida, en cuestión de milisegundos, como por ejemplo reconocer un cambio inesperado del entorno, detectar un peligro y decidir una acción. De este modo, el cerebro se podría definir como un instrumento matemático que utiliza algoritmos sumamente eficaces para interaccionar con el mundo externo y resolver problemas. Si descifráramos dichos algoritmos o trucos matemáticos y el sustrato biológico, ello tendría una aplicación inmediata en las ciencias computacionales, permitiendo la creación de una nueva generación de ordenadores y de programas informáticos basados en el diseño biológico del cerebro. Puesto que cada vez son menores las limitaciones tecnológicas y los científicos estamos mejor organizados para abordar el análisis del cerebro, ¿por qué no podría ser posible construir una corteza cerebral in silico (siliconcortex), es decir, una máquina computarizada basada en un modelo realista del diseño anatómico, fisiológico y molecular del circuito cortical? (de Felipe, 2010). Por estos y otros motivos han surgido a lo largo de los últimos años diversos proyectos a escala mundial, entre los que se incluyen Blue Brain, Cajal Blue Brain y Human Brain Project. Proyectos Blue Brain, Cajal Blue Brain y Human Brain Project Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L'École Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro utilizando el superordenador Blue Gene, de IBM. Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir de herramienta para futuras investigaciones en neurociencia y biomedicina. El proyecto no pretende fabricar un cerebro artificial, sino una representación del sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años, imponían su conversión en una iniciativa internacional. En este contexto surge en enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de Tecnología Biomédica de dicha universidad). El proyecto Cajal Blue Brain ha permitido disponer de un equipo interdisciplinar de más de 40 investigadores. En términos generales, este proyecto se fundamenta en la idea que sostienen algunos científicos de que para comprender el funcionamiento del cerebro es necesario obtener primero un mapa detallado de las conexiones sinápticas. Esta reconstrucción a gran escala de los circuitos neuronales pronto será posible gracias a los recientes avances tecnológicos para la adquisición y procesamiento de datos experimentales. Aunque la comunidad científica está dividida en lo relativo a la viabilidad y validez de la hipótesis de partida, es importante hacer notar que ya surgieron objeciones similares cuando se propuso por primera vez el proyecto Genoma Humano, que ahora es considerado sin reservas como un logro científico de gran magnitud. Para el desarrollo del proyecto se cuenta con diversas herramientas y nuevos métodos computacionales que suponen un importante aporte tecnológico. Entre estas herramientas y métodos destacan el desarrollo de técnicas de inyección intracelular e integración y explotación de datos microanatómicos, la utilización del superordenador Magerit (Centro de Supercomputación y Visualización de Madrid, Universidad Politécnica de Madrid) y la nueva tecnología FIB/SEM (microscopio electrónico de doble haz), que permite estudiar a nivel ultraestructural grandes volúmenes de tejido de forma semiautomática, una tecnología esencial para descifrar el sinaptoma (Figura 1). El proyecto Blue Brain ha servido de base para proponer el proyecto denominado Human Brain Project (HBP; fecha de comienzo, octubre 2013), que es mucho más ambicioso y cuenta con la participación de un número mayor de laboratorios e instituciones de todo el mundo (Markram et al., 2011). El principal objetivo de HBP es obtener simulaciones detalladas, desde el punto de vista biológico, del cerebro humano, así como desarrollar tecnologías de supercomputación, modelización e informáticas para llevar a cabo dicha simulación. Estas simulaciones servirán de base para crear nuevas herramientas para el diagnóstico y tratamiento de enfermedades del cerebro, desarrollo de nuevas prótesis para personas con discapacidad, tecnologías informáticas de baja energía con una capacidad de 'inteligencia' similar a la del cerebro con el fin de crear, finalmente, una nueva generación de robots inteligentes. Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP revolucionarán la tecnología de la información, haciendo posible el diseño de ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia energética es extraordinaria, ya que gasta más o menos la misma energía que una bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000 ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/ hora). Los modelos del cerebro nos ayudarán a entender las causas de las enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen Institute y los que están a punto de comenzar como HBP y Brain Activity Map (Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas. No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para el tratamiento de dichas dolencias. Javier de Felipe (Madrid, 1953), es profesor de investigación en el Instituto Cajal (CSIC), especializado en el estudio micro-anatómico del cerebro; doctor en Biología (Universidad Complutense). Dirige el Proyecto Cajal Blue Brain desde 2009 en el Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid; y es co-director de la división Molecular and Cellular Neuroscience del Human Brain Project. Ha sido nombrado Honorary Member de la American Association of Anatomists. Edición realizada por César Tomé López a partir de materiales suministrados por CIC Network The post "Análisis del cerebro: Innovación tecnológica y estrategia interdisciplinar" por Javier de Felipe appeared first on Cuaderno de Cultura Científica. |
El camino hacia la neoeugenesia Posted: 04 Jul 2014 02:59 AM PDT Fue Francis Galton, un polímata británico emparentado con Charles Darwin, quien creó el término "eugenesia" en 1883 basándose en la combinación de raíces griegas que componían "bueno al nacer" o, si se prefiere, "noble por herencia". El término expresaba su idea de mejorar la especie humana biológicamente manipulando su "esencia hereditaria"; esto, según él, se conseguiría deshaciéndose de los "indeseables" y multiplicando los "deseables". La eugenesia se hizo popular tras el redescubrimiento en 1900 de la teoría de Mendel según la cual la composición de los organismos está determinada por ciertos "factores", más tarde identificados con los genes. Los movimientos eugenésicos florecieron en los Estados Unidos, Canadá, reino Unido, Alemania, Escandinavia, en distintos focos de Europa y partes de Iberoamérica y Asia. Los partidarios de la eugenesia insistían en que los genes hacían que las personas fuesen proclives a la pobreza, la criminalidad, el alcoholismo y la prostitución, y que las personas portadores de genes dañinos socialmente estaban proliferando a un ritmo amenazante. Los eugenistas a ambos lados del Atlántico abogaban por un programa que se desarrollaba en dos frentes con objeto de aumentar la frecuencia de los genes "buenos" en la población y disminuir los "malos": por una parte estaba la eugenesia "positiva", favorecedora del nacimiento de personas "superiores", por otra la "negativa", que eliminaba o excluía biológicamente a las personas "inferiores" de la población. Personas de mucho peso apoyaban la eugenesia positiva. El presidente de los Estados Unidos Theodore Roosevelt, preocupado por la disminución del número de nacimientos por mujer entre las de su clase, las animaba a tener más por el "bien de la raza". George Bernard Shaw afirmó que, con objeto de producir más niños superiores, la sociedad debería permitir a mujeres "capaces" concebir niños de varones "capaces" a los que no volverían a ver. Shaw también fue muy elocuente en lo que respecta a la eugenesia negativa, como muestra este vídeo. La eugenesia negativa se extendió en el periodo entre las guerras mundiales mediante las llamadas "leyes de esterilización". Así, la mitad de los estados de los Estados Unidos promulgaron este tipo de legislación, aunque sólo unos pocos, especialmente California, hicieron que se cumpliese. Medidas similares se tomaron en las provincias canadienses de Columbia Británica y Alberta, en Suecia y en Alemania. Las tasas de esterilización se dispararon con la llegada de la Gran depresión de 1929. La esterilización tenía un amplio apoyo que se justificaba porque prometía reducir el coste de las ayudas e instituciones sociales para los pobres. En Alemania, tras la aprobación de la ley en 1934, los nazis esterilizaron alrededor de 225.000 personas en los tres años siguientes, diez veces más que los Estados Unidos en los treinta años anteriores. Curiosamente, se hizo poco para implantar medidas de eugenesia positiva excepto en Alemania, donde, por ejemplo, se daban préstamos en condiciones excelentes a parejas "biológicamente sanas" cuya fecundidad fuese una contribución al Volk alemán. Para alentar el nacimiento de una élite aria, Heinrich Himmler animaba a los miembros de la S.S. a tener cuantos más hijos mejor con mujeres racialmente aptas. En 1936 creó Lebensborn, una asociación que mantenía maternidades para mujeres racialmente aptas, casadas y no casadas, tanto en Alemania como en las zonas ocupadas con presencia de grupos de población arios, especialmente en Noruega. En estos centros las mujeres y los niños recibían la mejor atención médica posible y los niños las mejores atenciones; en caso de necesidad los niños se daban en adopción a parejas "racialmente aptas". Durante los primeros años de Hitler en el poder las políticas eugenésicas y raciales estaban organizadas independientemente, pero empezaron a mezclarse con la promulgación de las Leyes de Núremberg en 1935. En 1939 el Tercer Reich pasó de la esterilización a la eutanasia de enfermos mentales de los asilos alemanes. Todos los judíos pasaron a ser considerados no aptos, una "raza inferior" y destinados a ser eliminados en "la solución final" (la última fase de esta solución hace premonitorio del vídeo de Shaw enlazado arriba). Paradójicamente, también fue a principios de los años treinta cuando comenzaron a aparecer las mayores críticas a la eugenesia, críticas que tenían bien una base científica bien puramente moral. Los científicos aportaban pruebas de que la mayoría de los comportamientos humanos, incluidos los "dañinos", tienen su origen en el entorno tanto o más que en la herencia biológica, asumiendo que esta tuviese algún papel. Por otra parte los defensores de los derechos civiles o los católicos no aceptaban la segregación por clase o raza y se opusieron vehementemente a los programas de esterilización. Tras la Segunda Guerra Mundial, con el descubrimiento por el mundo del Holocausto, la palabra eugenesia pasó a ser una palabra sucia, maldita. El desarrollo de la genética molecular desde los años cincuenta ha llevado a algunos biólogos a proponer una nueva eugenesia, libre de discriminación por raza o clase, con el objeto de hacer desparecer las enfermedades genéticas, lo que provocaría la aparición de un ser humano mejorado en una primera fase y, usando técnicas de ingeniería genética y, si ello es posible, de un ser humano plus (para no decir "superior"), después. Está por ver que un programa eugenésico como este alguna vez sea algo institucionalizado, pero no sería realista negar que, a día de hoy, futuros padres con medios económicos más que suficientes están usando los conocimientos actuales para practicar eugenesia privada. El que esto pueda llevar a distopías varias es una posibilidad a considerar, y quizás no sólo por escritores de ciencia ficción. Este post ha sido realizado por César Tomé López (@EDocet) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU. The post El camino hacia la neoeugenesia appeared first on Cuaderno de Cultura Científica. |
El Sistema Solar en el encierro de Pamplona Posted: 03 Jul 2014 08:06 AM PDT Joaquín Sevilla, profesor de la Universidad Pública de Navarra, y Javier Armentia, director del Planetario de Pamplona, nos explican las dimensiones del Sistema Solar de la forma más peculiar. Este vídeo forma parte del proyecto "Ciencia en el bar", promovido por la UPNA y financiado por FECYT (el bar es el ID punto cero). The post El Sistema Solar en el encierro de Pamplona appeared first on Cuaderno de Cultura Científica. |
Armas para las guerras futuras: planeadores hipersónicos Posted: 03 Jul 2014 02:59 AM PDT Lo furtivo se ha pasado de moda. Bueno, no, en realidad no, para nada, pero ya todo el mundo lo da por sentado y lo tiene en cuenta en mayor o menor grado; es como llevar ropa interior. Pero el último grito militar va de hipervelocidad, y específicamente de los planeadores o deslizadores alto-hipersónicos, que en inglés llaman hypersonic glide vehicles (HGV.) Como su nombre indica, se trata de vehículos no propulsados por sí mismos, pero sí maniobrables, que se lanzan con un cohete espacial, un ICBM o cosa parecida, y son capaces –o deben serlo– de recorrer grandes distancias por dentro de la atmósfera a velocidades muy superiores a las del sonido, en plan misil de crucero súper-rápido. (No deben confundirse con los proyectos de aeronaves propulsadas hipersónicas como el X-51 Waverider o el Ayaks, ni con los vehículos en reentrada atmosférica desde el espacio, ni con los misiles bajo-hipersónicos como el BrahMos II.) Tras estos planeadores se encuentra el nuevo concepto de ataque global instantáneo (prompt global strike), que permitiría alcanzar blancos remotos con armas convencionales (no nucleares) en menos de una hora. De todo este asunto va la noticia que el Pentágono estadounidense filtró a algunos medios amigos el pasado mes de enero.i Hablaba de un cierto vehículo chino llamado WU-14, que aparentemente habría realizado un vuelo a diez veces la velocidad del sonido (Mach 10), ya en el borde del régimen alto-hipersónico (Mach 10 – 25.) Beijing respondió con una nota muy ambigua de apenas dos frases, sin confirmar ni desmentir nada, donde afirmaban que "los experimentos y la investigación científica planeados de China son normales y no están dirigidos contra ningún país u objetivo."ii Poco después, Aviation Week & Space Technology añadía que no hubo un solo vuelo, sino dos, los días 9 y 19 de enero de 2014, desde el centro de lanzamientos espaciales de Taiyuan.iii Se desconocen los resultados. En todo caso, para que tales vuelos se completaran dentro del territorio de la República Popular China (típicamente, hacia los desiertos del Gobi y Taklamakán) no pudieron tener un alcance superior a 3.000 km. Estas noticias bastaron para que a finales de mayo el Congreso de los Estados Unidos financiara una nueva ronda de pruebas del programa norteamericano,iv que después del fracaso de sus HTV-2 hace cuatro años se había quedado un poquito en el limbo.v Porque los amerikantsy ya llevan bastante tiempo en ello: por lo menos desde que la DARPA comenzó el proyecto Falcon en 2003, y probablemente mucho antes. En particular, estos HTV-2 alcanzaron Mach 20 sobre el Océano Pacífico el 22 de abril de 2010vi y 11 de agosto de 2011 (video), pero ambos perdieron el control y se autodestruyeron en torno a los nueve minutos de vuelo (de los treinta previstos.)vii viii ix Se ve que los militares necesitaban agitar un poquito el peligro amarillo, o el rojo, o el que fuera para conseguir más pasta, y eso fue lo que lograron con las noticias sobre el WU-14 chino. Por su parte, el programa alto-hipersónico ruso es mucho más oscuro, pero parece estar nucleado en torno a las ojivas del nuevo misil balístico intercontinental ligero RS-26 Rubezh, parte de su flamante panoplia estratégica diseñada para penetrar las defensas antimisil, que incluiría también al RS-24 Yars, el R-30 Bulavá de lanzamiento submarino y un misil súper-pesado de combustible líquido del que aún no se sabe gran cosa, pero algunos llaman SS-30 Sarmatian.x Una prueba de estas ojivas hipersónicas maniobrables pero no propulsadas, realizada en 2004, aparentemente terminó también en un fracaso,xi como los americanos de seis años después. Los rumores más recientes hablan de un cierto proyecto 4202xii en el complejo de Dombarovskiy, que podría dedicarse al desarrollo de este tipo de vehículos, pero también al de un nuevo sistema antisatélite o… cualquier otra cosa. Como te digo, es todo de lo más opaco. ¿Suena como una carrera armamentística? Bien, aparentemente… lo es. Como mínimo Estados Unidos, China y Rusia están viendo a ver quién es el primero en poner en servicio uno de estos planeadores o deslizadores hipersónicos (si es que alguno no lo ha logrado ya, al menos en parte, y lo mantiene en secreto.) Pero, ¿para qué sirve exactamente un planeador hipersónico? Verás, se dan varias circunstancias. Por una parte, nadie quiere empezar una guerra nuclear en la que todos nos iríamos al demonio (incluso ellos.) De hecho, el uso de armas nucleares tiene un coste político tan alto que no se han vuelto a lanzar contra nadie desde lo de Hiroshima y Nagasaki. Por otra parte, los tan cacareados escudos antimisiles, después de décadas siendo un pozo sin fondo de dinero y frustraciones, comienzan a vislumbrar la capacidad de derribar ojivas balísticas no-maniobrables de largo alcance. Sistemas como el Aegis BMD estadounidense o el S-500 ruso, actualmente en desarrollo, podrían lograrlo bajo determinadas circunstancias. La manera más sencilla de romper un escudo antimisiles es multiplicar el número de misiles, ojivas y ayudas a la penetración hasta saturarlo; los sistemas antimisiles de este nivel suelen salir mucho más caros que los misiles de tecnología equivalente. Sin embargo, esto se traduce en un ataque a gran escala, lo que casi automáticamente conduciría a una guerra generalizada, posiblemente nuclear. Y hoy en día hay numerosos tratados en vigor para reducir el número de lanzadores y ojivas, no aumentarlos. Al mismo tiempo, normalmente tú no quieres empezar una guerra total, sino solamente alcanzar una serie de blancos en conflictos limitados; a ser posible, con armas convencionales de alta precisión en vez de las problemáticas cabezas atómicas, que quedan fatal en los libros de historia. Si encima pudieras hacerlo desde grandes distancias, sin necesidad de desplazar flotas o ejércitos enteros al sector, pues miel sobre hojuelas. Desplazar una flota, o un ejército, cuesta bastante tiempo y mucho dinero (y además siempre corres el peligro de que un enemigo serio te los reviente.) Estos planeadores hipersónicos, si finalmente consiguen hacer lo que se espera de ellos, resuelven varios de esos problemas de un plumazo. Su enorme alcance permitiría atacar objetivos remotos sin necesidad de salir de casa como quien dice. El hecho de que vuelen relativamente bajo, en vez de caer desde el espacio exterior como las ojivas balísticas, retarda su detección (al aproximarse por debajo del horizonte radar.) Su velocidad y maniobrabilidad dificultaría enormemente la posibilidad de interceptarlos, incluso para los escudos antimisil más modernos; no digamos ya si disponen de ayudas a la penetración. Esta misma maniobrabilidad –unida a sistemas de detección precisa del blanco– les permitiría golpear sus objetivos con exactitud, y por tanto basta una cabeza convencional, en vez de las nucleares que garantizan la destrucción del mismo por la vía de aniquilarlo todo en unos kilómetros a la redonda. Si ya de por sí es muy difícil destruir las ojivas balísticas tradicionales, más aún los MIRV que llegan acompañados por modernas ayudas a la penetración, y prácticamente imposible hacerlo con las maniobrables (MaRV), tales planeadores o deslizadores hipersónicos vuelven a poner el marcador a cero en la eterna lucha entre la espada y el escudo. Una lucha muy desigual, en la que la espada cuenta con numerosas ventajas. La espada elige el tiempo, el espacio, el arma, y puede ser actualizada en el último minuto con un coste relativamente bajo. El escudo tiene que estar ahí todo el tiempo, impenetrable por todos sus puntos y por cualquier arma, constantemente actualizado a un coste monumental. Estamos, básicamente, ante una nueva iteración de la espada, que ningún escudo del presente o del futuro próximo podría detener. Por eso, algunos empiezan a hablar ya de nuevos escudos, basados en armas láser o de haces de partículas, que hasta el momento no han demostrado gran cosa pero quizás, con el suficiente tiempo y dinero… etcétera. Y así una y otra vez, como siempre en la larga historia de la violencia humana. Y de la estupidez. Referencias: i Gertz, B. (The Washington Free Beacon): "Hypersonic arms race: China tests high-speed missile to beat U.S. defenses." The Washington Times, 13 de enero de 2014. ii Agencia France Presse: "China just tested a hypersonic missile vehicle." En Business Insider, 16 de enero de 2014. iii Perret, B.; Sweetman, B.; Fabey, M.: "U.S. Navy sees Chinese HGV as part of wider threat." Aviation Week & Space Technology, 27 de enero de 2014. iv Gertz, B.: "Congress funds Army's hypersonic missile after Chinese strike vehicle test." The Washington Free Beacon, 29 de mayo de 2014. v "DARPA refocuses hypersonics research on tactical missions." Aviation week & space technology, 8 de julio de 2013. vi Gobierno de los Estados Unidos: "First Minotaur IV Lite launches from Vandenberg." En la web de la base aérea Vandenberg, Fuerza Aérea de los Estados Unidos, 22 de abril de 2010. vii Waterman, S.: "Plane's flameout may end space weapon plan." The Washington Times, 22 de julio de 2010. viii DARPA: "DARPA hypersonic vehicle advances technical knowledge." Nota de prensa, 11 de agosto de 2011. ix Rosenberg, Z: "DARPA loses contact with HTV-2." Flightglobal, 11 de agosto de 2011. x GlobalSecurity.org: "SS-30 ?? / R-X-? Sarmatian New Heavy ICBM." xi Emelianenkov, A.: "Тайный совет в особняке Демидова." Rossiskaya Gazeta, 2 de febrero de 2005. xii Podvig, P. et al: "Object 370, Project 4202 and construction in Dombarovskiy." Russian strategic nuclear forces blog, 6 de febrero de 2013. Sobre el autor: Antonio Cantó (@lapizarradeyuri) es polímata y autor de La pizarra de Yuri The post Armas para las guerras futuras: planeadores hipersónicos appeared first on Cuaderno de Cultura Científica. |
Una proteína humana para potabilizar agua Posted: 02 Jul 2014 08:00 AM PDT Este texto es una colaboración del Cuaderno de Cultura Científica con Next, donde se publicó originalmente Un grupo de investigadores de la Universidad Chuo (Japón), encabezado por Shuta Yuge, ha conseguido eliminar la bacteria Escherichia coli del agua, potabilizándola, usando microtubos de seroalbúmina humana (SHA). Estaríamos ante una forma ecológica de tratamiento de aguas, especialmente para países subdesarrollados. Publican sus resultados en Chemical Communications. La E. coli es una bacteria muy común y muchas de sus cepas no sólo no son dañinas, sino que forman parte de la flora intestinal, siendo capaces de sintetizar algunas vitaminas. Sin embargo, otras cepas, como la E. coli enterohemorrágica O157, son capaces de matar a un humano. Esto es especialmente problemático en países subdesarrollados donde, al no haber agua corriente tratada, la fruta y las verduras se lavan en agua contaminada, lo que puede provocar intoxicaciones severas e, incluso, la muerte. El elegante método desarrollado por Yuge et al. evita la incorporación al agua de productos que deban permanecer en ella indefinidamente. Comienza depositando microtubos hechos con capas alternas de SAH y poli-L-arginina sobre un molde hecho de policarbonato. Una vez depositadas las capas el molde se disuelve para dejar un tubo hueco una micra de diámetro exterior y 425 nanómetros de diámetro interior, justo el tamaño para que encaje la E. coli. La clave para el éxito del método a la hora de eliminar la bacteria del medio está en la enorme afinidad que tiene la E. coli por la SAH. Es tan efectivo que sólo 1,5 millonésimas de gramo de microtubos añadidas a un litro de agua que contiene 100.000 bacterias es capaz de eliminarlas prácticamente al 100%. El toque final está en que los microtubos incorporan una capa de nanopartículas de óxido ferroso-férrico (Fe3O4), lo que permite retirar los microtubos de la disolución usando un imán, quedando un agua libre de E. coli y de microtubos. Como los microtubos son perfectamente biocompatibles con los humanos sería incluso posible buscarles aplicaciones médicas, ampliando el espectro a otras bacterias. Referencia: S. Yuge, M. Akiyamaa and T. Komatsu (2014) An Escherichia coli trap in human serum albumin microtubes Chem. Commun., Advance Article doi: 10.1039/C4CC03632H Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance The post Una proteína humana para potabilizar agua appeared first on Cuaderno de Cultura Científica. |
Posted: 02 Jul 2014 02:59 AM PDT
Los juegos son, y han sido desde la antigüedad, una parte importante de nuestra cultura, de nuestra sociedad. Todas las personas, desde las más jóvenes a las más mayores, disfrutan jugando. Por este motivo, en la categoría Matemoción del Cuaderno de Cultura Científica nos gusta incluir de vez en cuando alguna entrada sobre juegos relacionados de alguna manera con las matemáticas, en particular, juegos de ingenio. Entradas dedicadas a estos juegos han sido… Mujeres jugando (el juego del molino) Tchuka Ruma, el mancala solitario El salto de la rana, y familia Os recomiendo que las visitéis. Encontraréis juegos que os permitirán pasar agradables momentos, solos o en compañía, así como comentarios interesantes sobre los mismos, su historia y matemáticas. Hoy vamos a dedicar esta entrada del Cuaderno de Cultura Científica a un juego muy antiguo y extendido por todo el mundo, el mancala. Mancala es el nombre genérico que se utiliza para nombrar a toda una familia de juegos, que se suelen jugar entre dos personas, cuyo tablero consiste en varias filas (dos, tres o cuatro) de agujeros, en el suelo o en un bloque de madera, sobre los que se depositan fichas, o "se siembran semillas", y cuyo objetivo es la captura, o "recolección", de estas. Son juegos relacionados con la actividad agrícola. El número de agujeros por fila puede variar mucho de unas zonas a otras, desde 3 o 4 hasta 36 o más aún, siendo en este último caso difícil de jugar únicamente por dos personas, por lo que es habitual que se hagan equipos. Awari, ayo, ba-awa, congklak, dakon, endodoi, kalah –juego moderno inventado en EEUU en 1940-, kale, leab el-akil, mankal'ah l'ib al-ghashim, mbau, pallanguzhi, sungka, toguz khorgol, wa-we (de dos filas), gabata, selus (de tres filas, que son menos habituales que los otros) o bao, chuba, kiarabu, moruba, omweso, owela (de cuatro filas), son algunos de los juegos de esta familia. La palabra "mancala", que es el nombre del juego de esta familia que se practica en Siria y Egipto, es una palabra árabe que significa "mover o trasladar". Los juegos de tipo mancala están muy extendidos por todo el mundo. A lo largo de toda África, Oriente Medio, sur y centro de Asia, Caribe y las Guayanas, y más recientemente, otras partes de América y Europa. Es bastante probable que su origen esté en algún lugar de África (quien sabe si Egipto o Etiopía, aunque se desconoce realmente), y que fuesen los comerciantes árabes quienes los llevaron a Oriente Medio, y de ahí penetrase en Asia. Mientras que los esclavos de origen africano fueron quienes lo llevaron a América. El mancala estuvo presente en diferentes lugares de Europa y en diferentes épocas, a través de sus relaciones con pueblos que jugaban al mismo, pero poco a poco iría desapareciendo. Se desconoce la edad y el origen de estos juegos. Por una parte, la tradición oral de los pueblos africanos en los que se pudo originar y jugar durante siglos, así como lo efímero de los tableros en los que se jugaba (generalmente, filas de agujeros excavados en la tierra o arena, y tableros de madera) dificulta la investigación sobre la edad de estos juegos (que podrían tener más de 3.500 años), así como el lugar donde se originaron. Se suele considerar que los tableros de mancala más antiguos descubiertos son una serie de grupos de agujeros tallados en piedra en los templos de Kurna y Karnak (Egipto) y descritos por Henry Parker en 1909. Estos templos fueron fechados hacia el 1.400 a.c. Así mismo, Parker también escribe que encontró similares agujeros en la pirámide de Menkaura (hacia el 2.500 a.c). Sin embargo, los arqueólogos modernos y expertos en juegos de tablero que han intentado encontrarlos no lo han conseguido, y los únicos agujeros de este tipo que han sido hallados no parecen ser, según los expertos (como por ejemplo, el arqueólogo Ulrich Schadler, director del Museo Suizo del Juego y profesor de la Universidad de Freiburg, o el experto en historia de juegos de tablero, Thierre Depaulis), tableros de algún juego de la familia mancala. De hecho, podrían ser tableros de otro tipo de juegos o agujeros destinados a la contabilidad, pero incluso tampoco está claro que esos agujeros fueran realizados en la época de construcción del templo, y podrían ser muy posteriores. Algo similar ocurre con algunas series de agujeros encontradas en yacimientos neolíticos, como Beidha (Jordania), hacia el 7.000 a.c., o 'Ain Ghazal, anterior al 5.000 a.c, que no parecen tableros de mancala. O con otras familias de agujeros descubiertas por la paleoantropóloga Mary Leakey en el asentamiento prehistórico de Hyrax Hill (Kenia), fechado sobre el 1.500 a.c. También se han encontrado marcas que sugieren la posibilidad de un tablero de mancala en asentamientos romanos, de los primeros siglos de nuestra era, como por ejemplo una fortaleza romana en Abu Sha'ar, en la costa del mar rojo en Egipto. El primer tablero sobre el que los expertos están de acuerdo en asegurar que es un mancala es un tablero de cerámica que se encontró en Aksumite, Etiopia (así mismo, también hay varias series de filas de agujeros sobre piedra que podrían ser tableros de mancala), que está datado entre los siglos VI y VII d.c. Los dos primeros textos conocidos en los que se hace mención al mancala son de finales del primer milenio y de la zona de Oriente Medio. El primero es un libro persa, escrito por Abu abd-Allah Muhammad el-Gahshigar en el siglo IX, y que es el núcleo central de la célebre recopilación medieval de cuentos árabes "Las mil y una noches" (Hazār-o yak shab). Mientras que el segundo es la recopilación persa de canciones y poemas "El libro de las canciones" (Kitab al-aghani), de Abu al-Faraj al-Isfahani. Del siglo X es un tablero de un juego de la familia mancala encontrado en el Monasterio de Santo Domingo de Silos, que pertenecía a una de las hijas de Abd-al-Rahman III (891-961), emir y primer califa de Córdoba, y que se exhibe en el Museo de Burgos. La pieza es un estuche de marfil con forma cilíndrica, en cuyo interior, al abrir el estuche por la mitad, se tienen dos filas de cinco huecos semiesféricos cada una, realizada en talleres cordobeses de Medina Azahara. Consta de una inscripción que dice "Esto fue hecho para la señora hija de Abd-al-Rahman principe de los creyentes". Según parece fue entregado al Monasterio de Santo Domingo de Silos por el Conde Fernán González, como parte de una ofrenda del botín conseguido en la batalla de Osma. Esta pieza recuerda a los tableros del awalé (aunque con 5 agujeros en cada fila, en lugar de los 6 del awalé), como el que aparece en la siguiente imagen. Aunque existen juegos de la familia del mancala que tienen 5 agujeros en cada una de las dos filas, como algunas versiones de los juegos dakon, congklak o sungka. Así mismo, en la ciudad musulmana Ciudad de Vascos (en Navalmoralejo, Toledo), construida en el siglo X y abandonada en el XI, los arqueólogos Yolanda Cosín Corral y Constantino García Aparicio según han publicado en la Revista de Arqueología, podrían haber encontrado 12 tableros de mancala, y también tableros de otros juegos, como el Alquerque. Pero lo más interesante de un juego es… jugar. Por lo tanto, vayamos con las reglas de uno de los juegos más extendido de tipo Mancala, el awari (también conocido con los nombres awalé, oware o wari). Es un juego para dos jugadores. El tablero del awari consiste en dos filas de 6 hoyos, con 4 semillas en cada uno de ellos, y opcionalmente, dos hoyos en los laterales para colocar las semillas que recolecta cada uno de los jugadores. Los dos jugadores irán moviendo por turnos. Cada movimiento se divide en dos partes, la siembra y la recolección. Cada jugador mueve semillas de "su" fila (la más cercana) y recolectará de la fila de su oponente. Siembra: cada jugador (por turnos) elegirá uno de "sus" hoyos y distribuirá las semillas que contiene, una a una, en los siguientes hoyos, en el sentido contrario a las agujas del reloj (pudiendo darse la vuelta completa, sin sembrar en el hoyo inicial). Si el jugador cuya fila es la de abajo siembra las 7 semillas del agujero que se marca en rojo en la primera imagen, las semillas quedan repartidas en los siguientes agujeros, siguiendo el sentido contrario a las agujas del reloj, como se muestra en la segunda imagenSi un jugador no puede sembrar en su turno, porque no hay semillas en sus agujeros, el otro deberá realizar una siembra que le proporcione semillas. Recolección: si la última semilla sembrada cae en un hoyo rival que contenga 2 o 3 semillas (tras la siembra), estas son capturadas por el jugador.Una vez realizada la captura, si el hoyo anterior también contiene 2 o 3 semillas, se capturan, y así hasta que se llegue a un hoyo en el que no sea posible la recolección o al extremo de los huecos del jugador contrario. Jugada de siembra y recolecciónUn jugador no puede realizar una siembra que deje al adversario sin semillas (si es la única jugada posible o ya se ha realizado, se realiza la siembra, pero sin recolección). En esta jugada del jugador de la fila de abajo, al realizar la correspondiente recolección dejaría sin semillas al jugador de la fila de arriba, por lo cual no se puede realizar esa siembra y en caso de haberse realizado, entonces no se podrán recolectar las semillasEl final de la partida se producirá en alguno de los siguientes casos: i) un jugador no tiene semillas en su lado y el otro jugador no puede suministrárselas en una sola jugada, en este caso este último jugador se queda con las semillas del tablero y gana el que tenga más semillas; ii) hay pocas semillas y se entra en bucle, entonces cada jugador se queda con las de su fila y gana el que más fichas tenga; iii) un jugador ha conseguido capturar más de 24 semillas, y gana la partida. Imagen 12 (Pie de imagen: tablero para jugar al bao o al kiarabu) Las reglas de otros juegos de la familia mancala, como por ejemplo el congklak, el kalah, el sungka, el ayo o el kiarabu, pueden encontrase en la literatura que se recomienda en la bibliografía de esta entrada. Así mismo, existen algunos juegos de la familia mancala pensados para un solo jugador. Uno es el tchuka ruma, del que ya hablamos en el Cuaderno de Cultura Científica. Para finalizar, el awari, como muchos otros juegos, en especial los que podríamos llamar "matemáticos", son de gran interés en el campo de la inteligencia artificial, donde se desarrollan algoritmos para resolverlos. En 2002, John W. Romein y Henri E. Bal (Universidad Libre de Amsterdam) demostraron que si los dos jugadores "jugaban a la perfección" al awari, quedarían en tablas, como ocurre en el conocido juego del tres en raya, aunque en este último juego es mucho más sencillo de probar. Para demostrar que el juego acaba forzosamente en tablas si lo jugasen jugadores "perfectos", los informáticos Romein y Bal elaboraron un programa informático que analizó los resultados de las 889.063.398.406 posiciones posibles del juego, para lo cual se necesitaron 51 horas de cálculos realizados por un grupo de ordenadores en paralelo con 144 procesadores. Tableros de mancala (de izquierda a derecha y de arriba a abajo) de Guinea-Biassau, Sierra Leona, Uganda y de la cultura Tuareg, pertenecientes al Museo de BrooklynBibliografía 1.- Juan Diego Sánchez Torres, Juegos de tablero, para el aula y otros lugares, Ed. CCS, 2008. 2.- Claudia Zaslaski, Math games and activities around the world, Chicago Review Press, 2003 3.- Robbie Bell, Michael Cornelius, Juegos com tablero y fichas, Estímulos a La investigación matemática, Labor, 1990. 4.-Awalé, www.awale.info 5.- Stewart Culin, Mancala, the national game of Africa, Smithsonian Institution, United States National Museum, 1896. 6.- Alex de Voogt, Mancala, Games that Count, Expedition 43, n.1, 2001, p. 38-46. 7.- Philip Townshend, African Mankala in Antropological Perspective, Current Anthropology 20, n. 4, 1979, p. 794-796. 8.- Ralf, Gering, Mancala timeline 9.- Museo de Burgos 10.- Revista Mon Aualé. Revista divulgativa de los juegos mancala (en catalán) 11.- Y. Cosín Corral, C. García Aparicio, Alquerque, mancala y dados: juegos musulmanes en la ciudad de vascos, Revista de Arqueología 19, n. 201, p. 38-47. 12.- Tableros de mancala de Al-Andalus 13.- Clifford A. Pickover, El libro de las matemáticas, Librero, 2009. 14.- John W. Romein y Henri E. Bal,Solving the Game of Awari using Parallel Retrograde Analysis, IEEE Computer 36, n. 10, 2003, p. 26-33. Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica The post Juegos del mundo: el mancala appeared first on Cuaderno de Cultura Científica. |
Posted: 01 Jul 2014 02:59 AM PDT Ocurre que los diámetros angulares del Sol y la Luna para un observador en la superficie de la Tierra vienen a ser prácticamente los mismos. Ocasionalmente los dos cuerpos se alinean y el Sol se ve eclipsado por la Luna. El primer registro de un eclipse solar conocido es un informe chino del 2136 a.e.c. La sombra proyectada por la Luna apenas intersecciona la superficie de la Tierra por lo que cada eclipse solar total sólo puede observarse desde una trayectoria estrecha. Un eclipse total dura como mucho siete minutos. La aplicación de la física gravitatoria newtoniana para el cálculo del movimiento orbital de la Luna permitió a Edmond Halley realizar por primera vez la predicción de la trayectoria de un eclipse solar en 1715. Un eclipse solar total da la oportunidad de observar características solares que de otra forma son muy difíciles de apreciar. A mediados del siglo XIX los astrónomos habían asociado la corona y las protuberancias visibles durante los eclipses totales con la atmósfera solar exterior. Los espectros de destello (flash) de la cromosfera se tomaron en 1870 y para los años treinta del siglo XX se había establecido que la corona estaba altamente ionizada y que su temperatura media era muy superior a 1.000.000 ºC. El estudio de los eclipses solares también ha dado otro tipo de información. Así, el análisis detallado de los informes de testigos oculares de las posiciones de las trayectorias de eclipses del pasado indica que la Luna se está alejando gradualmente de la Tierra, lo que hace que el día aumente del orden de dos milisegundos cada siglo. Arthur Eddington usó el eclipse solar total del 29 de mayo de 1919 para "confirmar" la teoría general de la relatividad de Einstein. El campo gravitacional del Sol desplazaba los haces de luz proveniente de estrellas que pasaban tangencialmente a la superficie solar en una cantidad algo parecida a los 1,75 segundos de arco predichos por la teoría. Los eclipses lunares ocurren cuando la Luna pasa por el cono de sombra que proyecta la Tierra. La medición precisa de los tiempos de las diferentes fases del eclipse lunar y el conocimiento del diámetro angular de la luna y del radio de la Tierra permitió a Aristarco de Samos, en el siglo III a.e.c., deducir que la Luna se encuentra a unos 60 radios terrestres de la Tierra. Los eclipses en otras partes del Sistema Solar también han sido significativos en la historia de la astronomía. En el siglo XVII Ole Rømer cronometró los eclipses de las lunas de Júpiter tras el planeta cuando la Tierra estaba en diferentes posiciones de su órbita. Esto le dio suficiente información para hacer un cálculo de la velocidad de la luz. Galileo, que había descubierto los satélites en 1609, propuso que estos eclipses, junto con las coincidencias ópticas entre los satélites, podrían ser la base de un reloj estándar, visible desde diferentes partes de la Tierra. Sin embargo, la principal aplicación de un reloj de este tipo, la determinación de la longitud en los barcos en alta mar, no podía llevarse a cabo porque el manejo de un telescopio como el necesario para determinar las coincidencias era inviable a bordo. Más recientemente (entre 1985 y 1991) los eclipses de Caronte por Plutón han llevado al cálculo preciso de los tamaños y colores de ambos cuerpos. La importancia de los eclipses estelares se empezó a conocer gracias a Edward Pigott y John Goodricke. Tras observar las variaciones en brillo de la estrella Algol (Beta Persei) en los años ochenta del siglo XVIII, propusieron que las alteraciones podrían estar causadas por un planeta de la mitad del tamaño de Algol aproximadamente que orbitaría alrededor de la estrella y que la eclipsaba de vez en cuando. Entre 1843 y alrededor de 1870 Friedrich Argelander produjo toda una serie de datos más precisos de las variaciones de brillo debidas a eclipses estelares. En 1919 Gustav Müller y Ernst Hartwig publicaron un catálogo con 131 estrellas binarias que se eclipsaban. Joel Stebbins introdujo el fotómetro de selenio en 1910 y con el descubrió el mínimo secundario en la curva de luz de Algol, lo que indicaba que su acompañante era una estrella débil y no un planeta. El análisis de la luz de las binarias que se eclipsan permite obtener información de los tamaños y luminosidades de ambas estrellas. Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance The post De los eclipses appeared first on Cuaderno de Cultura Científica. |
Posted: 30 Jun 2014 02:59 AM PDT Los seguidores de la serie House estarán familiarizados con un fármaco que el famoso doctor prescribía cuando sospechaba que el paciente podía tener lupus: la prednisona, un glucocorticoide. El tratamiento del lupus eritematoso sistémico se ha basado tradicionalmente en la administración de glucocorticoides por vía oral. Sin embargo, es sabido que, a medio-largo plazo, estos fármacos producen efectos secundarios graves. Con el fin de determinar si hay un umbral de seguridad en las dosis de corticoides, el Hospital Universitario Cruces ha llevado a cabo una investigación cuyas conclusiones favorecen el uso de antipalúdicos como tratamiento de base. El lupus eritematoso sistémico (LES) es una enfermedad crónica autoinmune. Puede afectar a diversos órganos, especialmente la piel, las articulaciones y los riñones, aunque presenta una gran variabilidad en el alcance y gravedad, según el paciente. Aproximadamente, nueve de cada diez pacientes son de sexo femenino, y aparece en una de cada mil mujeres. Según explica el doctor Guillermo Ruiz Irastorza, jefe de la Unidad de Investigación de Enfermedades Autoinmunes del Hospital Universitario Cruces, el lupus se ha tratado tradicionalmente con glucocorticoides (prednisona) de manera preferente, a pesar de conocerse desde hace años sus graves efectos secundarios. "Los médicos sabíamos que administrar dosis altas de prednisona de forma mantenida produce daño irreversible, como osteoporosis, necrosis avascular ósea, diabetes o cataratas. Sin embargo, se tendía a asumir esos efectos secundarios como un precio inevitable a pagar a cambio de controlar la enfermedad". Por otra parte, investigaciones recientes del mismo grupo apuntan a que dosis menores de glucocorticoides podrían ser igualmente eficaces. Además, en las formas más graves, la terapia de pulsos, es decir, la administración de forma puntual de altas dosis por vía endovenosa, es altamente efectiva y, probablemente, no conlleva tantos efectos adversos. Así pues, los investigadores del Hospital Universitario Cruces decidieron analizar la relación entre el tratamiento con prednisona por vía oral durante 4 años desde el momento del diagnóstico y el daño acumulado durante los primeros 5 años. Para completar el estudio, también investigaron el efecto de otro glucocorticoide, la metilprednisolona, administrada por vía endovenosa, a altas dosis y de forma puntual, en los momentos en el que la enfermedad se manifiesta con mayor severidad. En el estudio participaron 230 pacientes, de las cuales 206 eran mujeres. La edad media a la cual les diagnosticaron el lupus era de 35,75 años. "Vimos que, al final del cuarto año, una gran mayoría, el 80 %, había sido tratada con prednisona en algún momento, y al quinto año, casi 4 de cada 10, el 37,8 %, había desarrollado daño", detalla el doctor Ruiz Irastorza. Significativamente, las pacientes con daño habían recibido mayores dosis de prednisona (10,4 mg/día frente a 6 mg/día en las pacientes sin daño). En el estudio específico del daño directamente atribuible al uso de glucocorticoides, los resultados fueron similares, con dosis medias diarias de 11 vs. 7 mg/día, respectivamente. No sólo eso: tal y como sugerían estudios previos, comprobaron que la asociación con el daño comenzaba a partir de dosis medias de 7,5 mg/día. "Es decir, que a partir de esa dosis, pueden aparecer los efectos secundarios permanentes". Por el contrario, los pulsos de metilprednisolona no se asociaron a ningún tipo de daño. Los resultados de la investigación aparecen publicados en Rheumatology. De hecho, estos resultados han confirmado la bondad de las pautas utilizadas en la Unidad de Enfermedades Autoinmunes del Hospital Universitario Cruces desde hace ya varios años. El doctor Ruiz Irastorza destaca que el tratamiento de base en los pacientes con LES deben ser los antipalúdicos, concretamente la hidroxicloroquina, ya que, según asegura, "está probado que son más eficaces a largo plazo que los glucocorticoides para controlar el lupus, y, al mismo tiempo, tienen muchos menos efectos secundarios. El papel de estos últimos debe restringirse al manejo de los brotes de actividad de la enfermedad". "El efecto beneficioso de los antipalúdicos sobre el LES se descubrió casualmente durante la Segunda Guerra Mundial", explica Ruiz Irastorza. "En cualquier caso, se ha visto que como tratamiento de base prolongado son ideales para controlar el lupus, incluso como monoterapia en muchos pacientes, con efectos constatados sobre la supervivencia a largo plazo. Así, reservamos los glucocorticoides para su administración en periodos de actividad, y sabemos que, en los casos más graves, podemos administrar de forma segura y eficaz pulsos de metilprednisolona. En tratamientos de mantenimiento, la dosis de prednisona no debe exceder los 5 mg/día, por lo que en ocasiones debemos asociar otros fármacos inmunosupresores. Creemos que estas pautas combinadas que utilizamos suponen una alternativa más segura y eficaz para los pacientes con LES". Referencia: Ruiz-Arruza I., I. Cabezas-Rodriguez, J.-A. Medina, M.-A. Moran & G. Ruiz-Irastorza (2014). Glucocorticoids and irreversible damage in patients with systemic lupus erythematosus, Rheumatology, DOI: http://dx.doi.org/10.1093/rheumatology/keu148 Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa The post Cuando sí es lupus appeared first on Cuaderno de Cultura Científica. |
Hola robot, ¿me ayudas con esto? Posted: 29 Jun 2014 02:59 AM PDT Cada vez hay más robots y su número y la variedad de actividades en que intervienen no dejan de aumentar. Normalmente solemos pensar en los aspectos estrictamente tecnológicos de la robótica, pero como en tantas otras cosas, la tecnología no lo es todo. Con los robots nos relacionamos, y lo hacemos de una forma diferente a como lo hacemos con cualquier otra máquina o ingenio artificial. De estas cuestiones trató Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto, en una conferencia que impartió el pasado 20 de mayo de 2014 en Bilbao, con el título "Hola robot, ¿me ayudas con esto?". Los robots están ya aquí y no solemos ser conscientes de que tenemos que decidir ya cómo queremos que sean, qué tipo de personalidad queremos que tengan, qué tipo de ética queremos implantar en sus cerebros robóticos o quién debe tomar ese tipo de decisiones. La investigación avanza muy rápido. Solo es cuestión de abaratar un poco el precio y los robots estarán viviendo en nuestra misma vecindad, cuidando de nuestros mayores y de nuestros hijos, vigilando nuestros bancos, o recetándonos antibióticos. Pero la decisión sobre cómo queremos que sean y cuánta flexibilidad y poder queremos darles, debe ser consensuada y muy meditada. Para ello, las investigaciones que se están ya llevando a cabo sobre cómo interactuamos con los robots, cuándo colaboramos bien con ellos y en qué casos podrían aprovecharse de nuestras debilidades, proporcionan información muy valiosa que deberíamos tener en cuenta si queremos anticiparnos a la irrupción masiva de los robots en nuestras vidas. Edición realizada por César Tomé López a partir de materiales suministrados por eitb.com The post Hola robot, ¿me ayudas con esto? appeared first on Cuaderno de Cultura Científica. |
No hay comentarios:
Publicar un comentario