Blogia

SÓLO CIENCIA

Atapuerca

Atapuerca

 

La Sierra de Atapuerca, conjunto montañoso que está situada al norte de la provincia de Burgos, ha cobrado importancia a lo largo del tiempo gracias a los importantes hallazgos arqueológicos que se han encontrado.  El esfuerzo de arqueólogos e investigadores ha permitido que hoy en día Atapuerca tenga fama mundial y sea un referente importante en el estudio de la Evolución Humana. En el año 2.000, la Unesco declaró este complejo arqueológico Patrimonio de la Humanidad y en 1.997 recibió el Premio Príncipe de Asturias de Investigación Científica y Técnica.

Atapuerca es un sistema kárstico, construido por una serie de galerías y conductos subterráneos. En Atapuerca se han encontrado los yacimientos en Cueva y al aire libre. Los que destacan, bien por su buena conservación o por la relevancia de la información que han aportado a las investigaciones, son los que se sitúan en la Trinchera del Ferrocarril como la Sima del Elefante, la Galeria o la Gran Dolina. Aparte se encuentra la Cueva del Mirador y hay más de 50 yacimientos exteriores y un elevado número de monumentos megalíticos como los dólmenes.

La Sima del Elefante contiene los yacimientos más antiguos encontrados hasta el momento en la zona. En la Galería se han encontrado fósiles de edades comprendidas entre 200.000 y 400.000 años. La Gran Dolina se compone de diferentes niveles con edades comprendidas entre un millón y doscientos mil años. La Cueva del Mirador pertenece a la Cueva Mayor. En la Cueva del Mirador se han encontrados yacimientos que pertenecen a la Edad de Bronce, neolítico y paleolítico superior. En el exterior se han encontrado utensilios líticos que muestran vestigios del paleolítico superior antiguo.

Son muchas las páginas dedicadas a este importante yacimiento. Aquí te incluimos algunas de las que más nos han llamado la atención:

¿Y esta publicidad? Puedes eliminarla si quieres

Algunas breves nociones sobre el lamarckismo

Algunas breves nociones sobre el lamarckismo

Jean Baptiste Lamarck fue el primer naturalista que, oponiéndose a la idea de la invariabilidad de las especies, desarrolló una teoría general de la evolución, explicando sus posibles mecanismos. Mantuvo la opinión de que la naturaleza ha producido gradualmente los diferentes grupos de seres vivos, desde los más simples hasta los más complejos. La teoría de Lamarck se basa en los siguientes principios:

  • El medio ambiente es cambiante.
  • Los seres vivos se adaptan a estos cambios.
  • Para ello, los seres vivos utilizan más unos órganos que otros (uso y desuso).
  • Los órganos más utilizados se desarrollan y se robustecen, los que no se usan se atrofian.
  • Los caracteres adquiridos o perdidos por los seres vivos a lo largo de su vida son transmitidos a sus descendientes (herencia de los caracteres adquiridos).

Estas imaginativas ideas permanecieron en el olvido durante años, aunque después alcanzaron una gran difusión y ejercieron enorme influencia en todo el pensamiento biológico. Pero a pesar de tratarse de una teoría atractiva y fácil de aceptar intuitivamente, es totalmente falsa. Todos los intentos que se han hecho para tratar de demostrar la herencia de los caracteres adquiridos (punto clave de la teoría) han fracasado rotundamente. Hoy sabemos que las respuestas adaptativas de los organismos al medio ambiente no se pueden registrar, de ningún modo, en los genes. Existen muchos ejemplos que muestran que estas características adquiridas no se transmiten a la descendencia (el extraordinario desarrollo muscular de los atletas, costumbres como la de perforar los lóbulos de las orejas, cortar el rabo a ciertas razas de perros).

Algunas breves nociones sobre la teoría de Darwin-Wallace

Algunas breves nociones sobre la teoría de Darwin-Wallace

Charles Darwin aportó multitud de pruebas demostrativas de la realidad de la evolución y elaboró una teoría para explicar su desarrollo, la evolución de las especies por selección natural, que fue publicada en su obra “El origen de las especies” en 1.859. Conocía la práctica del apareamiento selectivo, que consiste en escoger como reproductores a los ejemplares que destacan en las características deseadas. Imaginó que algo semejante a esta selección artificial, dirigida por el hombre para obtener nuevas razas, podría suceder en la naturaleza.

Según su teoría, la suma de pequeñas ventajas logradas por esta selección natural, generación tras generación, daría lugar a las diferentes adaptaciones de los organismos a su medio ambiente.Esto sólo tiene sentido si las variaciones son hereditarias. Esta fue la principal dificultad que encontró la teoría de la selección natural y Darwin no llegó a resolverla, pues aún se ignoraba el mecanismo de la herencia biológica.

De forma parecida a los trabajos de Darwin, el naturalista Alfred Russell Wallace llegó a conclusiones semejantes. La teoría de Darwin-Wallace se basa en los siguientes principios:

  • La mayoría de las especies se reproducen en gran número.
  • Los recursos (alimento, espacio) son limitados.
  • Los individuos de una especie no son iguales entre sí, siempre existe cierta variabilidad.
  • Como consecuencia, se produce una lucha por la existencia en la que sólo sobreviven los mejor adaptados (selección natural).
  • Sus descendientes heredan sus caracteres.

¿De dónde proviene el calor interno de la Tierra?

¿De dónde proviene el calor interno de la Tierra?

Los cálculos de los científicos indican que el calor que posee la tierra debería haber desaparecido hace ya mucho después de tantos miles de años enfriándose, sin embargo, éste sigue ahí, pues prueba de ello es el magma de los volcanes y el calor que proviene de las profundidades de las minas. Es decir, hay algo que está actuando como fuente de calor pero, ¿de qué se trata?

Se ha llegado a la conclusión de que se trata de de la radioactividad generada por el uranio, torio y potasio que quedaron atrapados dentro de la Tierra durante su formación. Dado que estos elementos se desintegran lentamente, liberan partículas que chocan contra el material de la Tierra y lo calientan hasta temperaturas de 5.500 ºC en el núcleo. En la superficie, todo este calor se filtra con una tasa media de alrededor de 58 kW/ kilómetro cuadrado. Vivimos sobre la superficie de un reactor nuclear enorme. 

El artículo completo se encuentra en esta página

D. José Manuel López Nicolás, bioquímico e investigador, visitó nuestro centro

D. José Manuel López Nicolás, bioquímico e investigador, visitó nuestro centro

El pasado miércoles, 21 de noviembre, a las 10’00 horas, D. José Manuel López Nicolás impartió una charla a los alumnos del programa experimental de Bachillerato de Investigación de nuestro centro, el IES "Alcántara" de Alcantarilla. Al acto asistieron también los alumnos de segundo curso de Bachillerato de la modalidad de Ciencias y Tecnología.

Image and video hosting by TinyPic

En su interesantísima y amena exposición habló de la importancia de la investigación y de la divulgación científica, además de presentar su blog "Scientia", que desde el pasado mes de enero ocupa el primer lugar en el ranking internacional “E-buzzing” de blogs de habla hispana de divulgación científica en la sección de Biología, además de encontrarse dentro de los 15 primeros blogs en la sección general de Ciencias.

Image and video hosting by TinyPic

En su blog habla de muchos temas relacionados con la ciencia, destacando sus aportaciones en el campo de la bioquímica, la nutrición, la biotecnología, la tecnología de los alimentos y otras muchas. Además, analiza profundamente diversos aspectos relacionados con la actualidad universitaria desde el punto de vista docente e investigador, e incluso fomenta entre sus propios alumnos y entre cualquier persona interesada la divulgación científica.

D. José Manuel López Nicolás cursó los estudios de la Licenciatura en Ciencias Químicas en la Universidad de Murcia, institución en la que alcanzó el Grado de Doctor en el año 1997. En la actualidad es Profesor Titular del Departamento de Bioquímica y Biología Molecular A de dicha Universidad, donde desarrolla su actividad docente e investigadora dentro del Grupo de Excelencia “Bioquímica y Biotecnología enzimática”.

Su trayectoria profesional queda reflejada en un gran número de publicaciones en revistas científicas internacionales y es autor del libro “Nuevos alimentos del siglo XXI”. Además forma parte de varios proyectos de investigación en el campo de la Bioquímica, la Biotecnología, la Nutrición y la Ciencia y Tecnología de los Alimentos.

Image and video hosting by TinyPic

Un cúmulo camuflado entre la Tierra y la nebulosa de Orión

Un cúmulo camuflado entre la Tierra y la nebulosa de Orión

Recientes observaciones de la Nebulosa de Orión llevadas a cabo por Hervé Bouy (Centro de Astrobiología, CSIC-INTA) y João Alves (Universidad de Viena) revelan que hay un segundo cúmulo masivo de estrellas ligeramente más viejas justo delante de esta nebulosa.

Pese a que los astrónomos sabían desde la década de 1960 que, en un primer plano, existía una población estelar entre el cúmulo y la Tierra, las observaciones han desvelado que esta población es más masiva de lo que se pensaba, y no está distribuida tan uniformemente como lo están los cúmulos alrededor de la estrella Iota Ori o la punta sur de la Espada de Orión.

La importancia de este descubrimiento es doble: por un lado, el nuevo cúmulo identificado es un hermano ligeramente más viejo que el Cúmulo del Trapecio, que está en el corazón de la Nebulosa de Orión; y segundo, lo que los astrónomos han estado llamando Cúmulo de la Nebulosa de Orión es, en realidad, una complicada mezcla de estos dos cúmulos, a la que se suman otras estrellas de la Vía Láctea ajenas a ambos cúmulos.

El investigador Hervé Bouy destaca la necesidad de un profundo trabajo de seguimiento donde “si queremos comprender qué ocurre en esta región, la formación de estrellas en cúmulos, e incluso las primeras etapas de formación de planetas, debemos distinguir estas dos poblaciones que están mezcladas, estrella por estrella”.

"Es difícil encajar estas nuevas observaciones en ningún modelo teórico anterior de formación de cúmulos, y eso es emocionante porque sugiere que hemos estado pasando por alto algo fundamental. Los cúmulos son, con diferencia, la forma preferida de formación estelar en el Universo, pero aún estamos lejos de comprender exactamente el porqué.”, afirma João Alves.

"El misterio más intrigante es que el cúmulo de Iota Ori esté aún formándose tan cerca de su hermano menor"

La Nebulosa de Orión es una de las más grandes del cielo nocturno. Su catalogación se remonta a hace más de 400 años, cuando fue descrita  como “niebla” en los registros que de sus observaciones hacía el astrónomo francés Nicolas-Claude Fabri de Peiresc.

De todas las guarderías masivas de nuestra Vía Láctea, la Nebulosa de Orión es la más cercana a la Tierra. Esto hace que esta región sea especial, ya que ofrece a los astrónomos la mejor herramienta para comprender cómo la naturaleza transforma las nubes de gas muy difuso en soles que queman hidrógeno, estrellas fallidas y, eventualmente, planetas.

Los astrónomos ven en esta nebulosa el mejor banco de pruebas para el estudio de la formación estelar, el modelo de referencia. De hecho, muchas de las medidas establecidas que nos dicen cómo se forman las estrellas provienen de esta importante región como, por ejemplo, las distribuciones de masa en el nacimiento de estrellas y enanas marrones, sus edades relativas, su distribución espacial, y las propiedades de los discos circumestelares en los que se forman planetas que rodean a las jóvenes estrellas de la Nebulosa de Orión.

 

Más información:
http://www.agenciasinc.es/Noticias/Descubierto-un-cumulo-camuflado-entre-la-Tierra-y-la-nebulosa-de-Orion

Arranca la VII edición del concurso de "ES DE LIBRO"

Arranca la VII edición del concurso de "ES DE LIBRO"

Se buscan los mejores trabajos de investigación escolar.

Si tienes:

  • Curiosidad.
  • Ganas de aprender.
  • Interés por cualquier tema (ciencia, música, lengua, tecnología, historia, cine...).

Apúntate al concurso de Es de libro.

Este año, con importantes novedades

  • Todos los trabajos deben presentarse en formato blog.
  • Hay una tableta digital de premio para los alumnos y profesores autores de los mejores trabajos.
  • Se premiará el mejor trabajo en tres categorías: Primer Ciclo ESO, Segundo Ciclo ESO y Bachillerato / FP Grado Medio.

¿Qué hago para participar? 

  1. Inscríbete. Tienes hasta el 18 de marzo del 2013.
  2. Haz un buen trabajo de investigación (buscando buenos temas, usando documentos variados, haciendo entrevistas, experimentando...).
  3. Publica tu trabajo en un blog (puedes utilizar Wordpress, Blogger, Blogia, Blogspot...) 
  4. Envía la dirección de tu blog a Es de libro, antes del 10 de abril. 

Puedes ganar:

  • Alumnos: un cheque regalo de 60 euros para la compra de libros y una tableta digital.
  • Profesores: un cheque regalo de 100 euros para la compra de libros y una tableta digital.
  • Centros: un cheque regalo de 300 euros para comprar libros para la biblioteca escolar.

Entre todos los equipos que presenten un trabajo a concurso se sortearán cheques regalo para la compra de libros, uno por cada categoría de participación, de 30 euros para cada uno de los alumnos del equipo y de 90 para el profesor.

Más información: Sigue el siguiente enlace.

Las tierras raras y la tecnología moderna

Las tierras raras y la tecnología moderna

Tierras raras es el nombre común de 17 elementos químicos: escandio, itrio, y los 15 elementos del grupo de los lantánidos (lantano, cerio, praseodimio, neodimio, prometio, samario, europio, gadolinio, terbio, disprosio, holmio, erbio, tulio, iterbio y lutecio). Aunque no por el hecho de denominarlas “raras” son infrecuentes. De hecho, varias de ellas son incluso abundantes en el planeta, solo que muy caras de extraer, tanto económica como ecológicamente hablando: se ha observado que por cada tonelada de tierra rara obtenida, se pueden generar hasta 15.000 metros cúbicos de desechos tóxicos, que llegan a contaminar tierras fértiles, aguas y la atmósfera, ya que emiten gases nocivos. Pero a pesar de ello, su demanda no deja de aumentar (desde 2010 hasta hoy, la demanda mundial ha pasado de 40.000 a 140.000 toneladas al año) a causa de las aplicaciones que tienen en los aparatos que nos rodean. Estos minerales están presentes en coches, televisores, vitrocerámica, gafas, aviones, baterías, e incluso en los quirófanos.

Además, hay que tener en cuenta que China es el país que abastece el 96% de la demanda mundial, por lo que Estados Unidos, Europa y Japón dependen de él para seguir produciendo, ya que igualar la producción china de tierras raras llevaría mínimo, una década. Por lo que estos países tendrán que pagar precios cada vez más altos a China si quieren seguir creciendo. 

Algunos ejemplos de usos de tierras raras:

  • El itrio se usa para teléfonos, móviles, láseres y lámparas de alta intensidad.
  • El lantano se utiliza para vidrios ópticos especiales y como componente de las pantallas de rayos X.
  • El neodimio es empleado para fabricar airbags, iPhones y sistemas de frenado ABS en los coches.
  • El disprosio tiene la finalidad de componer materiales para láseres y para fabricar discos compactos.

 

-Referencias:

 www.wikipedia.org

www.tendencias21.net

"Las joyas que esconde su móvil", XL Semanal, vol.1305, 2012, págs 48-49.

El calendario cósmico de Carl Sagan

Los científicos han estimado que el universo tiene alrededor de unos 15.000 millones de años, cifra que ridiculiza nuestros tres millones de años como especie inteligente. No podemos, por lo tanto, sentarnos a esperar que la evolución cósmica desfile ante nuestros ojos para entender su funcionamiento. Sin embargo, el hecho de que cada componente estelar (estrellas, galaxias, etc.) se encuentre en una etapa evolutiva diferente nos ha permitido determinar con gran exactitud cómo nacen, cómo evolucionan y cómo se extinguen.

Para tener una idea de la enorme extensión temporal del cosmos, el famoso científico estadounidense Carl Sagan ideó un calendario cósmico en el que la totalidad de los 15.000 millones de años atribuidos al universo transcurren en un año terrestre. Según esta analogía, un segundo representa 500 años de nuestra historia y podemos fechar los acontecimientos más significativos de la siguiente manera:

1 de Enero

00:00 hSe produce el Big Bang, la explosión inicial  que dio origen al universo.

1 de Enero

00:10 hSe produce la formación de los primeros átomos y la energía irradiada va llenando poco a poco el naciente espacio-tiempo.

1 de Septiembre

00:00 hSe produce la formación del Sistema Solar a partir de una nube de gas y polvo.

25 de Septiembre

00:00 hEn la Tierra hacen su aparición los primeros seres vivientes (microscópicos).

15 de Diciembre

00:00 hSe rompe el monopolio de las algas verde-azules con la llamada explosión del Cámbrico, donde los seres vivos se diversificaron de forma violenta adaptándose a los ambientes más diferentes.

24 de Diciembre

00:00 hAparecen los dinosaurios, dominadores absolutos del planeta durante 160 millones de años, hasta su extinción el 29 de diciembre.

31 de Diciembre

23:00 hAparece el Homo Sapiens.

31 de Diciembre

23:59:00 hEl hombre comienza a vivir en la edad de piedra.

31 de Diciembre

23:59:52 hSurge el imperio babilónico.

31 de Diciembre

23:59:56 hEstamos en los tiempos de Jesús y del emperador romano Augusto.

31 de Diciembre

23:59:59 hCristóbal Colón descubre América.

31 de Diciembre

24:00 hTiempo presente.

De acuerdo con este calendario, toda la historia humana transcurre en el último minuto, de la última hora, del día 31 de diciembre. Esto nos da una idea gráfica de lo efímera que ha sido nuestra existencia comparada con la evolución del universo.

La navaja de Occam

La navaja de Occam es un principio de tipo filosófico que es atribuido a Guillermo de Occam, el cual dice que  "En igualdad de condiciones, la explicación más sencilla, suele ser la correcta". Dicho esto, deducimos de ello que en una situación en la cual hay dos teorías que tienen las mismas consecuencias, la más simple tiene más posibilidades de ser la correcta.

Este principio es utilizado sobre todo en ciencia para ayudar a los científicos durante el método científico en sus investigaciones y desarroyos de modelos científicos.

La navaja de Occam no es considerado un principio irrefutable, ya que la explicación más simple es la más probable, pero ello no quiere decir que esta sea la verdadera, en algunos casos la explicación compleja puede ser perfectamente la verdadera.

El principio es fundamental para el reduccionismo metodológico. Occam fue el primero en utilizar este principio de forma filosófica. Este principio no es solamente metodológico, ya que posee características gnoseológicas (teoría del conocimiento) y ontológicas (parte de la metafísica que estudia cómo se ha formado todo lo que hay).

La filisofía de Occam se contraponía a la de Platón, por ello el nombre de esta teoría viene de que Occam "afeitaba como una navaja las barbas de Platón", al eliminar muchas de las entidades ontológicas en las cuales estaba basada la filosofía platónica. De esta manera se enfrendo a muchas tesis sustentadas por la escolástica y rechazó el principio de individualización.

Usos en disciplinas:

·En economía: se utiliza en la teoría microeconómica del comportamiento del consumidor.

·En lingüística: fue utilizado para la revisión de la adecuación explicativa de la gramática generativa de Noam Chomsky. La teoría pasó de sostener la adquisición del lenguaje por medio de un gran número de reglas complejas a explicarlo por la existencia de unos pocos principios parametrizables.

·En teología: Guillermo dijo que o era necesario postular más entes de los necesarios.

·En biología: algunos creacionistas lo usan para defender sus criterios, ya que siempre es más fácil decir que un dios lo ha creado todo que ir investigando la formación de cada cosa en cada caso. Los defensores de la teoría de la evolución (Darwin) afirman que la selección natural se vale por sí sola para explicar las distintas causas de la creación y usan la navaja de Occam para eliminar las explicaciones extranaturales de los fenómenos naturales.

·En estadíctica: el principio tiene aplicaciones de importancia en el análisis exploratorio de modelos de regresión lineal múltiple.

La navaja de Ockham

La navaja de Ockham

La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o principio de parsimonia (lex parsimoniae), es un principio metodológico y filosófico atribuido a Guillermo de Ockham (1280-1349). "En igualdad de condiciones, la explicación más sencilla, suele ser la correcta". Según esto, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.

En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos, más que como un árbitro entre los modelos publicados. En el método científico, la navaja de Ockham no se considera un principio irrefutable de la lógica, y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas, sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, una teoría más simple pero menos correcta no debería ser preferida a una teoría más compleja pero más correcta.

Qué ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una cuestión ambigua. Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de (tipos de) entidades. Otra manera de medir la simplicidad, sin embargo, podría ser por el número de axiomas de la teoría.

La navaja de Ockham se aplica a casos prácticos y específicos, englobándose dentro de los principios fundamentales de la filosofía de la escuela nominalista que opera sobre conceptos individualizados y casos empíricos.

¿Y esta publicidad? Puedes eliminarla si quieres

La navaja de Ockham

La navaja de Ockham

Es un principio metodológico y filosófico atribuido a Guillermo de Ockham (1280-1349).

Cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja : "En igualdad de condiciones, la explicación más sencilla, suele ser la correcta".

En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos. En el método científico, la navaja de Ockham no se considera un principio irrefutable de la lógica, y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas, sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, una teoría más simple pero menos correcta no debería ser preferida a una teoría más compleja pero más correcta.

Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de entidades.

El origen del término ‘La navaja de Ockham’ apareció en el siglo XVI, y con ella se expresaba que mediante ese principio, Ockham «afeitaba como una navaja las barbas de Platón», ya que de su aplicación se obtenía una notable simplicidad ontológica.

Este principio actualmente se aplica en distintas disciplinas como en economía, lingüística, teología, biología, informática y estadística.

La Navaja de Ockham se ha encontrado con multitud de oposiciones por parte de quienes la han considerado demasiado extrema o imprudente (anti-navajas de Ockham). El primero en cuestionarla fue el filósofo Walter of Chatton.

La navaja de Ockham

La navaja de Ockham

Lo que se conoce como la navaja de Occam era un principio muy común en la filosofía medieval y no tuvo su origen con William, fraile franciscano y filósofo oriundo de Ockham, pero debido al uso frecuente que éste le daba a dicho principio su nombre acabó inseparablemente ligado a él.

Este principio dice que la explicación más simple es preferible sobre aquella que es más complicada y que esa explicación debe ser primeramente propuesta con relación a conceptos ya conocidos. Otra forma de verlo es decir que las pocas suposiciones que se necesitan para apoyar una explicación de algo, es lo mejor.

Este principio es usado por los ateos para rechazar la hipótesis del Dios Creador en favor de la evolución natural: si un Dios perfecto hubiese creado el Universo entonces tanto el Universo como sus componentes serían mucho más simples. William sostuvo que la teología natural es imposible. La teología natural utiliza solamente la razón para entender a Dios, mientras que la teología revelada se basa en las revelaciones de las Escrituras.

La navaja de Ockham se aplica a casos prácticos y específicos, englobándose dentro de los principios fundamentales de la filosofía de la escuela nominalista que opera sobre conceptos individualizados y casos empíricos.

La navaja de Ockham

La navaja de Ockham

La navaja de Ockham proviene del filósofo inglés William Ockham, que aplicó la idea de navaja para eliminar los supuestos innecesarios de una teoría.

Según este principio, para explicar un fenómeno determinado, si tenemos dos o más hipótesis, lo más razonable es aceptar el más simple; o sea el que presenta menos supuestos no probados.

Este principio también es conocido como de parsimonia, que en esencia señala, que si ambas explicaciones están en igualdad de condiciones, no hay que tener en cuanta una explicación complicada si existe una más simple.

Esto no quiere decir que la explicación más simple sea la más correcta sino que existen más probabilidades que sea cierta y que es preferible elegirla hasta que haya razones bien fundamentadas para adoptar una alternativa más compleja.

Fuente: http://es.wikipedia.org/wiki/Navaja_de_Ockham

Navaja de Ockham

La navaja de Ockham (navaja de Occam o principio de economía o de parsimonia) hace referencia a un tipo de razonamiento basado en una premisa muy simple: en igualdad de condiciones la solución más sencilla es probablemente la correcta.

El postulado es entia non sunt multiplicanda praeter necessitatem, o "no ha de presumirse la existencia de más cosas que las absolutamente necesarias".

Esta expresión designa el principio metodológico de exigencia de simplicidad elaborado en el siglo XIV por Guillermo de Ockham (ver cita). Se conoce también como principio de economía del pensamiento.

Es un principio atribuido al fraile franciscano inglés del siglo XIV Guillermo de Ockham que forma la base del reduccionismo metodológico. Este principio ya formaba parte de la filosofía medieval aunque fue Occam quien utilizó este principio de forma filosófica. Sin embargo, no solamente es un principio metodológico sino que, además, tiene características gnoseológicas y ontológicas.

Pluralitas non est ponenda sine neccesitate o la pluralidad no se debe postular sin necesidad. En su forma más simple, el principio de Occam indica que las explicaciones nunca deben multiplicar las causas sin necesidad. Cuando dos explicaciones se ofrecen para un fenómeno, la explicación completa más simple es preferible, es decir, no deben multiplicarse los entes sin necesidad. Si un árbol achicharrado está caído en tierra, podría ser debido a la caída de un rayo o debido a un programa secreto de armas del gobierno. La explicación más simple y suficiente es la más probable —mas no necesariamente la verdadera, según el principio de Occam. En el caso del árbol, sería la caída del rayo. Por ejemplo, si uno se encuentra en una ciudad y escucha galopar, es posible que trate de caballos o cebras, pero se debe optar por considerar que son caballos ya que es la opción más probable (aunque no es necesariamente la verdadera).

Esta regla ha tenido una importancia capital en el desarrollo posterior de la ciencia.

El exoplaneta mas proximo y parecido a la Tierra

El descubrimiento de este exoplaneta se debe al teloscopio chileno de la Silla. Fue localizado mediante un sistema de busqueda ´velocidad radial` basado en su Sol angul indicio de movimiento que pueda ser atribuido a la presencia de algun planeta. 

El Alfa Cenaturi Bb, llamado asi tecnicamente, es el planeta mas cercano y con una estrella como el Sol. Orbita a unos seis millones de kilometros de su estrella, muy parecida a la de Mercurio. Se calculado que la temperatura oscila los 1200 grados centigrados.

Aunque el planeta no sea habitable, los investigadores confian en que encontraron planetas mas interesantes en ese sistema estelar. Se espera que en los proximos meses se encuentran algun exoplaneta mas. 

Fuente:

http://www.elperiodico.com/es/noticias/sociedad/descubierto-exoplaneta-mas-similar-tierra-2227920

Descubrimiento del exoplaneta más similar a la Tierra

Descubrimiento del exoplaneta más similar a la Tierra

700 es el número de exoplanetas o planetas fuera de nuestro sistema solar que han sido detectado en los últimos años. Pero me voy a centrar en uno en particular, recientemente localizado por un grupo de astrónomos europeos. Se trata del Alfa Centauri Bb, y es realmente singular. Su particularidad reside en que es el planeta que además de tener un Sol como el nuestro, es el más cercano y con una masa similar a la Tierra (que no significa necesariamente que tenga un tamaño parecido).

Según informes del Observatorio Europeo Austral (ESO), este planeta orbita alrededor de Alfa Centauri B, una de las estrellas del sistema Alfa Centauri, que es el que más cerca está situado de nuestro sistema, a unos 4,3 años luz de la Tierra, y cuenta con un movimiento de traslación muy rápido, esquivalente a unos 3,2 días.

Pero también sabemos que Alfa Centauri Bb orbita a unos seis millones de kilómetros de distancia de su estrella, aproximadamente como Mercurio lo hace con el Sol, por lo que es una distancia demasiado pequeña como para que pueda albergar vida o ser habitable. De hecho, los investigadores han calculado que su temperatura superficial es de 1.500 K, es decir,  aproximadamente 1.200 grados centígrados. 

Pese a esto, los investigadores confían en que este sistema estelar pueda contener nuevos planetas aún más atractivos, e incluso estar situados dentro de la zona de habitabilidad (calculan que puede haber hasta seis más).

En  los próximos meses se llevarán a cabo nuevas mediciones para obtener nuevos datos sobre su atmósfera (si la tiene) y sobre la composición de su superficie, averiguaciones que hasta ahora sólo se han podido llevar a cabo en exoplanetas más grandes.

Referencia: www.elperiodico.com y www.prensalibre.com

 

Innovaciencia

Innovaciencia

El Consejo Superior de Investigaciones Científicas (CSIC), en colaboración con la Fundación Española para la Ciencia y la Tecnología (FECYT), ha puesto en marcha Innovaciencia, un certamen de ideas y proyectos de innovación dirigido a jóvenes con edades comprendidas entre 16 y26 años.

Innovaciencia se propone estimular y dar conocer el talento innovador y emprendedor de los estudiantes de bachillerato, formación profesional y universidad, por medio de un concurso en el que podrán presentar proyectos científicos-innovadores, ideas de negocio o nuevas propuestas de procesos y productos relativos a cualquier área científico-técnica.

Los mejores proyectos serán seleccionados para formar parte de una exposición, que contará con una versión web, y optarán a los tres premios con los que están dotadas las dos modalidades del certamen (Bachillerato/Grado Medio de FP y Universidad/Grado Superior):

  • Primer premio: iPad + 750€
  • Segundo premio: 500€
  • Tercer premio: 250€

En la primera fase del certamen, el jurado -compuesto por investigadores de diversas áreas del conocimiento, empresarios, expertos en propiedad industrial y especialistas del ámbito educativo- seleccionará los mejores proyectos, que pasarán a formar parte de la exposición. En la fase final, los autores de los éstos proyectos expondrán sus trabajos en la sede central del CSIC ante el jurado, tras lo cual éste decidirá las propuestas premiadas.

Los participantes premiados recibirán orientación por parte de investigadores del CSIC para afrontar los siguientes pasos de su carrera científica o profesional.

El plazo para la presentación de los trabajos, que pueden ser individuales o colectivos, concluye el 22 de marzo de 2013.

Más información: INNOVACIENCIA

¿Y esta publicidad? Puedes eliminarla si quieres

La toxicidad del mercurio

La toxicidad del mercurio

El otro día mientras estábamos en clase surgió una pregunta sobre el mercurio que llevó a preguntarnos cuáles eran las consecuencias nocivas que el mercurio puede producir en nuestro organismo. 

El mercurio es un elemento que no se encuentra frecuentemente liberado, por decirlo de alguna manera, a diario. La mayoría del mercurio con el que nos encontramos está encerrado en termómetros, barómetros, bombillas fluorescentes, etc. Al romperse cualquiera de estos objetos, se libera mercurio al que estamos expuestos a través de la respiración durante un efímero espacio de tiempo.

Esta simple exposición al mercurio puede tener consecuecias tales como: daño a los nervios, a los riñones, al cerebro, irritación de los ojos, irritación de los pulmones, reacciones en la piel, vómitos y diarrea.

Otro lugar en el cual es frecuente el mercurio, pero es menos coniocida su presencia es en los empastes dentales que utilizan los dentistas. Entre todos los norteamericanos, tienen en sus empastes mas de 500 toneladas de Mercurio, puro veneno, en sus empastes que a primera vista está bien encerrado, pero eso no es así.

Tras numerosos estudios se ha comprobado que dichos empastes dejan salir vapores de mercurio, lo que es un gran peligro para los hombres en cuestión. El mercurio de estos empastes pueden llegar a desarrollar una esclerósis múltiple y desordenes del Sistema Nervioso Central. Poco a poco se está prohibiendo la inclusión de mercurio en los amalgamas.

El mercurio normalmente es difícil que se incorpore a la alimentación de un ser humano, pero últimamente con la contaminación, se están encontrando restos de mercurio en el pescado, que puede ser potencialmente perjudicial para los fetos de las mujeres embarazadas que coman de estos peces.

También es utilizado en las vacunas, a la edad de 2 años un niño ya ha recibido 237 microgramos de mercurio mediante vacunas, lo que excede los niveles máximos decretados por la EPA. En los últimos años se ha producido una epidemia de autismo, que numerosos investigadores creen que se debe a tales vacunas. El autismo y el envenenamiento por mercurio dañan: Las células cerebrales y nerviosas, los ojos, el sistema inmurológico, el sistema digestivo, el control muscular y el centro del habla.

Un estudio realizado en la universidad de Calgary, Canadá, han demostrado que el mercurio en el organismo pueden causar daños en el sistema nervioso caracterñisticos del Alzheimer. Los niveles de mercurio de estos experimentos son inferiores a los encontrados en numerosas personas con empastes metálicos. Ningún otro material probado causa reacciones ni siquiera parecidas.

Por todas estas causas, el mercurio es uno de los elementos y metales más peligrosos y tóxicos a los que los humanos estamos relativamente expuestos.

 

Fuentes: 

http://www.lenntech.es/periodica/elementos/hg.htm

http://www.mercola.com/article/mercury/no_mercury.htm

El Universo y sus incógnitas presuntamente resueltas

El Universo y sus incógnitas presuntamente resueltas

Cuando hablamos de Universo, tenemos una idea tan vaga de él que comúnmente decimos que es infinito. Pero la comunidad científica sabe que no sólo es finito, sino que además es medible.

Lo primero que debían hacer los científicos era conocer la edad del Universo. Un estudio realizado en el año 2001 reveló que el Universo tiene 13700 millones de años con un rango de error menor al 1%. Esta estimación precisa sobre la edad del cosmos se consiguió a través de una sonda diseñada especialmente para medir y analizar la radiación cósmica de fondo o mejor dicho, los restos del Big Bang.

Después de este dato, la pregunta es: Si tiene 13700 millones de años de antigüedad, ¿la distancia hasta el horizonte cosmológico es de 13700 millones de años-luz? No. Resulta que la distancia hasta el límite observable del universo es bastante mayor que 13700 millones de años-luz debido a la expansión cósmica del espacio. Utilizando el modelo cosmológico Lambda-CDM y los datos más recientes de la sonda WMAP, se obtiene para el radio del Universo observable:
R = 46.500 millones de años-luz. Es decir, el diámetro del Universo observable, según los últimos cálculos en la comunidad científica, sería: D = 2R = 93.000 millones de años-luz.

Entonces la respuesta a la pregunta de cómo tiene un diámetro de 93000 millones de años-luz si su antigüedad es mucho menor, ¿cuál es?. Pues bien, hay que tener muy en cuenta que en los primeros instantes, durante la época inflacionaria, la expansión del Universo tuvo lugar de forma exponencial. Y para llegar a esa cifra exacta se necesita de un complejo conocimiento que, básicamente, implica resolver las ecuaciones cosmológicas de la Relatividad General con una constante cosmológica Λ ≠ 0.

Por tanto, ha quedado claro que aquello de que el Universo es infinito no es más que una mera habladuría. 

Fuentes:

¿Y esta publicidad? Puedes eliminarla si quieres