martes, 23 de septiembre de 2014

El concepto de magnitud

Hiparco clasificó las estrellas en categorías, que denominó magnitudes. A las estrellas más brillantes que eran visibles poco después de la puesta de Sol, les asignó la primera categoría o primera magnitud. Las estrellas que eran aproximadamente la mitad de brillantes las denominó de segunda magnitud, y así sucesivamente hasta encontrarnos que las estrellas más débiles visibles a simple vista en un cielo negro y transparente son las de sexta magnitud.
En el siglo XIX, en un intento de cuantificar mejor la escala de magnitudes, se atendió al hecho de que las estrellas de sexta magnitud son unas 100 veces más débiles que las estrellas de primera magnitud, lo que supone que entre dos magnitudes sucesivas hay una diferencia de brillo de aproximadamente 2,5, o más exactamente, igual a la raíz quinta de 100 (a este número se le conoce como coeficiente de Pogson). Si queremos saber pues cuál es la diferencia de brillo entre dos estrellas, sólo debemos multiplicar 2,5 por sí mismo tantas veces como diferencias de magnitud haya entre las estrellas. Por ejemplo, una estrella de magnitud 10, es aproximadamente 2,5x2,5x2,5x2,5=40 veces más débil que una de sexta magnitud (exactamente 39,81 veces). Puesto que las estrellas también pueden adquirir brillos intermedios, el cálculo de magnitudes incluye fracciones de magnitud o decimales, por lo que directamente diremos que por ejemplo una estrella posee un brillo de 8,77 magnitudes, ó 5,02 magnitudes, etc.
Una de las características curiosas de la escala de magnitudes es que la magnitud aumenta cuando el brillo disminuye y viceversa, la magnitud disminuye cuando el brillo aumenta. Como consecuencia los objetos muy brillantes adquieren magnitudes negativas. Por ejemplo, una estrella que sea aproximadamente 2,5 veces más brillante que otra de 1ª magnitud, tendrá una magnitud menos, por lo que al restar 1 a 1, quedará magnitud 0. Si tenemos otra estrella que a su vez sea 2,5 veces más brillante que otra de magnitud 0, como que su brillo en magnitudes es una unidad inferior, resultará un brillo de -1 magnitudes, y así sucesivamente. El astro más brillante del cielo es el Sol con una magnitud de -27, después le sigue la Luna llena con una magnitud de -12, y a continuación Venus con una magnitud máxima de -4,5.
El brillo que podemos medir de las estrellas en el cielo, no nos da una indicación real de lo luminosa que es una estrella. Una estrella poco luminosa pero cercana al Sistema Solar puede aparecer más brillante que otra que sea más luminosa pero que esté más lejos. Al brillo que presenta un objeto tal y como se ve en la bóveda celeste se le denomina magnitud aparente. Sin embargo, para comparar las estrellas entre sí, se calcula el brillo que tendrían si estuviesen situadas a una distancia fija, que arbitrariamente se ha escogido igual a 10 parsecs o 32,6 años luz. A ese brillo se denomina magnitud absoluta. De esta manera, al situar todas las estrellas a la misma distancia, podemos comparar su luminosidad entre sí. La magnitud absoluta del Sol es de 4,86, por lo que apenas sería visible a simple vista.
La magnitud absoluta se puede hallar, si se conoce la magnitud aparente (m) y la distancia (d) en parsecs por medio de la siguiente fórmula:
M = m + 5 – 5 × log d
Tabla comparativa
Estrella 
Magnitud aparente
Distancia (a.l.)
Magnitud absoluta

Estrella 
Magnitud aparente  
Distancia (a.l.)
Magnitud absoluta
Sirius -1.42      8,7 1,4   Antares Variable (0,92 a 1,8) 230 -5,1
Canopus -0,72 230 -3,1   Pollux 1,16 33 1,0
Arcturus -0,06 38 -0,3   Deneb 1,26 650 -7,1
Vega 0,04 27 0,5   Regulus 1,36 78 -0,7
Capella 0,05 46 -0,6   Spica 0,91 190 -3,3
Rigel 0,14 500 -7,1   Dubhe 1,95 105 -0,7
Procyon 0,38   11 2,7   Polaris 2,1 470 -3,2
Altair 0,77   16 2,2   Mizar 2,16 190 1,4
Betelgeuse Variable (0,4 a 1,3) 300 -5,6   Algol Variable (2,1 a 3,4) 100 0,9
Aldebaran 0,86   64 -0,7  

No hay comentarios: