¿Qué es la luz? Esta pregunta ha perseguido a la humanidad durante mucho tiempo. Pero los científicos realizaron experimentos sistemáticos desde los albores de la era científica e industrial, hace unos cuatro siglos. Casi al mismo tiempo, se desarrollaron modelos teóricos sobre de qué está hecha la luz. Al construir un modelo en cualquier rama de la ciencia, es esencial ver que puede explicar todas las observaciones experimentales existentes en ese momento. Por lo tanto, es apropiado resumir algunas observaciones sobre la luz que se conocieron en el siglo XVII.
Las propiedades de la luz conocidas en ese momento incluían
(a) propagación rectilínea de la luz,
- ¿Cuál es el efecto del pH del electrolito sobre la corrosión galvánica (bimetálica)?
- ¿Cómo se vulcaniza el caucho?
- ¿Cuál es la microestructura del acero con poco carbono?
- ¿Es justo suponer que el material contiene información que los científicos aún no han descubierto?
- ¿Cómo podemos diferenciar entre nanotubos, nanorods, nanocables y nanopartículas?
(b) reflexión desde superficies planas y curvas,
(c) refracción en el límite de dos medios,
(d) dispersión en varios colores, (e) alta velocidad.
Se formularon leyes apropiadas para los primeros cuatro fenómenos. Por ejemplo, Snell formuló sus leyes de refracción en 1621. Varios científicos desde los días de Galileo habían tratado de medir la velocidad de la luz. Pero no habían podido hacerlo. Solo habían concluido que era más alto que el límite de su medición. También se propusieron dos modelos de luz en el siglo XVII. Descartes, en las primeras décadas del siglo XVII, propuso que la luz consistiera en partículas, mientras que Huygens, alrededor de 1650-60, propuso que la luz consistiera en ondas. La propuesta de Descartes era simplemente un modelo filosófico, desprovisto de experimentos o argumentos científicos. Poco después, alrededor de 1660-70, Newton extendió el modelo de partículas de Descartes, conocido como teoría corpuscular, lo construyó como una teoría científica y explicó varias propiedades conocidas con él. Estos modelos, la luz como ondas y como partículas, en cierto sentido, son bastante opuestos entre sí. Pero ambos modelos podrían explicar todas las propiedades conocidas de la luz. No había nada para elegir entre ellos. La historia del desarrollo de estos modelos en los próximos siglos es interesante. Bartholinus, en 1669, descubrió la doble refracción de la luz en algunos cristales, y Huygens, en 1678, se apresuró a explicarlo sobre la base de su teoría ondulatoria de la luz. A pesar de esto, durante más de cien años, el modelo de partículas de Newton fue firmemente creído y preferido sobre el modelo de onda. Esto se debió en parte a su simplicidad y en parte a la influencia de Newton en la física contemporánea.
Luego, en 1801, Young realizó su experimento de doble rendija y observó franjas de interferencia. Este fenómeno podría explicarse solo por la teoría de ondas. Se dio cuenta de que la difracción también era otro fenómeno que solo podía explicarse por la teoría de ondas. De hecho, fue una consecuencia natural de la idea de Huygens de wavelets secundarias que emanan de cada punto en el camino de la luz. Estos experimentos no podrían explicarse suponiendo que la luz consiste en partículas. Otro fenómeno de polarización se descubrió alrededor de 1810, y esto también podría explicarse naturalmente por la teoría de las ondas. Así, la teoría ondulatoria de Huygens pasó a primer plano y la teoría de partículas de Newton pasó a un segundo plano. Esta situación continuó nuevamente durante casi un siglo. Se realizaron mejores experimentos en el siglo XIX para determinar la velocidad de la luz. Con experimentos más precisos, se llegó a un valor de 3 × 10 ^ 8 m / s para la velocidad de la luz en el vacío.
Alrededor de 1860, Maxwell propuso sus ecuaciones de electromagnetismo y se dio cuenta de que todos los fenómenos electromagnéticos conocidos en ese momento podrían explicarse por las cuatro ecuaciones de Maxwell. Pronto, Maxwell demostró que los campos eléctricos y magnéticos podían propagarse a través del espacio vacío (vacío) en forma de ondas electromagnéticas. Calculó la velocidad de estas ondas y llegó a un valor teórico de 2.998 × 10 ^ 8 m / s. El acuerdo cercano de este valor con el valor experimental sugirió que la luz consiste en ondas electromagnéticas.
En 1887, Hertz demostró la generación y detección de tales ondas. Esto estableció la teoría ondulatoria de la luz sobre una base firme. Podríamos decir que si bien el siglo XVIII pertenecía al modelo de partículas, el siglo XIX pertenecía al modelo ondulatorio de la luz. Se realizaron grandes cantidades de experimentos durante el período 1850-1900 sobre el calor y los fenómenos relacionados, un área completamente diferente de la física. Se desarrollaron teorías y modelos como la teoría cinética y la termodinámica que explicaron con bastante éxito los diversos fenómenos, excepto uno. y Materia Todo el mundo a cualquier temperatura emite radiación de todas las longitudes de onda. También absorbe la radiación que cae sobre él. Un cuerpo que absorbe toda la radiación que cae sobre él se llama cuerpo negro. Es un concepto ideal en física, como los conceptos de una masa puntual o movimiento uniforme. Un gráfico de la intensidad de la radiación emitida por un cuerpo frente a la longitud de onda se llama espectro del cuerpo negro.
¡Ninguna teoría en esos días podría explicar el espectro completo del cuerpo negro! En 1900, Planck tuvo una idea novedosa. Si suponemos, dijo, que la radiación se emite en paquetes de energía en lugar de continuamente como en una onda, entonces podemos explicar el espectro del cuerpo negro. El mismo Planck consideraba estos cuantos, o paquetes, como una propiedad de emisión y absorción, más que como la luz. Derivó una fórmula que coincidía con todo el espectro. Esta fue una mezcla confusa de imágenes de ondas y partículas: la radiación se emite como una partícula, viaja como una onda y nuevamente se absorbe como una partícula. Además, esto puso a los físicos en un dilema. ¿Deberíamos aceptar nuevamente la imagen de partículas de luz solo para explicar un fenómeno? Entonces, ¿qué sucede con los fenómenos de interferencia y difracción que el modelo de partículas no puede explicar? Pero pronto, en 1905, Einstein explicó el efecto fotoeléctrico asumiendo la imagen de partículas de luz.
En 1907, Debye explicó los calores de sólidos específicos a baja temperatura al usar la imagen de partículas para las vibraciones reticulares en un sólido cristalino. Ambos fenómenos que pertenecen a áreas muy diversas de la física podrían explicarse solo por el modelo de partículas y no por el modelo de onda. En 1923, los experimentos de dispersión de rayos X de Compton de los átomos también favorecieron la imagen de partículas. Esto aumentó aún más el dilema. Así, para 1923, los físicos enfrentaron la siguiente situación.
(a) Hubo algunos fenómenos como la propagación rectilínea, la reflexión, la refracción, que podrían explicarse por el modelo de partículas o por el modelo de onda.
(b) Hubo algunos fenómenos como la difracción y la interferencia que podrían explicarse solo por el modelo de onda pero no por el modelo de partículas.
(c) Hubo algunos fenómenos tales como la radiación del cuerpo negro, el efecto fotoeléctrico y la dispersión de Compton que podrían explicarse solo por el modelo de partículas pero no por el modelo de onda. Alguien en esos días señaló acertadamente que la luz se comporta como una partícula los lunes, miércoles y viernes, y como una onda los martes, jueves y sábados, ¡y no hablamos de luz los domingos! En 1924, de Broglie propuso su teoría de la dualidad onda-partícula en la que dijo que no solo los fotones de luz sino también las ‘partículas’ de materia como los electrones y los átomos poseen un carácter dual, a veces comportándose como una partícula y otras como una onda . ¡Dio una fórmula que conectaba su masa, velocidad, momento (características de partículas), con su longitud de onda y frecuencia (características de onda)! En 1927 Thomson, y Davisson y Germer, en experimentos separados, mostraron que los electrones se comportaban como ondas con una longitud de onda que coincidía con la dada por la fórmula de De Broglie. Su experimento fue sobre la difracción de electrones a través de sólidos cristalinos, en los que la disposición regular de los átomos actuaba como una rejilla. Muy pronto, se realizaron experimentos de difracción con otras ‘partículas’, como neutrones y protones, y estos también se confirmaron con la fórmula de De Broglie. Esto confirmó la dualidad onda-partícula como un principio establecido de la física. Aquí había un principio, pensaron los físicos, que explicaba todos los fenómenos mencionados no solo para la luz sino también para las llamadas partículas. Pero no había una base teórica básica para la dualidad onda-partícula. La propuesta de De Broglie era simplemente un argumento cualitativo basado en la simetría de la naturaleza. La dualidad onda-partícula fue, en el mejor de los casos, un principio, no un resultado de una teoría fundamental sólida. Es cierto que todos los experimentos coinciden con la fórmula de Broglie. Pero la física no funciona de esa manera. Por un lado, necesita confirmación experimental, mientras que por otro lado, también necesita una base teórica sólida para los modelos propuestos. Esto se desarrolló durante las próximas dos décadas. Dirac desarrolló su teoría de la radiación aproximadamente en 1928, y Heisenberg y Pauli le dieron una base firme en 1930. Tomonaga, Schwinger y Feynman, a fines de la década de 1940, produjeron nuevos refinamientos y aclararon la teoría de las inconsistencias que se notaron. Todas estas teorías colocan principalmente la dualidad onda-partícula sobre una base teórica. Aunque la historia continúa, se vuelve cada vez más compleja y más allá del alcance de esta nota. Pero aquí tenemos la estructura esencial de lo que sucedió, y dejémonos satisfechos por el momento. Ahora se considera como una consecuencia natural de las teorías actuales de la física que la radiación electromagnética, así como las partículas de materia exhiben propiedades de onda y partículas en diferentes experimentos, y a veces incluso en las diferentes partes del mismo experimento.