¿Es la fuente del índice de diversidad de Shannon el artículo ‘Una teoría matematica de la comunicación’ o el libro ‘La teoría matematica de la comunicación’?

Buena pregunta! Según Wikipedia ( Índice de diversidad ):

El índice de Shannon ha sido un índice de diversidad popular en la literatura ecológica, donde también se lo conoce como índice de diversidad de Shannon, índice de Shannon-Wiener, índice de Shannon-Weaver y entropía de Shannon . La medida fue propuesta originalmente por Claude Shannon para cuantificar la entropía (incertidumbre o contenido de información) en cadenas de texto . [Matemáticas] ^ {[5]} [/ matemáticas]

La cita [5] dice: “Shannon, CE (1948) Una teoría matemática de la comunicación . The Bell System Technical Journal, 27, 379–423 y 623–656 ”. El enlace en la referencia wiki conduce a otra entrada de Wikipedia :

Una teoría matemática de la comunicación.
(Redirigido desde La teoría matemática de la comunicación )

Una teoría matemática de la comunicación ” es un influyente artículo de 1948 del matemático Claude E. Shannon . Se renombró La teoría matemática de la comunicación en el libro, un cambio de título pequeño pero significativo después de darse cuenta de la generalidad de este trabajo.

¿La diferencia? ” A ” en el título fue cambiado a ” The ” …

Puede obtener una copia del artículo seminal de Shannon de 1948 aquí: Una teoría matemática de la comunicación . Léalo, luego lea el resto de mi respuesta a continuación.

El OP anónimo ha planteado una excelente pregunta , ya que la respuesta arroja una luz brillante sobre el hecho de que la “entropía de Shannon”, desde su inicio en 1948, ha encontrado su camino en muchas áreas donde simplemente no pertenece (como la física, la astrofísica, economía, ecología y muchos más): la entropía de Shannon solo es aplicable a la teoría de la comunicación de la información , en ninguna parte y en nada más .

El propio Claude Shannon estaba preocupado por la forma en que su idea de “entropía de la información” se había descontrolado rápidamente, y publicó un artículo de una página en 1956, titulado apropiadamente ” The Bandwagon ” (lo siguiente se transcribe de Hmolpedia ( Enciclopedia de termodinámica humana) , Human Chemistry, and Human Physics ), de una imagen escaneada del artículo original, publicado en la página de Hmolpedia Shannon Bandwagon ):

El carro
Claude E. Shannon
Marzo de 1956

La teoría de la información, en los últimos años, se ha convertido en una especie de carro científico. Como herramienta técnica para el ingeniero de comunicación, ha recibido una cantidad extraordinaria de publicidad tanto en la prensa científica como en la popular. En parte, esto se debe a las conexiones con campos tan de moda como las computadoras, la cibernética y la automatización; y en parte a la novedad de su tema. Como consecuencia, quizás ha aumentado en importancia más allá de sus logros reales . Nuestros colegas científicos en muchos campos diferentes, atraídos por la fanfarria y por las nuevas vías abiertas al análisis científico, están utilizando estas ideas en sus propios problemas. Se están aplicando aplicaciones a la biología, la psicología, la lingüística, la física fundamental, la economía, la teoría de la organización y muchas otras: en resumen, la teoría de la información actualmente está participando de un borrador un tanto fuerte de popularidad general .

Aunque esta ola de popularidad es ciertamente agradable y emocionante para quienes trabajamos en el campo, conlleva al mismo tiempo un elemento de peligro. Si bien consideramos que la teoría de la información es de hecho una herramienta de valor para proporcionar información fundamental sobre la naturaleza de los problemas de comunicación y seguirá creciendo en importancia, ciertamente no es una panacea para el ingeniero de comunicación o, a fortiori, para cualquier otra persona. Rara vez se revelan más de unos pocos secretos de la naturaleza a la vez. Será demasiado fácil para nuestra prosperidad algo artificial colapsar de la noche a la mañana cuando nos demos cuenta de que el uso de algunas palabras interesantes como información, entropía, redundancia, no resuelve todos nuestros problemas .

¿Qué se puede hacer para inyectar una nota de moderación en esta situación? En primer lugar, Los trabajadores en otros campos deben darse cuenta de que los resultados básicos del tema están dirigidos en una dirección muy específica, una dirección que no es necesariamente relevante para campos como la psicología, la economía y otras ciencias sociales . De hecho, el núcleo duro de la teoría de la información es, esencialmente, una rama de las matemáticas, un sistema estrictamente deductivo . Una comprensión profunda de la base matemática y su aplicación de comunicación es sin duda un requisito previo para otras aplicaciones. Personalmente, creo que muchos de los conceptos de la teoría de la información resultarán útiles en estos otros campos, y de hecho, algunos resultados ya son bastante prometedores, pero el establecimiento de tales aplicaciones no es una cuestión trivial de traducir palabras a un nuevo dominio, sino más bien El lento y tedioso proceso de hipótesis y verificación experimental . Si, por ejemplo, el ser humano actúa en algunas situaciones como un decodificador ideal, esto es un hecho experimental y no matemático, y como tal debe ser probado bajo una amplia variedad de situaciones experimentales.

En segundo lugar, debemos mantener nuestra propia casa en el primer orden de clase. El tema de la teoría de la información ciertamente ha sido vendido, si no sobrevendido. Ahora deberíamos centrar nuestra atención en el negocio de la investigación y el desarrollo en el plano científico más alto que podamos mantener. La investigación es más que la exposición es la nota clave, y nuestros umbrales críticos deberían elevarse . Los autores deben presentar solo sus mejores esfuerzos, y estos solo después de una cuidadosa crítica por parte de ellos y sus colegas. Unos pocos trabajos de investigación de primer nivel son preferibles a un gran número que están mal concebidos o a medio terminar. Estos últimos no son un crédito para sus escritores y una pérdida de tiempo para sus lectores. Solo manteniendo una actitud completamente científica podemos lograr un progreso real en la teoría de la comunicación y consolidar nuestra posición actual.

¡Escucha Escucha! ( énfasis audaz agregado por mí). Desafortunadamente, parece que muy pocos de la comunidad científica escucharon la advertencia de Shannon. Si Shannon supiera hasta qué punto su “entropía de la información”, siete décadas después, ha confundido las mentes de los científicos racionales y lógicos, seguramente se sorprendería hasta el fondo …

Lectura altamente recomendada:

Entropía de información (cotizaciones)

Termodinámica ≠ Teoría de la información: el mayor asunto de Sokal de la ciencia ( Libb Thims (2012))

El papel y el “libro” incluyen el papel idéntico. El libro tiene material introductorio adicional de Weaver (el coautor).