Claude Shannon

A Claude Elwood Shannon, un matemático nacido en Gaylord, Michigan (EE. UU.) En 1916, se le atribuyen dos importantes contribuciones a la tecnología de la información: la aplicación de la teoría booleana a la conmutación electrónica, lo que sienta las bases para la computadora digital y el desarrollo de un nuevo campo. llamada Teoría de la información . Es difícil exagerar el impacto que Claude Shannon ha tenido en el siglo XX y la forma en que vivimos y trabajamos en él, pero sigue siendo prácticamente desconocido para el público en general. Shannon pasó la mayor parte de su carrera, un lapso de más de 20 años desde 30 hasta 1941, en Bell Labs, donde trabajó como matemático dedicado a la investigación.

Mientras estudiaba en el MIT a fines de la década de 1930, Shannon trabajó para Vannevar Bush, quien en ese momento estaba construyendo una computadora mecánica, el Analizador Diferencial. Shannon tuvo la idea de aplicar la lógica booleana de dos valores a los circuitos eléctricos (que podrían estar en cualquiera de dos estados: encendido o apagado). Este sincretismo de dos campos hasta ahora distintos le valió a Shannon su maestría en 1937 y su doctorado en 1940.

No contento con sentar las bases lógicas tanto del conmutador telefónico moderno como de la computadora digital, Shannon inventó la disciplina de la teoría de la información y revolucionó el campo de las comunicaciones. Desarrolló el concepto de entropía en los sistemas de comunicación, la idea de que la información se basa en la incertidumbre. Este concepto dice que a mayor incertidumbre en un canal de comunicación, más información se puede transmitir y viceversa. Shannon utilizó las matemáticas para definir la capacidad de cualquier canal de comunicaciones para optimizar la relación señal-ruido. Imaginó la posibilidad de comunicaciones sin errores para telecomunicaciones, Internet y sistemas de satélite.

Una teoría matemática de la comunicación , publicado en Bell Systems Technical Journal en 1948, describe los principios de su teoría de la información. La teoría de la información también tiene ramificaciones importantes para el campo de la criptografía, como se explica en su artículo de 1949. Teoría de la comunicación de los sistemas de secreto - en pocas palabras, cuanta más entropía tiene un sistema criptográfico, más difícil es romper el cifrado resultante.

Los variados intereses de jubilación de Shannon incluían inventar monociclos, saltadores motorizados y robots para jugar al ajedrez, así como hacer malabares; desarrolló una ecuación que describe la relación entre la posición de las bolas y la acción de las manos. Claude Shannon murió el 24 de febrero de 2001.