EVENTOS DE LA HISTORIA DE LA COMUNICACION

jueves, 3 de julio de 2008

TEORIAS DE LA COMUNICACION

CLAUDE ELWOOD SHANNON (1916 - 2001)
Claude E. Shannon nació el 30 de abril de 1916 en Petoskey, estado de Michigan en los EEUU. Parece ser que el héroe de su infancia fue Thomas A. Edison y que en la escuela destacaba en matemáticas y en ciencias.
Los primeros dieciséis años de su vida los pasó en Gaylord, donde asistía a la Escuela Pública, graduándose en la Preparatoria de Gaylord en 1932. Shannon mostraba una inclinación hacia los artilugios mecánicos. En su casa, construyó artefactos tales como modelos de aviones, un barco controlado por radiocontrol y un sistema de telégrafo para usarlo con un amigo que vivía a media milla de su casa.
En el año 1932 comenzó a estudiar ingeniería eléctrica y matemática en la universidad de Michigan, una era práctica y la otra abstracta, le apasionaron durante el resto de su vida. En 1936, ya graduado llego al Instituto de Tecnología de Massachusetts. Al disponer de poco dinero, colaboró con un profesor (Vannevar Bush) para controlar un artilugio mecánico poco manejable, el analizador diferencial.
En su tesis de Doctorado (1937) en el Instituto de Tecnología de Massachusetts (MIT), Shannon describe el empleo de la lógica binaria para simplificar los circuitos eléctricos, a base de interruptores. La tesis, publicada en ”Transactions of The American Institute Of Electrical Engineers”, da una base teórica para la utilización de circuitos de cálculo en los procesadores electrónicos numéricos.
En el mismo año, Claude Shannon demostró definitivamente que la programación de futuros computadores era un problema de lógica más que de aritmética. Demostró que una máquina podía obedecer instrucciones lógicas, y que sus circuitos podían estar cerrados para verdadero, y abiertos para falso. Esto era equivalente a utilizar el uno para verdadero y el cero para falso. El código binario habría de ser utilizado como sistema o alfabeto para las computadoras. Con ello señalaba la importancia del álgebra de Boole, pero -además- sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería decisiva para la construcción del primer computador, el que siguió justamente este modelo.
Shannon terminó en el MIT en 1940 siendo graduado y doctorado en matemáticas. Después estuvo un año de investigador en el instituto para estudios avanzados en la universidad de Princeton, donde trabajó con el matemático y físico Hermann Weyl.
Trabajó en los laboratorios Bell en 1941 como matemático de investigación y permaneció allí hasta 1972.
En 1948, con la colaboración de Warren Weaver, Shannon desarrolló lo que llamó "teoría matemática de la comunicación" -hoy más conocida como "Teoría de la Información", estableciendo el concepto de "negentropía" (la información reduce el desorden) y la unidad de medida del "bit" (binary digit), universalmente conocida y aplicada tanto en telecomunicaciones (que es el campo a partir del cual trabajaron Shannon y Weaver) como en informática.
En 1949 publica "Communication theory of secret systems", donde define los fundamentos teóricos de la criptología y las características del cifrado perfecto: "Un sistema criptográfico cumple los requisitos de seguridad teórica si es irrompible, incluso cuando el criptoanalista tiene tiempo y recursos ilimitados, dándose el secreto perfecto si y solo si la interceptación del texto cifrado no da ninguna información al criptoanalista, salvo su longitud".
Durante su estancia en los Laboratorios Bell, se casó con Mary Elizabeth (Betty). Betty, graduada en matemáticas en la Universidad de Rutgers, trabajaba como analista numérico. Claude y Betty se casaron en 1949 y tuvieron tres niños, Robert, Andrew y Margarita. En su tiempo de ocio Shannon tiene varios hobbies. Intenta correr una o dos millas cada día, y le gustan los deportes que requieren una buena coordinación. Una Navidad, Betty, sabiendo sus aficiones, le regaló un uniciclo. Al cabo de unos pocos días ya daba vueltas alrededor del bloque; en unas cuantas semanas manejaba tres pelotas mientras montaba en el uniciclo. Le gustaban todos los desafíos intelectuales que se le pudieran presentar, entre otras cosas, diseñó una máquina para resolver el cubo de Rubik. Shannon toca el clarinete y le gusta la música además de la poesía.
En los años 50, Shannon giró sus esfuerzos a desarrollar lo que entonces llamaron "máquinas inteligentes", eran mecanismos que emulaban las operaciones de la mente humana para resolver los problemas.
De sus invenciones durante ese tiempo, el más conocido fue con un ratón llamado Theseus, el cual usaba los relevos magnéticos para aprender como maniobrar por un laberinto de metal. Su habilidad para encontrar el camino en un laberinto, demostró que los computadores podían aprender.
Shannon, fue uno de los pioneros de la teoría de la información, definió la información como "el traslado o movimiento de una señal de un punto especifico a otro" allí donde por lo menos existe un transmisor y un receptor para permitir/interpretar el traslado de dicha señal y la señal misma.
En 1954, Shannon escribió un documento llamado "Programar una computadora para jugar al ajedrez". En aquel momento las computadoras eran lentas y muy difíciles de programar. Desde entonces, se han escrito muchos programas para jugar al ajedrez siguiendo muy de cerca el sistema descrito en ese documento escrito por Shannon.
Sus teorías llegaron a ser una piedra angular en el campo de la inteligencia artificial, y en 1956 convocó una conferencia en el Colegio de Dartmouth que era el primer esfuerzo en organizar investigaciones en ese campo.
Las técnicas de probabilidad elemental usadas por Shannon no despertaron, inicialmente, el menor interés dentro de la comunidad matemática. Fue, recién entrado en 1956 con A. Kolmogorov y toda la escuela soviética de probabilidades cuando se tuvo una visión de que los resultados de Shannon se podían generalizar en relevantes teoremas de la Teoría ergódica y de la Teoría de la medida.
En 1956 Shannon fue propuesto para ser profesor en el M.I.T. para el curso 57-58. El año siguiente llegó a ser un miembro permanente de la M.I.T. como Profesor de Ciencia, donde continuó investigando en varias áreas de la teoría de comunicación.
El modelo de Shannon era originalmente más bien abstracto y matemático, y el trabajo principal para desarrollarlo y hacerlo más comprensible fue realizado por D.E. Broadbent en su libro "Perception and Communication" (1958).
Un joven ingeniero y matemático de 32 años publicó un artículo en la revista Bell System Technical Journal, con un título prometedor: "Una Teoría Matemática de la Comunicación". El hombre en quien antes tan sólo se habían fijado sus colegas profesionales más próximos, debido a sus ideas sofisticadas y originales, intentaba demostrar en su artículo que la información puede medirse independientemente de cualquier connotación semántica, y más aún, que cada fuente de datos puede ser descrita en términos unívocos respecto a su contenido de información. Pero sobre todo, aseguraba que una transmisión libre de errores es posible cuando la velocidad es menor que la denominada capacidad del canal. Tales asertos provocaron un considerable interés y le dieron un renombre en el campo de las comunicaciones.
Antes de Shannon no existía una definición formal útil de información, de tal manera que tal concepto pudiera materializarse dentro de un dispositivo o sistema técnico concreto. Los criterios imperantes hasta entonces para el diseño de esquemas (análogos) de transmisión eran más o menos los de la relación señal/ruido y la anchura de banda requerida. Otros términos más sofisticados como los de entropía o capacidad del canal ni siquiera figuraban en la mente de los expertos reconocidos en este campo.
Su brillante contribución, en buena medida se materializa en el artículo "A Mathematical Theory of Communication", en el que se crearon las condiciones que permitieron el desarrollo de la moderna teoría de la comunicación. El artículo no es en sí mismo muy voluminoso ni tampoco se basa en profundos estudios anteriores. Tan sólo contiene dos referencias de importancia, una de ellas a un trabajo de Nyquist publicado en 1924, en el que se demuestra que un señal contínua en el tiempo y confinada en una banda puede describirse unívocamente de forma discretizada temporalmente si la frecuencia de muestreo es el doble de su anchura de banda. La segunda fuente de importancia, anteriormente citada, era el trabajo de Hartley (1928) en el que se asocia la cantidad de información al logaritmo de la probabilidad del mensaje en el cual se codifica.
El nombre de Shannon se asocia a dos teoremas que tuvieron una grandísima importancia en el desarrollo de la ciencia de la computación y en las comunicaciones digitales. El primero señala que el número de bits necesarios para describir unívocamente una fuente de información puede aproximarse al correspondiente contenido de información tanto como se desee (teorema de codificación de la fuente). El segundo teorema declara que el ratio de errores de los datos transmitidos en un canal confinado y con ruido puede reducirse a una cantidad arbitrariamente pequeña si la velocidad de transmisión es menor que la capacidad del canal (teorema de la codificación del canal).
Las consecuencias de las consideraciones de Shannon arrojaron una luz significativamente esclarecedora sobre la comunidad de científicos e ingenieros. El primer teorema fue aceptado sin discusiones, entre otra razón porque con anterioridad no existía ninguna teoría comparable ni contrapuesta. En cuanto al segundo, el teorema de la codificación del canal, hubo un rechazo inicial debido en buen parte a la dificultad para comprenderlo desde el punto de vista terminológico y de notación matemática. Sin embargo, su validez y tremendo significado fue puesto en evidencia un poco más adelante por los científicos que desarrollaron la teoría de la codificación: Hamming, Elias, Bose, Reed, Berlekamp, Forney y Vierbi, entre otros.
La comunicación como un proceso se suele describir mediante el modelo teórico propuesto por Claude Shannon.

MODELO TEÓRICO PROPUESTO POR SHANNON
Shannon originalmente desarrolló el modelo con vistas a la tecnología de la comunicación, pero hoy en día es también usado en la investigación de la comunicación artística. El modelo de Shannon muestra cómo un mensaje siempre es "codificado", es decir, interpretado, al menos dos veces. El artista primero pone su mensaje en el lenguaje de la obra de arte y el público entonces lo interpreta en su propio lenguaje. El mensaje alcanza al receptor sólo en la medida en que ambos códigos sean congruentes. Por otro lado, el modelo de Shannon muestra cómo las perturbaciones modifican el mensaje y afectan a la interpretación del mismo por el receptor.
En 1961, un autor (Tribus) preguntó a Shannon qué era lo que había pensado una vez confirmada su famosa medida. Shannon contestó: "Mi mayor preocupación era cómo llamarla. Pense en llamarla 'información', pero la palabra estaba demasiado generalizada, por lo que decidí llamarla 'incertidumbre'. Hablando de ello con John Von Neumann, me dio una idea mejor. Von Neumann me dijo: 'Deberías llamarla entropía, por dos razones: en primer lugar, porque tu función de incertidumbre ya ha sido usada en mecánica estadística con ese nombre, por lo que ya tiene un nombre; en segundo lugar, y más importante, nadie sabe lo que es verdaderamente la entropía, por lo que en un debate siempre tendrás ventaja".
Muchos documentos de Shannon se han traducido en varios idiomas extranjeros. Los científicos rusos, tenían un gran interés en la teoría de información.
En 1965 le invitaron a Rusia para dar conferencias. Allí, tuvo la oportunidad de reunirse con Mikhail Botvinnik, quien fue durante años el Campeón de Ajedrez del Mundo. Botvinnik, también un ingeniero electrónico, estaba interesado en programar problemas de ajedrez. Shannon recuerda la conversación que mantuvieron como interesante, pero los intérpretes sabían poco de ajedrez o de computadoras. Los avances en programar ajedrez continuaron las siguientes décadas y en 1980 Shannon fue invitado a un Campeonato Internacional de Ajedrez por Computadora que tuvo lugar en Linz, Austria. Dieciocho computadoras de Suiza, Alemania, Rusia, Francia, Inglaterra, Canada y varios de los Estados Unidos participaron. La mayor parte de las computadoras permanecían en su país pero fueron conectadas electrónicamente al vestíbulo del torneo en Linz. El ganador, 'Belle', fue desarrollado por Ken Thompson y Joe Condon de los Laboratorios Bell.
Entre sus premios se encuentran: Alfred Noble (1940), Morris Liebmann Memorial (1949), Franklin Institute (1955), Research Corporation (1956), Medalla de honor de la Universidad Rice (1962), Marvin J. Kelly (1962), Medalla de honor de I.E.E.E. (1966), Jacquard (1978), Harold Pender (1978), el premio Kyoto (1985), el premio Eduard Rhein (1991). Aunque el más importante fue cuando le concedieron la Medalla Nacional de la Ciencia en 1966.
Ofreció multitud de conferencias: Princeton (1958), Oxford (1978)...
Tiene graduaciones honorarias en Yale (Master de Ciencias, 1954), Michigan (1961), Princeton (1962), Edinburgh (1964), Pittsburgh (1964), Northwestern (1970), Oxford (1978), East Anglia (1982), Carnegie-Mellon (1984), Tufts (1987) y en la universidad de Pennsylvania (1991).
Su teoría matemática de la comunicación ha tenido muchas aplicaciones muy interesantes. La principal es el uso que se le da en los sistemas de información en los que proporciona el transfondo teórico para entender el proceso de las telecomunicaciones. Sin embargo, también se utiliza en los campos de la biología, la música, el idioma, la sociología, la física y muchos otros para la comprensión de los procesos básicos de información. Algunos autores afirman que sin la teoría de la información podría no existir la world wide web tal como la conocemos ahora.
Según los investigadores, la teoría de Shannon ha sido concebida por y para ingenieros de telecomunicaciones, y hay que dejárselas a ellos. La comunicación debe estudiarse en las ciencias humanas según un modelo que le sea propio. Estos investigadores estiman que la utilización del modelo de Shannon en lingüística, antropología o psicología ha conducido al resurgimiento de los presupuestos clásicos de la psicología filosófica sobre la naturaleza del hombre y de la comunicación.
Shannon se retiró cuando tenía 50 años, aunque esporadicamente publicó algunos documentos en los diez años siguientes.
El premio Claude E. Shannon del IT (Instituto Tecnológico) fue constituido en su honor en el 1973, debido a sus tan profundas contribuciones realizadas en el campo de la teoría de la información. El primero en recibirlo fue el propio Shannon, a continuación lo han recibido entre otros Irving S. Reed (1982), Robert Gallager (1983), Solomon W. Golomb (1985)...

















CLAUDE SHANNON
El matemático Claude Shannon murió el Sábado 22 de Febrero, a los 84 años de edad, luego de una larga lucha contra el mal de Alzheimer. Pero su legado intelectual perdurará mientras la gente se comunique usando el teléfono y el fax, la Internet, o simplemente hablando de "información" como un recurso que puede ser medido en "bits" y enviado de lugar en lugar. Sigue aún vigente el enfoque de la información y la comunicación que Shannon estableció en su revolucionario trabajo "A Mathematical Theory of Communication" (Una Teoría Matemática de la Comunicación) publicado en el Bell System Technical Journal (Revista Técnica de los Sistemas Bell) en 1948, y vuelto a publicar virtualmente exacto en el panfleto "The Mathematical Theory of Communication" (La Teoría Matemática de la Comunicación), que escribió junto a Warren Weaver el año siguiente (publicado por la Universidad de Illinois). (Observe el cambio de artículo -"La" por "Una"- de la versión Shannon-Weaver).
Shannon nació en Michigan en 1916. Luego de obtener títulos en Matemáticas e Ingeniería en la Universidad de Michigan, ingreso al MIT (Massachussets Institute of Technology) para continuar estudios de postgrado en Matemáticas. Aqui hizo contacto con muchos de los hombres que estaban creando las bases para revolución de la información que explotaría a finales de la Segunda Guerra Mundial, en especial, con el matemático Norbert Wiener (quien más adelante acuñaría el término "cibernética" para parte del trabajo que el mismo, Shannon y otros en el MIT y otras partes), y Vannevar Bush, el decano de Ingeniería en el MIT (cuya máquina conceptual "Memex" prefiguró la moderna World Wide Web y entre cuyos logros subsecuentes se incluye el establecimiento de la "National Science Fundation" -Fundación Nacional de la Ciencia-).
A principios de los años 30, Bush había construído en el MIT una computadora mecánica, analógica llamada el "Analizador Diferencial", diseñada para resolver ecuaciones que eran demasiado complejas para las máquinas (mecánicas) de la época. Aquel gran amasijo de ruedas, diales, engranajes y mecanismos, ocupaba varios cientos de pies de espacio físico, y era puesta en movimiento por motores eléctricos. Preparar el artilugio para trabajar en un determinado problema requería una configuración física de la máquina, y podía tomar dos o tres dias. Luego de que la máquina completaba el ciclo que constituía "resolver" la ecuación, la respuesta era leída midiendo el cambio de posición de varios componentes.
Siempre animoso, Shannon comenzó a trabajar con el Analizador con gran entusiasmo. A sugerencia de Bush, llevó a cabo, para su tesis de Maestría, un análisis matemático de la operación de los circuitos de relés de la máquina. En 1938, publicó los resultados de sus estudios en Transactions of the American Institute of Electrical Engineers (Transacciones de el Instituto Americano de Ingenieros Eléctricos), bajo el título "A Symbolic Analysis of Relay and Switching Circuits" (Un análisis simbólico de circuitos de suicheo y de relés").
La aparentemente mundana motivación de Bush detrás del trabajo que sugirió a Shannon era la necesidad de la industria telefónica de un marco matemático teórico en el cual describir el comportamiento de los crecientemente complejos circuitos de suicheo automático que estaban comenzando a reemplazar a los operadores humanos. Lo que Shannon logró trascendió con mucho ese fin. El artículo de 10 páginas que publicó en Transactions of the AIEE ha sido descrito como uno de los trabajos de ingeniería más importantes que se hayan escrito. Y con mucha razón: en dos platos, estableció la escena para la electrónica digital.
Shannon comenzó notando que, aunque el analizador trabajaba en forma analógica, su comportamiento en cualquier instante, estaba gobernado por la posición de los suiches de relés, y estos siempre estaban en una de dos posiciones: abiertos o cerrados ("on" u "off"). Esto le hizo recordar el trabajo del lógico del s. XIX George Boole, cuyo análisis matemático de las "leyes del pensamiento" fué llevado a cabo usando un álgebra en donde las variables tienen sólo los valores "de verdad" T ó F (True or False, 1 ó 0). De allí sólo había un simple --pero de gran importancia-- paso para pensar en usar circuitos de relés para construir una "máquina lógica" digital, que pudiera llevar a efecto no solo cálculos numéricos, sino otros tipos de "procesamiento de información".
En 1940, Shannon obtuvo su doctorado en Matemáticas, y fué al Instituto de Estudios Avanzados de Princeton donde trabajó con Hermann Weyl como un "National Research Fellow". El año siguiente, aceptó una posición en Laboratorios de la Bell Telephone en New Jersey, donde se reunió con un grupo de investigación que estaba tratandod e desarrollar formas más eficientes de transmitir la información y de aumentar la confiabilidad de las líneas telefónicas y telegráficas de larga distancia.
En los años 50, Shannon se interesó en la idea de la "inteligencia de máquinas", y fué uno de los promotores --junto a sus alumnos, que pronto serían famosos John McCarthy y Marvin Minsky __ de la hoy en dia legendaria conferencia de 1956 en el Dartmouth College en New Hampshire, donde se considera que nació la Inteligencia Artificial (o AI) como se conoció más tarde. Pero mientras que otros (McCarthy y Minsky entre ellos) estarían siempre asociados a la AI, el nombre de Shannon sería siempre asociado con la teoría de la información y la comunicación que el mundo conoció a través del panfleto de Shannon y Weaver.
Antes del trabajo de Shannon, el trabajo de los matemáticos e ingenieros que trabajaban en la tecnología de las comunicaciones, era el de hallar formas en las cuales podía mantenerse lqa integridad de las señales análogicas que viajaban en un cable, como una corriente eléctrica fluctuante, o a través del aire como una onda de radio modulada. Shannon tomó un enfoque muy diferente. EL vió la "información" codificada completamente de manera digital, como una serie de 0s y 1s --a los cualesse refewría como "bits" (por "digitos binarios"), siguiendo asi una sugerencia de su colega de Princeton John Tuckey. Además de proveer a los ingenieros de comunicaciones con una metodología diferente de diseño de circuitos de transmisión, este cambio de enfoque tambien condujo al concepto de "información" como un producto objetivo, desincorporado de de "remitentes" o "receptores" humanos. Después de Shannon, la cuestion de importancia era: ¿ En que forma se puede enviar, de la mejor manera, una secuencia de pulsos eléctricos o electromagnéticos de un punto a otro?.
Una consecuencia particular de este nuevo enfoque, como el mismo Shannon observó rápidamente, era que mientras aún una pequeña variación en una señal analógica distorsiona --y puede, concebiblemente, corromper-- la información transportada por esa señal, la naturaleza si-no/on-off de la señal digital significa que la información transportada digitalmente es mucho menos propensa a corromperse; realmente, añadiendo algunos bits extra a la señal, la detección y corrección automática pueden ser construidas en el sistema. (Una característica de la codificación digital que, décadas más tarde, permitiría que los usuarios de Napster.com "bajar" archivos de música sobre líneas telefónicas y escuchar los últimos "hits" de la música popular en sus PC con una fidelidad limitada solo por la calidad de los componentes de sonido de la PC, y que se ejemplifica aún más con eldesafío de los fabricantes de discos compactos (CDs) de que Ud. pude abrir un hueco de un centímetro en su CD favorito y aun así escuchar su música perfectamente).
Desde un punto de vista matemático, argüiblemente el aspecto más significativo de la nueva concepción digital de Shannon acerca de lo que es la información --decir exactamente cuanta información lleva una señal particular. La medida es sencilla: simplemente se cuenta el mínimo número de bits que hacen falta para codificar la información. Para hacer esto, se debe mostrar como puede arribar un item dado de información dando las respuestas a una secuencia de preguntas si/no.
Por ejemplo, supongamos que 8 colegas aplican para una promoción: Albert, Bob, Carlo, David, Enid, Fannie, Geogina e Hilary. Luego que el jefe ha decidido la persona para el cargo, ¿Cuál es el mínimo número de preguntas si/no que se deben hacer para descubrir su identidad?. Un poco de reflexión indican que la respuesta es 3. Luego, el contenido de información del mensaje que anuncia quien obtuvo el cargo tiene 3 bits. He aqui una forma de arribar a este resultado:
Primera pregunta: ¿ EL sexo de la persona es masculino ?
Esto recorta el número de posibilidades de 8 a 4.
Segunda pregunta:¿ El nombre de la persona termina en vocal ?
Esto reduce el campo a tan solo dos personas.
Tercera pregunta:¿ Es la persona, la más alta de las dos ?
Aqui ya tiene uno su respuesta. Por supuesto este conjunto particular de preguntas asume que ningun par de aplicantes al final tiene la misma estatura. Más aún, se escogieron cuidadosamente los nombres y sexos para tener cuatro mujeres y cuatro hombres, con nombres cuidadosamente escogidos. Pero el principio trabaja con cualquier ejemplo. Lo que se necesita es un marco en el cual una serie de preguntas de si ó no (u otra desición binaria) divida por la mitad repetidamente el número de posibilidades, hasta que solo quede una posibilidad. (Si el número de posibilidades al inicio no fuera una potencia de 2, habrá una pequeña redundancia en la secuencia de decisiones, pero aún asi se tendrá una medida del contenido de información. Por ejemplo, si hubiera 7 candidatos (en vez de 8), el contenido de información para la decisión final aún sería de 3 bits.)
Construyendo sobre esta simple idea, Shannon fué capaz de desarrollar un contenido completo de la teoría de la información cuantitativa, que ha sido de enorme importancia para los ingenieros que tienen que decidir cuanta "capacidad de canal" requiere, en un punto dado, una red de comunicaciones. Tan completo fué su análisis inicial que, aunque se puede encontrar la teoría descrita en muchos textos contemporáneos, tambien se puede ir directamente al panfleto original -conjunto con Weaver- de 1949 . Excepto por un detalle: el nombre "teoría de la información" tiende a confundir.
Tal como ha sido notado por cierto número de autores (incluyéndome, en mi libro de 1991 Logic and Information), la teoría de Shannon no trata directamente con "información" tal y como es entendida comunmente esta palabra, sino más bien con datos --la materia prima de la cual se obtiene la información. (Ver mi libro InfoSense para una discusión sobre la diferencia.) En la teoría de Shannon lo que se mide es el tamaño de la señal binaria. Sin importar lo que denota esta señal. De acuerdo con la medida de Shannon, cualquier par de libros de 100.000 palabras tienen exactamente el mismo contenido de información. Esto es algo de utilidad (aunque tiende a confundir) si tu objetivo es transmitir ambos libros digitalmente por la Internet. Pero si uno es un manual de instrucciones para construir un submarino nuclear y el otro una novela sin mucho valor, nadie diría que ambos libros contienen la misma cantidad de "información".
Por la misma razón, cualquiera que piense que la cantidad de ionformación del trabajo de Shannon de 1948 puede ser capturado por la frase: "100 páginas valiosas", seguramente ha estado en trance durante los últimos 50 años, en los que las ideas de Shannon han transformado el Mundo.









WARREN WEAVER (1894-1978)
Nacido en Reedsburg, Wisconsin, en 1894. Estudió en la Universidad de Wisconsin. Inició su actividad docente en el Throop College de Pasadena (1917-1918) y en el California Institute of Technology (1919-1920), antes de ingresar en la Universidad de Wisconsin, donde enseñó durante doce años y fue director del Departamento de Matemáticas (1928-1932). En 1932 fue nombrado director de la División de Ciencias Naturales del Instituto Rockefeller, que ejerció hasta 1955, y más tarde vicepresidente de la División de Ciencias Naturales y Médicas (1955-1959). Desde el Instituto Rockefeller promovió el trabajo de los científicos jóvenes, especialmente en líneas de investigación como la genética y la 'biología molecular', término que enunció el propio Weaver en 1932. Durante la segunda guerra mundial encabezó el Applied Mathematics Panel, que reunió a destacados científicos en el estudio de soluciones que tendrían una gran influencia en los desarrollos de la posguerra. Vicepresidente del Instituto Sloan-Kettering de investigación sobre el cáncer (1950).
Interesado en el estudio de los procesos técnicos de la comunicación durante los años de la guerra (criptografía, decodificación automática, etc.), en 1949 escribió con Claude E. Shannon The Mathematical Theory of Communication. Este mismo año, en un informe para la Fundación Rockefeller, Weaver señaló que existía una analogía entre la decodificación mecánica y la traducción, por lo que promovió la investigación para el desarrollo de sistemas de traducción automática, cuyos primeros resultados aparecieron en la Universidad de Georgetown con el empleo de las lenguas rusa e inglesa.
Fue un entusiasta en los beneficios para el desarrollo y progreso de la sociedad a través de la divulgación de la ciencia (en 1954 fue nombrado presidente de la American Association for the Advancement of Science). En 1967 publicó Science and Imagination. Escribió una autobiografía bajo el título Scene of Change. A Lifetime in American Science, Scribners, Nueva York, 1970.
Entre las numerosas condecoraciones, le fue otorgada la medalla británica por la Cause of Freedom (1948), la de oficial de la Legión de Honor de Francia (1951), el premio Kalinga de la UNESCO (1964), así como diversos doctorados 'honoris causa', entre ellos por la Universidade de São Paulo (1952).
PENSAMIENTO Y EXPRESIÓN CIENTÍFICA
El papel de Weaver es muy relevante en la definición de la teoría matemática de la información, como hoy se conoce la que en origen se definió como 'The Mathematical Theory of Communication'. Le dio un alcance que en el planteamiento inicial de Shannon no tenía, ya que se restringía al ámbito de los lenguajes máquina y a la transmisión de estos mensajes.
A ambos se debe el conocido esquema lineal de la comunicación, en el que se define la secuencia fuente, transmisor, canal, ruido, receptor y destino.
Las aportaciones del veterano Weaver al joven y brillante Shannon dieron mucha mayor proyección al planteamiento teórico inicial, incluso con un acercamiento al campo de las ciencias sociales. Weaver no hablaba ya de mensajes independientes de su contenido, cuantificables en términos matemáticos y observados en el decurso de su flujo, sino un marco de análisis aplicable, por ejemplo, al mundo de los medios escritos, sonoros, visuales... "La teoría -señaló- revela que se aplican a todas estas formas de comunicación y a muchas otras".
Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.
Weaver define tres planos o niveles en los que se superpone el hecho comunicativo: técnico, semántico y pragmático. El técnico hace referencia a la bondad, capacidad y precisión del emisor para enviar un mensaje; el semántico advierte sobre el significado e interpretación de los mensajes, y el pragmático se ocupa del efecto alcanzado, de la efectividad de la comunicación.

Comunicación, Sociedad y Cultura, Perfil biográfico y pensamiento.
© BDN/Infoamérica.





CLAUDE ELWOOD SHANNON (1916-2001)
Claude Elwood Shannon nació en Petoskey, Michigan (Estados Unidos), hijo del juez de Gaylord y una profesora de secundaria. Desde su juventud se destacó por su inquietud investigadora y su habilidad en la creación de prototipos técnicos, tal vez dando continuidad al talento creativo de su abuelo. Se graduó con premio extraordinario en la Universidad de Michigan en Ingeniería Eléctrica y en Matemáticas.
A los 20 años se trasladó al MIT como ayudante de investigación en ingeniería eléctrica, donde superó, a los 24 años, su tesis doctoral en matemáticas sobre la aplicación del álgebra ‘booleana’ en el análisis de datos (An Algebra for Theoretical Genetics). En el MIT se ocupó en el desarrollo de los primeros ordenadores, cerca de Vannevar Bush, cuyo ‘Memex’ ha sido considerado un claro antecedente de Internet.
A los 25 años publica Mathematical theory of the differential analyzer. También trabajó en los Laboratorios Bell y en el Institute for Advanced Study de Princenton en sistemas de automatización de armas.
Pero su trabajo central no aparecerá hasta 1948, cuando presenta su Teoría Matemática de la Comunicación, un trabajo que ha sido calificado como la ‘carta magna’ de la era de la información (`A Mathematical Theory of Communication', Bell System Technical Journal, Vol. 27, julio y octubre 1948, págs. 379-423 y 623-656, que un año más tarde revisa, en un trabajo enriquecido por Warren Weaver, bajo el enunciado de The Mathematical Theory of Communication, publicado por la Universidad de Illinois). Asimismo se da a conocer el teorema Shannon-Hartley, según el cual sólo es posible eliminar el 'ruido' en la transmisión de información cuando el flujo de información no exceda la capacidad del canal.
La biografía de Shannon está llena de los frutos de su ingenio, con numerosas aplicaciones en el campo de las máquinas automáticas, desde un ratón electrónico hasta un WC automático, pasando por diversos juego electrónicos de ajedrez, calculadoras, instrumentos musicales, juguetes mecánicos, relojes, etc.
Miembro de la Academia Americana de Artes y Ciencias, de la Academia Nacional de Ciencias, de la Academia Nacional de Ingeniería, de la Sociedad Filosófica Americana y la Royal Society de Londres. Entre los numerosos premios recibidos por Shannon, destacan la National Medal of Science en 1966, el Kyoto en 1985, etcétera.
EL PENSAMIENTO: Estudia el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite. Al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción.
Al cabo de más de medio siglo de sus hallazgos se sigue considerando el trabajo de Shannon la pieza clave en el desarrollo que lleva a que la comunicación adquiera un carácter de centralidad en la sociedad actual. Asimismo, sienta los fundamentos matemáticos de la revolución tecnológica de la segunda mitad del siglo XX.
Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.

La información así tratada adquiere una dimensión física, cuantificable y mesurable, independientemente del contenido, de los emisores y de los receptores. Equis páginas de un libro tienen la misma información que una cantidad igual de otro, independientemente de sus autores y la calidad de sus contenidos... La base matemática de la teoría radica en su cuantificación, en la descripción del concepto técnico de canal, en la codificación y descodificación de las señales; esto es, un concepto de la información distinto al conocido hasta entonces en los ámbitos de las ciencias sociales. Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.


Comunicación, Sociedad y Cultura, Perfil biográfico y pensamiento.
© BDN/Infoamérica.

No hay comentarios: