Claude Shannon

Al referirse a la Teoría matemática de redes Lacan alude a Claude Shannon. Sirviéndose de esta teoría y del grafo comienza a delimitar el orden de las máquinas para precisar la relación entre el sujeto y el lenguaje.

Esta referencia corresponde a la página 64
iconolibro

TEORÍA MATEMÁTICA DE COMUNICACIÓN (1948) 

Shannon y Weaver, plantearon el primer modelo la comunicación desde la teoría matemática (Shannon publicó su trabajo en 1948 y Weaver lo complementó en 1949) Este modelo matemático de la comunicación respondía a la necesidad de la época de lograr una legitimación científica a la ciencia de la comunicación.

Shannon fue influido por su maestro, el matemático Norbert Wiener, al que se considera fundador de la cibernética. La cibernética trata el modo en que un estímulo se transforma en información (input) y como el sistema receptor reacciona con una respuesta (output).
El contexto tuvo influencia en sus postulados, ya que a mediados del siglo XX el desarrollo de las telecomunicaciones fue fundamental y se hizo necesaria la existencia de algún modelo científico que diera cuenta de esta nueva realidad.
Weaver consideraba la comunicación como el conjunto de procedimientos por medio de los cuales un mecanismo (…) afecta a otro mecanismo. Los problemas que han de estudiarse en un sistema de comunicación tienen que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar un mensaje en una señal y los efectos del ruido.
La información como unidad cuantificable no tiene en cuenta el contenido del mensaje. Esta teoría permite, sobre todo, estudiar la cantidad de información de un mensaje en función de la capacidad del medio. Esta capacidad se mide según el sistema binario (dos posibilidades, O o l) – en bits (binary digits) asociados a la velocidad de transmisión del mensaje, pudiendo esta velocidad ser disminuida por el ruido.
Los desarrollos de Shannon aparecen casi al mismo tiempo con la elaboración de la fórmula de los cinco elementos de Laswell [1]. Se trata de un modelo de comunicación, una teoría de la información, que estudia el funcionamiento de las máquinas, especialmente, las electrónicas.

Para Claude Shannon el tiempo necesario para transmitir información es proporcional a la cantidad de información transmitida, si se transmite más información, será necesario mayor tiempo. El modelo que propone es representado por un esquema compuesto por cinco elementos: una fuente, un transmisor, un canal, un receptor, un destino. Dentro de este modelo se incluye el ruido, que aporta una cierta perturbación.

  1. Fuentes. El elemento emisor inicial del proceso de comunicación; produce un cierto número de palabras o signos que forman el mensaje a transmitir.
  2. El transmisor. Es el emisor técnico, esto es el que transforma el mensaje emitido en un conjunto de señales o códigos que serán adecuados al canal encargado de transmitirlos.
  3. El canal. Es el medio técnico que debe transportar las señales codificadas por el transmisor.
  4. El receptor. También aquí se trata del receptor técnico, cuya actividad es la inversa de la del transmisor. Su función consiste en decodificar el mensaje transmitido y conducirlo por el canal, para transcribirlo en un lenguaje comprensible por el verdadero receptor que es llamado destinatario.
  5. El destinatario. Constituye el verdadero receptor a quien está destinado el mensaje.

Y finalmente: El ruido. Es un perturbador, que parasita en diverso grado la señal durante su transmisión. Todos los elementos precedentes son considerados como ruidos que pueden, entonces, provenir del canal, del emisor, del receptor, del mensaje, etcétera.

El modelo de Shannon, basado en el conductismo, en la relación estímulo-respuesta (E−R), sufrió diversas extrapolaciones a otras disciplinas. Por ejemplo a la semiótica, (Ferdinand de Saussure (1857- 1913) y Charles Sanders Peirce (1839-1914))

El acto comunicativo ha sido contemplado por Saussure, Bloomfield, Jakobson, Austin y otros.

En 1963, Roman Jakobson presentó el esquema de la comunicación, con sus seis elementos constitutivos y las funciones a las que responde: destinador (función expresiva) – destinatario (función conativa) – mensaje (función poética) – contexto (función referencial) – contacto (función fáctica) – código (función metalingüística)).

Si se articula el esquema de Jakobson a la teoría matemática de la información, cada elemento tiene sus funciones basadas en relaciones.

Se pueden inferir además extrapolaciones a otras disciplinas, como la antropología de Levi-Strauss, con sus estructuras de parentesco. La teoría matemática de los grafos, en lo que se refiere a su formalización, también se ha nutrido de la teoría matemática de redes.

A continuación presentamos la traducción de algunos fragmentos A Mathematical Theory of Communication:

CLAUDE SHANNON: “A Mathematical Theory of Communication”

Reprinted with corrections from The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948.[2]

El desarrollo reciente de los diferentes métodos de modulación como modulación por impulsos codificados ( PCM) y modulación por posición de pulso (PPM) con ancho de banda para intercambio de señal al sonido han intensificado el interés en una teoría general de la comunicación. La base de esta teoría está contenida en los documentos importantes de Nyquist[3] y Hartley[4] sobre este tema. En el presente documento ampliaremos la teoría para incluir una serie de nuevos factores, en particular el efecto del ruido en el canal, y el ahorro posible de estadísticas debido a la estructura del mensaje original y debido a la naturaleza del destino final de la información.

El problema fundamental de la comunicación es la de reproducir en un momento cualquiera exactamente o aproximadamente un mensaje seleccionado en otro momento. Con frecuencia los mensajes tienen significado; esto es, que hacen referencia o se correlacionan según algún sistema con algunas entidades físicas o conceptuales.

Estos aspectos semánticos de la comunicación son irrelevantes para los problemas de ingeniería.

El aspecto importante es que el mensaje real es uno de los candidatos seleccionados de un conjunto de posibles mensajes. El sistema debe diseñarse de forma que funcione para cada posible selección, no sólo en una que realmente vaya a ser escogida, ya que esto es desconocido en el momento del diseño.

Si el número de mensajes en juego es finito, entonces este número o cualquier monto en función de este número puede ser considerado como una medida de la información que se produce cuando un mensaje se elige del conjunto, todas las opciones son igualmente probables.

Como fue señalado por Hartley, la elección más natural es la función logarítmica. Aunque esta definición debe ser generalizada considerablemente cuando consideramos la influencia de las estadísticas del mensaje y cuando tenemos un rango continuo de mensajes, en todos los casos usan esencialmente una medida logarítmica.

La medida logarítmica es la más conveniente por diversas razones:

  1. es más útil. Los parámetros de importancia de la ingeniería como tiempo, ancho de banda, número de enlaces, etc., tienden a variar linealmente con el logaritmo del número de posibilidades. Por ejemplo, al agregar un enlace a un grupo duplica el número de los estados posibles de los relevos. Agrega 1 a la base 2 logaritmo de este número. Doblar el tiempo aproximadamente el número de posibles mensajes o dobles el logaritmo, etc.
  2. está más cerca de nuestro sentimiento intuitivo como a la propia medida. Esto está estrechamente relacionado con (1) ya que intuía medidas lineales por comparación con las normas comunes. Uno siente, por ejemplo, que dos tarjetas perforadas deben tener dos veces la capacidad de una para el almacenamiento de información, y dos cadenas idénticas el doble de la capacidad de una para transmitir información.
  3.  es matemáticamente más cómodo (o apropiado) (lógica binaria). Muchas de las operaciones restrictivas son simples en términos del logaritmo, pero requerirían la nueva exposición torpe en términos del número de posibilidades. La elección de una base logarítmica corresponde a la elección de una unidad de medición de información.

Si se utiliza la base 2 las unidades resultantes pueden ser llamados dígitos binarios, o más brevemente bits, palabra sugerida por J. W. Tukey. Un dispositivo con dos posiciones estables, como un relevo o un circuito flip-flop, puede almacenar un poco de información. N tales dispositivos pueden almacenar N bits, puesto que el número total de posibles estados es 2N y log2 2N =N. Si la base 10 se utiliza las unidades pueden ser llamados dígitos decimales. Desde log 2M = log10M=log10 2 = 3:32 log10M;

1

un dígito decimal es de   bits. Un dígito sobre un escritorio computadora tiene diez posiciones estables y por lo tanto tiene una capacidad de almacenamiento de un dígito decimal. En analyticalwork donde integración y diferenciación participan la base e es a veces útil. Las unidades de información resultantes se denominan unidades naturales.
En cambio de la base de una base b sólo requiere multiplicación por exceder . Por un sistema de comunicación que significará un sistema del tipo indicado esquemáticamente en la Figura 4. 1. Consiste esencialmente en cinco partes:

  1. Fuente de información que produce un mensaje o una secuencia de mensajes que deberán comunicarse a la terminal receptora. El mensaje puede ser de varios tipos: (a) una secuencia de letras como en un telégrafo de sistema teletipo; (b) una única función de tiempo f (t) como en radio, telefonía; (c) una función del tiempo y otras variables como en televisión blanco y negro – Aquí el mensaje puede ser pensado como una función f(x;y; (t) de dos coordenadas espacio y tiempo, la intensidad de la luz en el punto (x,y) y el tiempo t en una camioneta placa tubo; (d) Dos o más funciones de tiempo, decir f (t), g(t), h(t)-  este es el caso de “transmisión de sonido tridimensional” o si el sistema está pensado para prestar servicios a varios canales individuales en múltiple; (e) varias funciones de varias variables -En televisión en color themessage consta de tres funciones f(x;y; t), g(x;y; t), h(x;y; (t) definida en un continuo tridimensional, también se puede pensar en estas tres funciones como componentes de un vector campo definido en la región, del mismo modo, varios televisores blanco y negro fuentes producirían “mensajes” que consisten en una serie de funciones de tres variables; (f) varias combinaciones también puede ocurrir, por ejemplo, en la televisión con un canal de audio.
  2. transmisor: funciona en el mensaje de alguna manera para producir una señal adecuada para su transmisión por el canal. En telefonía esta operación consiste simplemente en el cambio de presión proporcional en una corriente eléctrica. En telegrafía tenemos una codificación, operación que genera una secuencia de puntos, guiones y espacios en el canal correspondiente al mensaje. En un complejo sistema PCM del discurso, diferentes funciones deben ser muestreadas, comprimidas, cuantificadas y codificadas, y finalmente interpoladas correctamente para construir la señal. Analizadores de sistemas, la televisión y modulación de frecuencia son otros ejemplos de operaciones complejas aplicadas al mensaje para obtener la señal.
  3. Canal: es meramente el medio utilizado para transmitir la señal del transmisor y el receptor. Esta información puede ser un par de cables, un cable coaxial, una banda de frecuencias de radio, un rayo de luz, etc.
  4. Receptor: comúnmente ejecuta una operación inversa a la realizada por el transmisor reconstruyendo el mensaje desde la señal.
  5. Destino: persona o cosa por el cual el mensaje es direccionado (propósito del mensaje)

Queremos considerar ciertos problemas generales de los sistemas de comunicación. Para ello es necesario, en primer lugar, representar los diversos elementos involucrados como entes matemáticos, convenientemente de su contraparte física.
Podríamos aproximadamente clasificar los sistemas de comunicación en tres categorías: discreto (discontinuo), de manera continua y variada. Un sistema discreto significará uno en el que tanto el mensaje y la señal son una secuencia de símbolos discretos. Un caso típico es la telegrafía, el caso en que el mensaje es una secuencia de letras y la señal una secuencia de puntos, guiones y espacios.
Un sistema continuo es uno en el que el mensaje y señal son tratadas como funciones permanentes, por ejemplo, radio o televisión.
Un sistema mixto es uno en el que ambas variables continuas y discretas aparecen, por ejemplo, PCM transmisión de la voz.
En primer lugar debemos considerar el caso discreto. Este caso tiene aplicaciones no sólo en la teoría de la comunicación, sino también en la teoría de la computación las máquinas, el diseño de centrales telefónicas y otros campos. Además, en el caso discreto forma una fundación para la continua y casos mixtos que será tratado en la segunda parte del trabajo.


PARTE I. SISTEMAS DISCONTINUOS SIN RUIDO

EL CANAL DISCONTINUO SIN RUIDO:

El teletipo y la telegrafía son dos ejemplos simples de un canal discreto de transmisión de información. Por lo general, un canal discreto significará un sistema mediante el cual una secuencia de opciones, desde un conjunto finito de símbolos elementales S1;…;Sn puede transmitirse a través de un punto a otro. Cada uno de los símbolos If se presupone que existe un cierto periodo de tiempo ti segundos (no necesariamente el mismo para diferentes If, por ejemplo los puntos y rayas en telegrafía).
No es necesario que todas las posibles secuencias del If sean capaces de transmisión del sistema; ciertas secuencias sólo pueden ser autorizadas. Éstas serán posibles señales para el canal. Por lo tanto, en telegrafía supongo que los símbolos son los siguientes: (1) un punto, que consiste en línea cierre para una unidad de tiempo y, a continuación, línea abierta para una unidad de tiempo; (2) El guión, que consta de tres unidades de tiempo de cierre y una unidad abierta; (3) una carta espacio formado por, digamos, tres unidades de línea abierta; (4) una palabra espacio de seis unidades de línea abierta.
Nosotros podríamos colocar la restricción contra secuencias aceptables que ningún espacio siguen el uno al otro (si dos espacios de carta son adyacentes, es idéntico con un espacio de palabra). La pregunta que ahora consideramos es como se puede medir la capacidad de tal canal para transmitir la información.
En el caso del teletipo donde todos los símbolos son de la misma duración, y cualquier secuencia de los 32 símbolos es permitida la respuesta es fácil. Cada símbolo representa 5 bits de información. Si el sistema transmite n símbolos por segundo es natural decir que el canal tiene una capacidad de 5n bits por segundo.
Esto no quiere decir que el canal teletipo transmita siempre información a este ritmo – este es la tasa máxima posible y si o no el tipo de cambio real llega a este límite máximo depende de la fuente de información que alimenta el canal, según se verá más adelante.
En el caso más general con diferentes longitudes de los símbolos y las limitaciones sobre el derecho de sucesiones, formulamos la siguiente definición: La capacidad C de un canal discreto viene dada por

2

Donde N(T) es el número de señales de duración T.
Es fácil ver que en el caso teletipo esto se reduce al resultado anterior. Puede demostrarse que el límite en cuestión va a existir como un número finito de la mayoría de los casos de interés. Supongamos que todas las secuencias de los símbolos S1;…;Sn son permitidos y estos símbolos tienen duración t1;…;tn.
¿Cuál es la capacidad de canal? Si N(t) representa el número de secuencias de duración t tenemos

3

El número total es igual a la suma de los números de las secuencias termina en

7.

Y estos son

4

Respectivamente. De acuerdo con un resultado bien conocido en diferencias finitas   N(t)

A continuación, es asintótica de gran  t to X¹0

Donde X0 es la mayor solución real de la ecuación característica:

8

y por lo tanto
C= log X0

En caso de que haya restricciones en secuencias podemos obtener frecuentemente una ecuación diferente de este tipo y encontrar C de la ecuación característica. En el caso de la telegrafía mencionada más arriba
N (t) = N (t-2)+ N (t-4)+ etc.
(…)

5- FUENTES ERGÓDICAS Y MEZCLADAS
(…) una fuente discreta puede ser considerada o ser representada por un proceso de Markoff. Hay un grupo con propiedades especiales de significancia en la teoría de la comunicación. Esta clase especial corresponde a procesos “ergódicos” y llamaremos a estas fuentes ergódicas. Aunque una definición rigurosa de un proceso ergódico es algo involucrado, la idea general es simple. En un proceso ergódico cada secuencia producida por el proceso es el mismo en propiedades estadísticas. Por lo tanto la frecuencia de letras, de diagramas, etc., obtenidas de esta secuencia particular serán de acuerdo al largo del incremento de la secuencia, alcances de limites definitivos independientes de una secuencia particular. Realmente esto no es verdad de cada secuencia, pero el conjunto para el cual esto es falso tiene probabilidad cero, vagamente la propiedad ergótica significa homogeneidad estadística.
Todos los ejemplos de lenguaje artificial dados anteriormente son ergódicos. Esta propiedad está relacionada con la estructura de un gráfico correspondiente. Si el gráfico tiene las 2 propiedades siguientes, el proceso correspondiente, será ergódico.
(…).
6-    ELECCIÓN, INCERTIDUMBRE Y ENTROPÍA
Hemos representado una fuente de información discreta como un proceso de Marcoff. Podemos definir una cantidad la cual medirá, en algún sentido, cuanta información es “producida” por tal proceso, o mejor ¿en qué promedio la información es producida? Supongamos que tenemos un conjunto de eventos posibles cuyas probabilidades de ocurrencia son p1, p2…., pn.
Estas probabilidades son conocidas pero es todo lo que conocemos concerniente a cual evento ocurrirá. ¿Podemos encontrar una medida de cuanta  “elección” se involucra en la selección del evento o de cuanta incertidumbre tenemos del resultado?
(…)
7-    LA ENTROPÍA DE UNA FUENTE DE INFORMACIÓN
Consideremos una fuente discreta de un tipo de estado finito considerado anteriormente. Para cada posible estado i habrá un conjunto de probabilidades pi (j) de producir los posibles variados símbolos j. por lo tanto hay una entropía Hi para cada estado. La entropía de la fuente será definida como un promedio de estas Hi valoradas o medidas de acuerdo con la probabilidad de ocurrencia de los estados en cuestión
(…)
8. REPRESENTACIÓN DE LAS  OPERACIONES DE CODIFICACIÓN Y DECODIFICACIÓN
Tenemos aún que representar matemáticamente las operaciones hechas por el transmisor y el receptor en la información de codificación y decodificación. Cada una de éstas será llamada un transductor discreto. La entrada al transductor es una secuencia de símbolos de entradas y su salida una secuencia de símbolos de salida. El trasductor puede tener una memoria interna de manera que la salida depende no solamente del símbolo de entrada presente, pero además, de su historia pasada. Asumimos que la memoria interna es finita, por ejemplo, existe un número finito n de posibles estados del trasductor y su salida es una función del estado presente y del símbolo de entrada actual. El próximo estado será una segunda función de estas dos cantidades.
(…)

PARTE II: EL CANAL DISCRETO CON RUIDO

11. REPRESENTACIÓN DE  UN CANAL DISCRETO RUIDOSO
Consideremos ahora el caso donde la señal es perturbada por ruido durante la transmisión o en una u otra de las terminales. Esto significa que la señal recibida no es necesariamente la misma que aquella enviada por el transmisor. Dos casos pueden ser distinguidos. Si una señal particular es transmitida produce siempre la misma señal recibida, por ejemplo, la señal recibida es una función definida de la señal transmitida, entonces el efecto puede ser llamado distorsión. Si esta función tiene una inversa — no hay dos señales transmitidas produciendo la misma señal recibida — la distorsión puede ser corregida, por lo menos en principio, ejecutando principalmente la operación funcional inversa en la señal recibida.
Un caso de interés aquí es aquel en el cual la señal no siempre sobrelleva el mismo cambio en la transmisión. En este caso se puede asumir la señal recibida E como una función de la señal S transmitida y una segunda variable, el ruido N.
E = f (S;N)
El ruido es considerado como una variable de chance justo como el mensaje fue anteriormente. En general, puede estar representado por un proceso estocástico apropiado. El tipo más general de canal discreto ruidoso que vamos a considerar es una generalización del estado finito de canal libre de ruido- descripto anteriormente. Asumimos un número finito de estados y un conjunto de probabilidades[5][5]

pα¸î(β,j)

(…)
Si un canal ruidoso es alimentado por una fuente hay 2 procesos estadísticos en funcionamiento: la fuente y el ruido.
Por lo tanto hay un número de entropías que pueden ser calculadas. Primero está la entropía H(x) de la fuente o de la entrada al canal (esto será igual si el transmisor es no−singular). La entropía de salida del canal, por ejemplo, la señal recibida será denotada por H(y). En el caso sin ruido H(y) = H(x).
La entropía conjunta de entrada y salida será  H(xy). Finalmente hay 2 entropías condicionales  Hx(y) y Hy(x), la entropía de salida cuando la entrada es conocida y opuestamente. Entre estas cantidades tenemos las relaciones

H(x,y) = H(x) + Hx(y) + Hy(x)

Todas estas entropías pueden ser medidas sobre la base por segundos o por símbolos.
(…)

12. EQUIVOCACIÓN Y CAPACIDAD DE CANAL
Si el canal es ruidoso no es en general posible reconstruir el mensaje original o la señal transmitida con certeza por cualquier operación en la señal recibida E. Hay, sin embargo, manera de transmitir la información óptima en combatir el ruido. Este es problema que vamos a considerar ahora.
Supongamos que hay 2 símbolos posibles 0 y 1, y que estamos transmitiendo a una tasa de  1000 símbolos por Segundo con probabilidades  p0 == p1= = 1/2.  Por lo tanto nuestra fuente es producir información a una tasa de 1000 bits por segundo. Durante la transmisión el ruido introduce errores de manera tal que, en promedio, 1en 100 es recibido incorrectamente (a 0 como 1, o 1 como 0). ¿Cuál es la tasa de transmisión de información? Ciertamente menos que 1000 bits por segundo ya que alrededor de 1% de los símbolos recibidos son incorrectos. Nuestro primer impulso podría ser decir la tasa es  990 bits por segundo, básicamente sustrayendo el número de errores esperados. Esto no es satisfactorio ya que falla en considerar la falta de conocimiento de receptor de donde ocurren los errores. Podemos llevar esto a un caso extremo y suponer que el ruido es tan grande que los símbolos recibidos son enteramente independientes de los símbolos transmitidos. La probabilidad de recibir 1 es ½  sin importar lo transmitido y similarmente para 0.
Entonces alrededor de la mitad de los símbolos recibidos son correctos debido solamente a chances y deberíamos darle al sistema crédito para transmitir  500 bits por  segundo, mientras realmente ninguna información está siendo transmitida para nada. Igualmente “buena” transmisión podría ser obtenida sin considerar el canal enteramente y arrojando una moneda al punto de recepción.
Evidentemente la corrección propia para dar a la cantidad de información transmitida es la cantidad de esta información que está faltando en la señal recibida, o alternativamente la incertidumbre cuando hemos recibido una señal de lo que realmente fue enviado. De nuestra discusión previa de entropía, como medida de incertidumbre, parece razonable usar la entropía condicional del mensaje, conociendo la señal recibida como una medida de esta información faltante. Esto es de todas maneras la propia definición como veremos más adelante. Siguiendo la  idea de tasa de transmisión actual R, podría ser obtenido sustrayendo de la tasa de producción (por ejemplo, la entropía de la fuente) el promedio de tasa de entropía condicional.

R= H(x) – Hy(x)

La entropía condicional Hy((x) será por conveniencia, denominada equivocación. Ésta mide el promedio de ambigüedad de señal recibida.
(…)
13. EL TEOREMA FUNDAMENTAL PARA UN CANAL DISCRETO CON RUIDO
Puede parecer sorprendente que definamos una clara capacidad C para un canal ruidoso ya que no podremos enviar ciertos datos en tal caso. Es evidente, sin embargo, que enunciando la información en una forma redundante la probabilidad de errores pueden reducirse. Por ejemplo, repitiendo el mensaje muchas veces y por un estudio estadístico de las diferentes versiones recibidas de un mensaje la probabilidad de errores podría ser muy pequeña. Uno podría esperar, sin embargo, que para hacer que esta probabilidad de errores llegue a cero, la redundancia de la codificación debe aumentar indefinidamente, y la tasa de transmisión por lo tanto aproximar a cero. Esto no es de ninguna manera verdad. Si lo fuera, no habría una capacidad bien definida, pero sólo una capacidad para una ofrecida frecuencia de errores, o una determinada equivocación; la capacidad que va como los requerimientos de error son más estrictos. Realmente la capacidad C definida anteriormente tiene una muy clara significación. Es posible enviar una información a la tasa C mediante el canal con la menor frecuencia de errores o equívocos deseados por codificación correcta. Esta afirmación no es verdadera para cualquier tasa superior a C. Si se intenta transmitir a una tasa mayor que C, supongamos C+R1, Luego habrá necesariamente un equívoco igual o mayor que el exceso R1.

(…)

PARTE III: PRELIMINARES MATEMÁTICAS

En este último tramo del trabajo consideramos el caso donde las señales o los mensajes o ambos son continuamente variables, en contraste con la naturaleza discreta asumida hasta el momento. Para una considerable extensión del caso continuo puede obtenerse mediante un  proceso limitante del caso discreto dividiendo el conjunto de mensajes y señales en un gran número finito de pequeñas regiones y calculando los diversos parámetros involucrados sobre la base discreta. Como la medida de las regiones es decreciente, estos parámetros en general son límites de valores correctos para el caso continuo. Hay, sin embargo, unos pocos efectos nuevos que aparecen y también un cambio general de énfasis en la dirección de especialización de los resultados generales a casos particulares.
No intentaremos, en el caso continuo, obtener nuestros resultados con la mayor generalidad, o con el extremo rigor de matemática pura, ya que ello implicaría una gran cantidad de teoría de medida y oscurecería el hilo principal del debate. Un estudio preliminar, sin embargo, indica que la teoría puede ser formulada en una forma totalmente axiomática y rigurosa que incluye ambos casos, tanto continuos y discretos y muchos otros. Las libertades ocasionales adoptadas con procesos limitantes en el presente análisis pueden ser justificadas en todos los casos de interés práctico.


[1] En 1948, el profesor Laswell, de la Universidad de Yale en los Estados Unidos, publicó, en la revista The communication of ideas, un artículo sobre los elementos que entran en juego en un proceso de comunicación. Proponía allí una fórmula de concatenación o encadenamiento lineal de cinco preguntas programadas ¿Quién – dice qué – por cuál canal – a quién – con qué efecto?
[2] Traducción Silvina Correa Uranga.
[3] Nyquist, H., “Certain Factors Affecting Telegraph Speed,” Bell System Technical Journal, April 1924, p. 324; “Certain Topics in Telegraph Transmission Theory,” A.I.E.E. Trans., v. 47, April 1928, p. 617.
[4] Hartley, R. V. L., “Transmission of Information,” Bell System Technical Journal, July 1928, p. 535.
[5] N del T: Teoría estadística de los procesos cuya evolución en el tiempo es aleatoria, tal como la secuencia de las tiradas de un dado (RAE).


Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s