Capacidad del canalEn Ingeniería Electrónica y Teoría de la Información, la capacidad de canal es la cantidad de información que puede ser relativamente transmitida sobre canales de comunicación.
SinopsisLa capacidad del canal se mide en bits por segundo (bps) y depende de su ancho de banda y de la relación S/N (Relación señal/ruido). La capacidad del canal limita la cantidad de información (se denomina régimen binario y se mide en bits por segundo, bps) que puede trasmitir la señal que se envía a través de él. La capacidad máxima de un canal viene dada por la fórmula:
La teoría de la información, desarrollada por Claude E. Shannon durante la Segunda Guerra Mundial, define la noción de la capacidad del canal y provee un modelo matemático con el que se puede calcular. La cifra que resulta del estado de capacidad del canal, se define como la máxima de la información mutua entre la entrada y la salida del canal. Donde el punto máximo se encuentra en la entrada de la distribución. DefiniciónAl igual que todos los tipos de comunicación, mantener un diálogo con otro sistema necesita un medio físico para transmitir los datos. En el caso de la Arquitectura de Redes, a ese medio se le denomina canal.
La X representa el espacio entre las señales que puede ser transmitidas y la Y el espacio de señales recibidas, durante un bloque de tiempo sobre el canal.
Tipos de canalesA continuación veremos los diferentes canales que existen: Canal ideal: debería tener una entrada y una salida. Sin embargo, nunca está aislado totalmente del exterior y siempre se acaban introduciendo señales no deseadas que alteran en mayor o menor medida los datos que queremos enviar a través de él. Por lo tanto, esa única entrada puede producir varias salidas, y distintas entradas pueden terminar en la misma salida. Canal discreto sin memoria: con entrada y salida discreta. Ofrecen una salida que depende exclusivamente del símbolo de entrada actual, independientemente de sus valores anteriores. Canal binario simétrico: canal binario que puede transmitir uno de dos símbolos posibles (0 y 1). La transmisión no es perfecta, y ocasionalmente el receptor recibe el bit equivocado.
Referencia al Teorema de NyquistEl primer teorema de Nyquist establece que, para evitar la interferencia entre símbolos de una señal que se propaga por un canal de ancho de banda, su velocidad debe ser:
EficienciaLa eficiencia E de un canal de comunicación, es la relación entre su capacidad y su ancho de banda e indica el número de bits por segundo de información que se puede transmitir por cada herzio de su ancho de banda:
Canal Ruidoso del Teorema de CodificaciónSobre este canal, la capacidad que da el canal está limitada en una velocidad de información (en unidades de información por unidad de tiempo) que puede ser alcanzado con arbitrariedad con un pequeño error de probabilidad. El Canal Ruidoso del Teorema de Codificación de estados dice que para alguna ε > 0 y para alguna velocidad R menor que la capacidad del canal C, hay un esquema de codificación y decodificación que puede ser usado para asegurar que la probabilidad del error de bloqueo es menor que ε para un código largo. Para velocidades mayores que la capacidad del canal, la probabilidad del error de bloqueo que recibe va de 1 hasta infinito según sea la longitud de bloqueo.
Ejemplo de aplicaciónUna aplicación del concepto de capacidad de canal a un canal aditivo blanco gaussiano con B Hz de ancho de banda y señal de proporción de ruido de S/N es el Teorema de Shannon–Hartley:
Referencias
|