UNIVERSIDAD PRIVADA DEL SUR DE MEXICO
Maestría en Telecomunicaciones
Tareas Claves En Los Sistemas De
Comunicación
Alumno: Ulises Alejandro Velasco Ruiz
Tuxtla Gutiérrez, Chiapas 09-10-15
Sistema de transmisión
La transmisión de datos es el
intercambio de datos entre dos dispositivos a través de alguna forma de medio
de transmisión, como un cable. Para que la transmisión de datos sea posible,
los dispositivos de comunicación deben ser parte de un sistema de comunicación
formado por hardware (equipo físico) y software (programas). La efectividad del
sistema de comunicación de datos depende de cuatro características
fundamentales: entrega, exactitud, puntualidad y retardo variable (jitter,
término que usaremos en adelante en inglés).
1. Entrega. El sistema debe entregar los datos en el destino correcto.
Los datos deben ser recibidos por el dispositivo o usuario adecuado y solamente
por ese dispositivo o usuario.
2. Exactitud. El sistema debe entregar los datos con exactitud. Los
datos que se alteran en la transmisión son incorrectos y no se pueden utilizar.
3. Puntualidad. El sistema debe entregar los datos con puntualidad.
Los datos entregados tarde son inútiles. En el caso del vídeo, el audio y la
voz, la entrega puntual significa entregar los datos a medida que se producen,
en el mismo orden en que se producen y sin un retraso significativo. Este tipo
de entregas se llama transmisión en tiempo real.
4. Jitter (retardo variable). Se refiere a la variación en el tiempo
de llegada de los paquetes. Es el retraso inesperado en la entrega de paquetes
de audio o vídeo. Por ejemplo, asumamos que los paquetes de vídeo llegan cada
30 ms. Si algunos llegan en 30 ms y otros con 40 ms., el resultado es una mala
calidad del vídeo.
1. Mensaje. El
mensaje es la información (datos) a comunicar. Los formatos populares de
información incluyen texto, números, gráficos, audio y vídeo.
2. Emisor. El
emisor es el dispositivo que envía los datos del mensaje. Puede ser una
computadora, una estación de trabajo, un teléfono, una videocámara y otros
muchos.
3. Receptor.
El receptor es el dispositivo que recibe el mensaje. Puede ser una computadora,
una estación de trabajo, un teléfono, una televisión y otros muchos.
4. Medio. El
medio de transmisión es el camino físico por el cual viaja el mensaje del
emisor al receptor. Puede estar formado por un cable de par trenzado, un cable
coaxial, un cable de fibra óptica y las ondas de radio.
5. Protocolo.
Un protocolo es un conjunto de reglas que gobiernan la transmisión de datos.
Representa un acuerdo entre los dispositivos que se comunican. Sin un
protocolo, dos dispositivos pueden estar conectados pero no comunicarse, igual
que una persona que hable francés no puede ser comprendida por otra que sólo
hable japonés.
Implementación de la interfaz.
Una interfaz es el puerto
(circuito físico) a través del que se envían o reciben señales desde un sistema
o subsistemas hacia otros. No existe una interfaz universal, sino que existen
diferentes estándares (Interfaz USB, interfaz SCSI, etc.) que establecen
especificaciones técnicas concretas (características comunes), con lo que la
interconexión sólo es posible utilizando la misma interfaz en origen y destino.
Así también, una interfaz puede ser definida como un intérprete de condiciones
externas al sistema, a través de transductores y otros dispositivos, que
permite una comunicación con actores externos, como personas u otros sistemas,
a través de un protocolo común a ambos. Una interfaz es una Conexión física y
funcional entre dos aparatos o sistemas independientes.
La interfaz de E/S es requerida
cuando los dispositivos son ejecutados por el procesador. La interfaz debe ser
necesariamente lógica para interpretar la dirección de los dispositivos
generados por el procesador. El Handshaking deberá ser implementado por la
interfaz usando los comandos adecuados (BUSY, READY, WAIT…), y el procesador
puede comunicarse con el dispositivo de E/S a través de la interfaz. Si se
intercambian diferentes formatos de datos, la interfaz debe ser capaz de
convertir datos en serie a paralelo y viceversa. Los dispositivos de E/S se
comunican por interrupciones con el procesador, si una interrupción es
recibida, el procesador la atenderá con la rutina de interrupción
correspondiente a dicha interrupción.
Un ordenador que usa E/S mapeados
en memoria por lectura y escritura accede al hardware a través de la posición
de memoria específica, usando el mismo lenguaje ensamblador que el procesador
usa para el acceso a memoria.
Generación
de la señal.
La generación de señales en una
faceta importante en la reparación y desarrollo electrónico. El generador de
señales se utiliza para proporcionar condiciones de prueba conocidas para la
evaluación adecuada de varios sistemas electrónicos y verificar las señales
faltantes en sistemas que se analizan para reparación. Existen varios tipos de
generadores de señales, los cuales tienen diversas características en común.
Primero, la frecuencia de la señal debe ser estable y conocerse con exactitud.
Segundo, se ha de controlar la amplitud, desde valores muy pequeños hasta
relativamente altos. Por último, la señal debe estar libre de distorsión.
Hay muchas variaciones de estos
requisitos en particular para generadores de señales especializados como los
generadores de funciones, de pulsos, de barrido, etc, y dichos requisitos deben
considerarse como generales
Las características de la señal,
tales como la forma y la intensidad, deben ser tales que permitan:
a).-Ser propagadas a través del medio de
transmisión.
b).-Ser interpretadas en el receptor como
datos.
Las señales se deben generar no
sólo considerando que deben cumplir los requisitos del sistema de transmisión y
del receptor, sino que deben permitir alguna forma de sincronizar el receptor y
el emisor. El receptor debe ser capaz de determinar cuándo comienza y cuándo
acaba la señal recibida. Igualmente deberá conocer la duración de cada elemento
de señal.
Sincronización
La sincronización es un aspecto
intrínseco de los sistemas digitales y su objetivo es el de satisfacer la
necesidad de calidad de los servicios ofrecidos por la red, asignando
tolerancias de frecuencia en los nodos de conmutación y estableciendo los
métodos de sincronización más adecuados. La función de la sincronización es
lograr que todas las centrales digitales de la red trabajen con una señal de
reloj básica idéntica o lo más parecida posible en frecuencia y fase, a fin de
controlar precisamente la tasa a la cual las señales digitales se transmiten y
procesan a través de dicha red.
La sincronización permite
mantener todos los equipos de la red de telecomunicaciones operando a una misma
tasa promedio de datos, y deberá mantenerse en todo momento frente a cualquier
cambio en la topología de la red causado por factores tales como interrupciones
en los enlaces y en la conmutación, reconfiguración de la red, expansión, e
introducción de elementos de red de nuevas tecnologías. La sincronización de
una red digital se implementa temporizando los relojes de todas las centrales
de conmutación. Normalmente, se tiene un primer reloj de red, ubicado en los
controles del nodo fuente, desde donde los bits, los intervalos de tiempo y las
tramas son transmitidos, y un segundo reloj, ubicado en el nodo receptor,
controlando la tasa con la que la información es leída. El objetivo de la
temporización de la red es mantener los relojes de la fuente y del receptor en
una misma frecuencia y fase, de modo que el receptor pueda interpretar
apropiadamente la señal digital. Cualquier diferencia en la temporización de
los nodos de la red causaría una interpretación diferente en la información
recibida, es decir, deslizamiento.
Gestión de intercambio
Si se necesita intercambiar datos
durante un período de tiempo, las dos partes deben cooperar, el receptor
establecerá la llamada y el receptor contestará.
Una forma de analizar
la gestión del intercambio de información es analizando la capa de acceso a la
red en el modelo TCP/IP. Esta capa está relacionada con el intercambio de datos
entre un sistema terminal (servidor, estación de trabajo, etc) y la red a la
cual está ligada. El equipo emisor debe proporcionar a la red la dirección de
la computadora destino, para que la red pueda enrutar los datos hacia el equipo
destino correcto. El equipo emisor puede invocar ciertos servicios, como
prioridad, la cual es suministrada por la red. El software específico que se
emplea en esta capa depende del tipo de red que se va a usar; se han
desarrollado diferentes estándares para
la gestión del intercambio, conmutación de circuito, conmutación de paquetes,
redes LAN y otros más
Direccionamiento
y Encaminamiento
Las responsabilidades especificas del nivel de red
El direccionamiento físico proporcionado por el nivel de enlace de
datos gestiona los problemas de direcciones locales. Si un paquete cruza la
frontera de la red, es necesario tener otro tipo de direcciones para distinguir
los sistemas origen de los del destino. El nivel de red añade una cabecera al
paquete que viene del nivel superior que, en otras cosas, incluye las
direcciones lógicas, del emisor y el receptor.
En una red que utiliza protocolos
TCP/IP se utilizan cuatro niveles de direcciones:
Direcciones físicas (enlace de
datos)
Direcciones lógicas (IP)
Direcciones de Puertos
Direcciones Específicas
Encaminamiento
Cuando un conjunto de redes o
enlaces independientes se conectan juntas para crear una red de redes (una
internet) o una red mas grande, los dispositivos de conexión (denominados
encaminadores o pasarelas) encaminan los paquetes hasta sus destino final. Una
de las funciones del nivel de red es proporcionar estos mecanismos.
Como se muestra en la
figura, se necesita una entrega de origen a destino. El nivel de red en A envía
un paquete al nivel de red de B, cuando el paquete llega al encaminador B, este
toma la decisión de acuerdo al destino final (F) del paquete. El encaminador B utiliza su
tabla de encaminamiento para encontrar que el siguiente salto es el encaminador
E. el nivel de red en B, por tanto, envía el paquete al nivel de red de E. el
nivel de red en E, a su vez envía el paquete al nivel de red en F.
Detección y
corrección de errores.
Las redes deben ser capaces de
transferir datos de un dispositivo a otro con total exactitud, si los datos
recibidos no son idénticos a los emitidos, el sistema de comunicación es
inútil. Sin embargo, siempre que se transmiten de un origen a un destino, se
pueden corromper por el camino. Los sistemas de comunicación deben tener
mecanismos para detectar y corregir errores que alteren los datos recibidos
debido a múltiples factores de la transmisión.
La detección y corrección de
errores se implementa bien en el nivel de enlace de datos o bien en el nivel de
transporte del modelo OSI
Tipos de errores.
Interferencias, calor,
magnetismo, etc, influyen en una señal electromagnética, esos factores pueden
alterar la forma o temporalidad de una señal. Si la señal transporta datos
digitales, los cambios pueden modificar el significado de los datos. Los
errores posibles son:
Error de bit
Únicamente un bit de una unidad
de datos determinada cambia de 1 a 0 o viceversa. Un error de bit altera el
significado del dato. Son el tipo de error menos probable en una transmisión de
datos serie, puesto que el intervalo de bit es muy breve (1/frecuencia) el
ruido tiene que tener una duración muy breve. Sin embargo si puede ocurrir en
una transmisión paralela, en que un cable puede sufrir una perturbación y
alterar un bit de cada byte.
Error de ráfaga.
El error de ráfaga significa que
dos o más bits de la unidad de datos han cambiado. Los errores de ráfaga no
significa necesariamente que los errores se produzcan en bits consecutivos. La
longitud de la ráfaga se mide desde el primero hasta el último bit correcto,
algunos bits intermedios pueden estar bien.
Los errores de ráfaga es más
probable en transmisiones serie, donde la duración del ruido es normalmente
mayor que la duración de un bit, por lo que afectara a un conjunto de bits. El
número donde bits afectados depende de la tasa de datos y de la duración del
ruido
Detección Frente a Corrección
La corrección de errores es más
difícil que la detección. En la detección de errores, solo se mira si ha
ocurrido algún error. La respuesta es un simple sí o no. No se está interesado
en el número de errores. Un error en un único bit es igual que un error de
ráfaga. En la corrección de errores, se necesita saber el número exacto de bits
que se han dañado y, más importante, su posición dentro del mensaje, el número
de errores y el tamaño del mensaje son elementos importantes. Si se necesita
corregir un único error en una unidad de 8 bits de datos, se necesita
considerar las posiciones del error; si se necesita corregir dos errores en la
unidad de datos del mismo tamaño. Se necesitara considerar 28 posibilidades. Se
puede imaginar la dificultad en el receptor de encontrar 10 errores en una
unidad de datos de 1000 bits.
Corrección de errores hacia delante frente a retrasmisión
Hay dos métodos principales de
corrección de errores. La corrección de errores hacia delante es el proceso por
el cual el receptor intenta adivinar el mensaje utilizando los bits
redundantes. Esto es posible, como se verá más tarde, si el número de errores
es pequeño. La corrección por retransmisión es una técnica en la que el
receptor detecta la ocurrencia de un error y pide al emisor que retrasmita el
mensaje. La retrasmisión se repite hasta que el mensaje llega al receptor y
este cree que se encuentra libre de errores (normalmente no se pueden detectar
todos los errores).
Control de Flujo
El control de flujo coordina la
cantidad de datos que se pueden enviar antes de recibir una confirmación y es
una de las tareas más importantes del nivel de enlace. En la mayoría de los
protocolos, el control de flujo es un conjunto de procedimientos que dice al
emisor cuantos datos debe de trasmitir antes de que deba esperar una
confirmación del receptor. No se debe permitir que el flujo de datos desborde
al emisor. Cualquier dispositivo de recepción tiene una velocidad limitada a la
que puede procesar los datos de entrada y una cantidad de memoria limitada para
almacenar datos de entrada. El dispositivo receptor debe ser capaz de informar
al emisor antes de que se alcancen estos límites y pedirle que envié menos
tramas o pare temporalmente. Los datos de entrada deber ser comprobados y
procesados antes de ser usados. La velocidad de procesamiento es a menudo más
lenta que la velocidad de transmisión. Por esta razón, cada dispositivo
receptor tiene un bloque de memoria, denominado buffer, reservado para
almacenar los datos de entrada hasta que son procesados.
Si el buffer comienza a llenarse,
el receptor debe ser capaz de decir al emisor que pare la transmisión hasta que
vuelva a ser capaz de recibir
Recuperación
Se podría interpretar como el reenvió
que significa situar un paquete en su camino a su destino. El reenvió requiere
que una estación o encaminador tenga una tabla de encaminamiento. Cuando una estación
tiene un paquete para enviar o cuando un encaminador ha recibido un paquete que
tiene que reenviar, busca en su tabla para encontrar el camino al destino
final.
Sin embargo, esta sencilla solución
es imposible hoy en día en una interconexión entre redes como es internet
debido a que el número de entradas necesarias en las tablas de encaminamiento haría
las tablas ineficientes.
Técnicas de reenvió
Existen varias técnicas que
pueden hacer que el tamaño de las tablas de encaminamiento sea manejado y que también
traten aspectos como la seguridad.
- · Método del camino frente al método del siguiente salto
- · Método específico de la estación frente al método especifico de la red
- · Método por defecto
Formato de
Mensajes
Los mensajes de la capa de nivel de red siguen un formato
determinado y éste es el siguiente
Un mensaje de
información determinado puede contener más información (elementos de
información) que la que necesita o puede contener un equipo particular, por lo
que todo equipo debe ser capaz de ignorar presente en un mensaje que no se
requiera para el funcionamiento adecuado del mismo. Por ejemplo, un equipo
terminal puede ignorar el elemento de información "número llamante"
si no resulta necesario cuando se recibe un mensaje ESTABLECIMIENTO.
Alguno de los elementos de
información se enumera a continuación:
- · envío completo.
- · identidad de la llamada.
- · identificación del canal.
- · indicador de progreso.
- · fecha/hora.
- · número llamante.
- · subdirección llamante.
- · número llamado.
- · subdirección llamada.
- · indicador de reinicio.
- · referencia de llamada.
l
La referencia de llamada tiene
una localización propia dentro del mensaje distinta del resto de elementos de
información según se desprende del formato presentando. La finalidad de la
referencia de llamada es a qué llamada se aplica un mensaje particular
transmitido a través del interfaz usuario/red (punto de referencia S), nótese
que identifica una llamada dentro de un equipo terminal lo que permite a dicho
equipo terminal controlar simultáneamente varias llamadas, lo cual puede ser muy
útil para soportar el modo paquete x.25 sobre el canal D, porque se sabría en
todo momento a qué llamada pertenece el dato recibido. Además al tener sólo
interés a nivel de red dentro de un equipo terminal sólo tendrá que ser
exclusivo para el enlace de datos sobre el cual se soporta el protocolo de red
que implementa el equipo terminal pudiéndolo utilizar simultáneamente otro
enlace de datos, esto es otro equipo terminal
Seguridad
La seguridad es un aspecto muy
importante en cualquier red.
La seguridad en la red se consigue
principalmente mediante el uso de criptografía se estudian brevemente aquellos
aspectos de criptografía necesarios para el ámbito del libro, la criptografía,
sin embargo es solo la base de la seguridad. Es necesario complementarla con
servicios de seguridad. Por ello, en este se muestran los servicios de seguridad
que se pueden esperar típicamente en la red, así como aquellos aspectos más
importantes relacionados con la distribución segura y eficiente de claves.
Criptografía
Una palabra de origen griego que
significa “escritura secreta”. Sin embargo, actualmente se usa el termino para
definir la ciencia y el arte de transformar mensajes para hacerlos seguros e
inmunes a ataques.
Texto en claro y cifrado el mensaje origina, antes de ser
transformado, se denomina texto en
claro. Después de su transformación, se denomina texto cifrado. Un algoritmo
cifrado transforma el texto en claro en texto cifrado; un algoritmo de descifrado transforma el
texto cifrado en texto en claro. El emisor usa el algoritmo de cifrado y el
receptor el algoritmo de descifrado.
Cifrador los algoritmos
de cifrado y descifrado se denominan cifradores.
Clave es un número (o conjunto de números) con el que opera el
algoritmo de cifrado. Para cifrar un mensaje, es necesario un algoritmo de
cifrado, una clave de cifrado y el texto en claro. Para cifrarlo, hace falta un
algoritmo de descifrado, una clave de descifrado y el texto cifrado.
Gestión de
Red
La gestión de red consiste en monitorizar y controlar los
recursos de una red con el fin de evitar que esta llegue a funcionar
incorrectamente degradando sus prestaciones.
Planificación, organización, supervisión y control de
elementos de comunicaciones y recursos humanos para garantizar un nivel de
servicio y de acuerdo a un coste.
El objetivo de la gestión es:
- · Mejorar la disponibilidad
- · Incrementar la efectividad
La gestión de red se basa en tres componentes básicos
- · Componente organizacional:
Define la estructura para el proceso de
gestión y la estrategia apropiada para llevarlo a cabo de acuerdo con las
necesidades del negocio
- · Componente técnico:
Define las herramientas a usar para
realizar la función de gestión, y su implantación en la infraestructura
- · Componente funcional:
Define las funciones de gestión que el
componente organizacional debe ejecutar utilizando las herramientas de gestión
Bibliografía
Transmisión de datos y redes de comunicación 4ª Edición,
Beherouz A. Forouzan
No hay comentarios.:
Publicar un comentario