26 may 2011

Practica : Arquitectura de Redes


Token Ring

Las tarjetas para red Token Ring han caído hoy en día casi en desuso, debido a la baja velocidad y elevado costo respecto de Ethernet. Tenían un conectorDB-9. También se utilizó el conector RJ-45 para las NICs (tarjetas de redes) y los MAUs (Multiple Access Unit- Unidad de múltiple acceso que era el núcleo de una red Token Ring).

[editar]ARCNET


Arquitectura de red de área local que utiliza una técnica de acceso de paso de testigo como el Token Ring. Tiene una topología física en forma de estrella, utilizando cable coaxial y hubs pasivos o activos. Fue desarrollada por Datapoint Corporation en el año 1977.
Transmite 2 megabits por segundo y soporta longitudes de hasta 600 metros. Actualmente se encuentran en desuso en favor de las Ethernet.
Arquitectura de red de área local desarrollado por Datapoint Corporation que utiliza una técnica de acceso de paso de testigo como el Token Ring. La topología física es en forma de estrella mientras que la topología lógica es en forma de anillo, utilizando cable coaxial y hubs pasivos (hasta 4 conexiones) o activos..

[editar]Ethernet

Artículo principal: Ethernet
Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10), AUI (10), MII (100), GMII (1000). El caso más habitual es el de la tarjeta o NICcon un conector RJ-45, aunque durante la transición del uso mayoritario de cable coaxial (10 Mbps) a par trenzado (100 Mbps) abundaron las tarjetas con conectores BNC y RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se pueden ver serigrafiados los conectores no usados). Con la entrada de las redes Gigabit y el que en las casas sea frecuente la presencias de varios ordenadores comienzan a verse tarjetas y placas base (con NIC integradas) con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores.
Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbps ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps, también conocida como Gigabit Ethernet y en algunos casos 10 Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7que trabajan a frecuencias más altas.
Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las de 100 Mbps (13,1 MB/s) realmente pueden llegar como máximo a unos 78,4Mbps (10,3 MB/s).

[editar]Wi-Fi

Artículo principal: Wi-Fi
También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la norma a la cual se ajusten, usualmente son 802.11a, 802.11b y 802.11g. Las más populares son la 802.11b que transmite a 11 Mbps (1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbps (6,75 MB/s).
La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo 11.b es de unos 4Mbps (0,5 MB/s) y las de protocolo 11.g llegan como máximo a unos 20Mbps (2,6 MB/s). Actualmente el protocolo que se viene utilizando es 11.n que es capaz de transmitir 600 Mbps. Actualmente la capa física soporta una velocidad de 300Mbps, con el uso de dos flujos espaciales en un canal de 40 MHz. Dependiendo del entorno, esto puede traducirse en un rendimiento percibido por el usuario de 100Mbps.

19 may 2011

Practica : Capacidad de Transmiciòn

La transmisión de datos se denomina "simple" cuando hay sólo dos equipos que se están comunicando, o si se está enviando un único trozo de información. De lo contrario, es necesario instalar varias líneas de transmisión o compartir la línea entre los diferentes actores que están presentes en la comunicación. Este proceso se denomina multiplexación.
  • Banda Ancha:
El cable coaxial de banda ancha normalmente mueve señales analógicas, posibilitando la transmisión de gran cantidad de información por varias frecuencias, y su uso más común es la televisión por cable.
Los factores a tener en cuenta a la hora de elegir un cable coaxial son su ancho de banda, su resistencia o impedancia característica, su capacidad y su velocidad de propagación.
El ancho de banda del cable coaxial está entre los 500Mhz, esto hace que el cable coaxial sea ideal para transmisión de televisión por cable por múltiples canales.
La resistencia o la impedancia característica depende del grosor del conductor central o malla, si varía éste, también varía la impedancia característica. 

Practica : Distribucion Logica en Redes

Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora de un determinado servicio pero cliente de otro servicio.

  • Servidor. Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión, de archivos, de páginas Web, de correo, de usuarios, de IRC (charlas en Internet), de base de datos...

  • Cliente. Máquina que accede a la inmación de los servidores o utiliza sus servicios. Ejemplos: Cada vez que estamos viendo una página Web (almacenada en un servidor remoto) nos estamos comportando como clientes. También seremos clientes si unimos el servicio de impresión de un ordenador remoto en la red (el servidor que tiene la impresora conectada).

Dependiendo de si existe una función predominante o no para cada puesto de la red, las redes se clasifican en:
  • Redes cliente / servidor. Los de cada puesto están bien definidos: uno o más ordenadores actúan como servidores y el resto como clientes. Los servidores suelen coincidir con las máquinas más potentes de la red. No se utilizan como puestos de trabajo. En ocasiones, ni siquiera tienen monitor puesto que se administran de forma remota: toda su potencia está dada a ofrecer algún servicio a los ordenadores de la red. Internet es una red basada en la arquitectura cliente / servidor.

  • Redes entre iguales. No existe una jerarquía en la red: todos los ordenadores pueden actuar como clientes (accediendo a los recursos de otros puestos) o como servidores (ofreciendo recursos). Son las redes que utilizan las pequeñas oficas, de no más de 10 ordenadores.

11 may 2011

Practica : Redes Por Tamaño

 Existen varios tipos de redes,  los cuales se clasifican de acuerdo a su tamaño y distribución lógica.
 Clasificación segun su tamaño
 Las redes PAN (red de administración personal) son redes pequeñas, las cuales están conformadas por no más de 8 equipos, por ejemplo: café Internet.
 CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso.
 Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos, es decir, aquellas que se utilizan en nuestraempresa. Son redes pequeñas, entendiendo como pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red.
Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.
 Características preponderantes:
  • Los canales son propios de los usuarios o empresas.
  • Los enlaces son líneas de alta velocidad.
  • Las estaciones están cercas entre sí.
  • Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información.
  • Las tasas de error son menores que en las redes WAN.

  • La arquitectura permite compartir recursos.

 LANs mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas las computadoras están conectadas. Existen variastopologías posibles en la comunicación sobre LANs, las cuales se verán mas adelante.
 Las redes WAN (Wide Area Network, redes de área extensa) son redes punto a punto que interconectan países y continentes. Al tener que recorrer una gran distancia sus velocidades son menores que en las LAN aunque son capaces de transportar una mayor cantidad de datos. El alcance es una gran área geográfica, como por ejemplo: una ciudad o un continente. Está formada por una vasta cantidad de computadoras interconectadas (llamadas hosts), por medio de subredes de comunicación o subredes pequeñas, con el fin de ejecutar aplicaciones, programas, etc.
 Una red de área extensa WAN es un sistema de interconexión de equipos informáticos geográficamente dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar esta interconexión suelen ser parte de las redes públicas de transmisión de datos.
Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a mejores servicios, como por ejemplo a Internet. Las redes WAN son mucho más complejas, porque deben enrutar correctamente toda la información proveniente de las redes conectadas a ésta.
 Una subred está formada por dos componentes:
 Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts.
Elementos interruptores (routers): son computadoras especializadas usadas por dos o más líneas de transmisión. Para que un paquete llegue de un router a otro, generalmente debe pasar por routers intermedios, cada uno de estos lo recibe por una línea de entrada, lo almacena y cuando una línea de salida está libre, lo retransmite.
 INTERNET WORKS: Es una colección de redes interconectadas, cada una de ellas puede estar desallorrada sobre diferentes software y hardware. Una forma típica de Internet Works es un grupo de redes LANs conectadas con WANs. Si una subred le sumamos los host obtenemos una red.
El conjunto de redes mundiales es lo que conocemos como Internet.
 Las redes MAN (Metropolitan Area Network, redes de área metropolitana) , comprenden una ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de 4 Kmts. Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto a la transferencia de datos. Es básicamente una gran versión de LAN y usa una tecnología similar. Puede cubrir un grupo de oficinas de una misma corporación o ciudad, esta puede ser pública o privada. El mecanismo para la resolución de conflictos en la transmisión de datos que usan las MANs, es DQDB.
 DQDB consiste en dos buses unidireccionales, en los cuales todas las estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando unacomputadora quiere transmitir a otra, si esta está ubicada a la izquierda usa el bus de arriba, caso contrario el de abajo.
 Redes Punto a Punto. En una red punto a punto cada computadora puede actuar como cliente y como servidor. Las redes punto a punto hacen que el compartir datos y periféricos sea fácil para un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la administración no está centralizada.
 Redes Basadas en servidor. Las redes basadas en servidor son mejores para compartir gran cantidad de recursos y datos. Un administradorsupervisa la operación de la red, y vela que la seguridad sea mantenida. Este tipo de red puede tener uno o mas servidores, dependiendo del volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un servidor de impresión, un servidor de comunicaciones, y un servidor de base de datos, todos en una misma red.
 Clasificación según su distribución lógica
 Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora de un determinado servicio pero cliente de otro servicio.
 Servidor. Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión, de archivos, de páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base de datos...
 Cliente. Máquina que accede a la información de los servidores o utiliza sus servicios. Ejemplos: Cada vez que estamos viendo una página web (almacenada en un servidor remoto) nos estamos comportando como clientes. También seremos clientes si utilizamos el servicio de impresión de un ordenador remoto en la red (el servidor que tiene la impresora conectada).
 Todas estas redes deben de cumplir con las siguientes características:
  • Confiabilidad "transportar datos".

  • Transportabilidad "dispositivos".

  • Gran procesamiento de información.

 y de acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del usuario, como son:
  • Compañías - centralizar datos.

  • Compartir recursos "periféricos, archivos, etc".

  • Confiabilidad "transporte de datos".

  • aumentar la disponibilidad de la información.

  • Comunicación entre personal de las mismas áreas.

  • Ahorro de dinero.

  • Home Banking.

  • Aportes a la investigación "vídeo demanda,line T.V,Game Interactive".   

4 may 2011

Practica 2: La Historia del Internet


Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.4 Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
  • 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet SocietyA Brief History of the Internet)
  • 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
  • 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
  • 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.
  • 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
A inicios de los 90, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.
  • 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.5
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de lo que fue una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí. Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.
Nodo
El término nodo puede referirse a los siguientes conceptos:
En términos generales, un nodo es un espacio real o abstracto en el que confluyen parte de las conexiones de otros espacios reales o abstractos que comparten sus mismas características y que a su vez también son nodos. Todos se interrelacionan de una manera no jerárquica y conforman lo que en términos sociológicos o matemáticos se llama red.
Un nodo, en electricidad, es un punto de conexión entre dos o más elementos de un circuito.
En astronomía, un nodo es cualquiera de los dos puntos en que una órbita corta a un plano de referencia, que puede ser la eclíptica o el ecuador celeste. Hay dos nodos: nodo ascendente, cuando el cuerpo, al seguir la órbita, pasa del sur al norte, y nodo descendente, cuando pasa del norte al sur. Ambos nodos están diametralmente opuestos. Para caracterizar una órbita, uno de los parámetros es la longitud del nodo ascendente. El punto Aries es el nodo ascendente de la eclíptica respecto al Ecuador.
En física, el nodo es todo punto de una onda estacionaria cuya amplitud es cero en cualquier momento.
En informática, un nodo es un «punto de intersección o unión de varios elementos que confluyen en el mismo lugar». Por ejemplo: en una red de ordenadores cada una de las máquinas es un nodo, y si la red es Internet, cada servidor constituye también un nodo.
En programación, concretamente en estructuras de datos, un nodo es uno de los elementos de una lista enlazada, de un árbol o de un grafo. Cada nodo será una estructura o registro que dispondrá de varios campos, y al menos uno de esos campos será un puntero o referencia a otro nodo, de forma que, conocido un nodo, a partir de esa referencia, será posible en teoría tener acceso a otros nodos de la estructura. Los nodos son herramientas esenciales para la construcción de estructuras de datos dinámicas.
En computación paralela, el significado del término «nodo de cómputo» depende del contexto. Por ejemplo, en un sistema multicomputador, un «nodo de cómputo» es cada uno de los computadores individuales que lo forman. En un sistema multiprocesador, el «nodo de cómputo» es cada uno de los procesadores que lo componen.
En la historia reciente de España, el NO-DO o nodo era un «NOticiero DOcumental» de pocos minutos de duración que se presentaba en todos los cines antes de la proyección de cada película.
En biología, concretamente en el campo de las neurociencias, un nodo es una interrupción de mielina en un axón mielinado que deja al descubierto sectores de la membrana en los que se generan potenciales de acción.
Estación de trabajo
Una estación de trabajo está optimizada para desplegar y manipular datos complejos como el diseño mecánico en 3D (Ver: CAD), la simulación de ingeniería (por ejemplo en dinámica de fluidos), la representación de diagramas matemáticos, etc. Las Estaciones de Trabajo usualmente consisten de una pantalla de alta resolución, un teclado y un ratón como mínimo. Para tareas avanzadas de visualización, se puede usar hardware especializado como SpaceBall en conjunto con software MCAD para asegurar una mejor percepción. Las estaciones de trabajo, en general, han sido las primeras en ofrecer accesorios avanzados y herramientas de colaboración tales como la videoconferencia.En informática una estación de trabajo (en inglés workstation) es un microordenador de altas prestaciones destinado para trabajo técnico o científico. En una red de computadoras, es una computadora que facilita a los usuarios el acceso a los servidores y periféricos de la red. A diferencia de una computadora aislada, tiene una tarjeta de red y está físicamente conectada por medio de cables u otros medios no guiados con los servidores. Los componentes para servidores y estaciones de trabajo alcanzan nuevos niveles de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad, escalabilidad y arquitectura avanzada ideales para entornos multiproceso.
Siguiendo las tendencias de rendimiento de las computadoras en general, las computadoras promedio de hoy en día son más poderosas que las mejores estaciones de trabajo de una generación atrás. Como resultado, el mercado de las estaciones de trabajo se está volviendo cada vez más especializado, ya que muchas operaciones complejas que antes requerían sistemas de alto rendimiento pueden ser ahora dirigidas a computadores de propósito general. Sin embargo, el hardware de las estaciones de trabajo está optimizado para situaciones que requieren un alto rendimiento y fiabilidad, donde generalmente se mantienen operativas en situaciones en las cuales cualquier computadora personal tradicional dejaría rápidamente de responder.
Actualmente las estaciones de trabajo suelen ser vendidas por grandes fabricantes de ordenadores como HP o Dell y utilizan CPUs x86-64 como Intel Xeon o AMD Opteron ejecutando Microsoft Windows o GNU/LinuxApple Inc. y Sun Microsystems comercializan también su propio sistema operativo tipo UNIX para sus workstations.
Redundancia
Para otros usos de este término, véase redundancia (otros usos).
En teoría de la información, la redundancia es una propiedad de los mensajes, consistente en tener partes predictibles a partir del resto del mensaje y que por tanto en sí mismo no aportan nueva información o "repiten" parte de la información.
En numerosas aplicaciones, así como en las lenguas naturales la redundancia es una estrategia ampliamente usada para evitar malentendidos o errores de decodificación. Descriptivamente, la redundancia constituye factor comunicativo estratégico que consiste en intensificar, subrayar y repetir la información contenida en el mensaje a fin de que el factor de la comunicación ruido no provoque una pérdida fundamental de información. También tiene como significado exceso.
Telemática
La Telemática es una disciplina científica y tecnológica que surge de la evolución y fusión de la telecomunicación y de la informática. Dicha fusión ha traído el desarrollo de tecnologías que permiten desde realizar una llamada telefónica en la cima del monte Elbrus a un abonado en la selva amazónica, enviar un vídeo en 3D por Internet, o hasta recibir imágenes de una sonda que orbita alrededor de un planeta distante
Origen del término
El término "Telemática" se acuñó en ^Francia (télématique). En 1976, en un informe encargado por el presidente francés y elaborado por Simon Nora y Alain Minc Electrik (conocido como informe Nora-Minc y distribuido por el título: "Informatización de la Sociedad") en el que se daba una visión increíblemente precisa de la evolución tecnológica futura. Ahora bien, el concepto, como se indica en este informe, también puede ligarse a un origen estadounidense: compunication, o como se utiliza más habitualmente Computer and Communications. No obstante, no es casualidad la diferencia entre los términos: responden a contextos diferentes, en efecto, hay matices claves a distinguir. Para aclarar esto, conviene situarse en el contexto de la época: por una parte Francia, ponía claro énfasis en las telecomunicaciones como motor de su transformación social (1976), mientras que Estados Unidos estaba viviendo una gran revolución de la informática. Así, comunication apunta a un modelo con mayor relevancia de los sistemas informáticos; telemática (télématique) por su parte, refiere a un mayor énfasis en la telecomunicación. Esta diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica ha convergido por completo a nivel mundial, para formar un único cuerpo de conocimiento bien establecido. Disciplina científica y tecnológica que surge de la evolución y fusión de la telecomunicación y de la informática. Dicha fusión ha traído el desarrollo de tecnologías que permiten desde realizar una llamada telefónica en la cima del monte Elbrus a un abonado en la selva amazónica, enviar un vídeo en 3D por Internet, o hasta recibir imágenes de una sonda que orbita alrededor de un planeta
Definición
La Telemática cubre un campo científico y tecnológico de una considerable amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y servicios de comunicaciones, para el transporte, almacenamiento y procesado de cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y diseño de tecnologías y sistemas de conmutación. La Telemática abarca entre otros conceptos los siguientes planos funcionales:
El plano de usuario, donde se distribuye y procesa la información de los servicios y aplicaciones finales;
El plano de señalización y control, donde se distribuye y procesa la información de control del propio sistema, y su interacción con los usuarios;
El plano de gestión, donde se distribuye y procesa la información de operación y gestión del sistema y los servicios, y su interacción con los operadores de la red.
Cada uno de los planos se estructura en subsistemas denominados entidades de protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos niveles son agrupaciones de funcionalidad, y según el Modelo de interconexión de sistemas abiertos (OSI) de la Organización Internacional para la Estandarización (ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de aplicación.
Trata también servicios como la tele-educación, el comercio electrónico (e-commerce) o la administración electrónica (e-government), servicios Web, TV digital, la conmutación y la arquitectura de conmutadores, y también toca temas como el análisis de prestaciones, modelado y simulación de redes: optimización, planificación de la capacidad, ingeniería de tráfico y diseño de redes.
Otra modalidad es encontrarla focalizada en una actividad específica como Telemática Educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la Educación; entre ellos la comunicación interactiva, la distribución de la información y el uso pedagógico de los servicios.
Teleinformàtica
Una de las principales características de la sociedad actual es la gran importancia que ha adquirido la posesión y el uso de la informática. Se ha acuñado el termino de sociedad de la información para describir este fenómeno. El almacenismo, el manejo y la difusión de grandes cantidades de información es algo habitual en nuestros días, favorecido por el desarrollo de las denominadas nuevas tecnologías de la información. La informática ha facilitado este hecho, pero sucede, cada vez más, que la información que se obtiene o produce en un lugar, se precisa en otro lugar distinto, a veces muy lejano.
Es normal que los datos implicados en un determinado proceso haya que obtenerlos de distintos orígenes, físicamente dispersos. La sociedad actual exige, además, disponer de estos datos con rapidez y fiabilidad. Ante este problema de distancia entre el lugar de producción de datos y el lugar de tratamiento, la obtención de información distante o la comparticion de datos y el lugar de tratamiento, la obtención de información distante o la comparticion de datos por sujetos ubicados en distintos lugares, ha surgido una nueva técnica que utiliza u aúna la Informática y las Telecomunicaciones, a la cual se denomina Teleinformatica.
Mediante esta técnica se pueden interconectar a distancia computadoras, terminales y otros equipos, usando para ello algún medio adecuado de comunicación, como por ejemplo líneas telefónicas, cables coaxiales, microondas, etcétera.
Los problemas que se platean para la puesta en funcionamiento de lo que llamaremos sistema teleinformatico son muchos y complejos, incluyendo los siguientes:
* La transformación de la información digital que circula por la computadora en una clase de señal, analógica o digital, adecuada a los circuitos utilizados en la transmisión.
* La utilización óptima de la línea de telecomunicación, transmitiendo múltiples informaciones simultáneamente, según la capacidad de la misma.
*La eliminación o minizacion de los errores que puedan producirse por ruidos e interferencias, así como la protección contra la perdida o atenuación de la señal que se produce al ser enviada a grandes distancias.
* La conmutación de circuitos y de mensajes necesaria en una red para establecer diferentes orígenes y destinos.
* La compatibilidad entre los equipos y medios de comunicación, tanto a nivel físico como lógico, etcétera.