4 may 2011

Practica 2: La Historia del Internet


Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.4 Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
  • 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet SocietyA Brief History of the Internet)
  • 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.
  • 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
  • 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.
  • 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
A inicios de los 90, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.
  • 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.5
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de lo que fue una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí. Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.
Nodo
El término nodo puede referirse a los siguientes conceptos:
En términos generales, un nodo es un espacio real o abstracto en el que confluyen parte de las conexiones de otros espacios reales o abstractos que comparten sus mismas características y que a su vez también son nodos. Todos se interrelacionan de una manera no jerárquica y conforman lo que en términos sociológicos o matemáticos se llama red.
Un nodo, en electricidad, es un punto de conexión entre dos o más elementos de un circuito.
En astronomía, un nodo es cualquiera de los dos puntos en que una órbita corta a un plano de referencia, que puede ser la eclíptica o el ecuador celeste. Hay dos nodos: nodo ascendente, cuando el cuerpo, al seguir la órbita, pasa del sur al norte, y nodo descendente, cuando pasa del norte al sur. Ambos nodos están diametralmente opuestos. Para caracterizar una órbita, uno de los parámetros es la longitud del nodo ascendente. El punto Aries es el nodo ascendente de la eclíptica respecto al Ecuador.
En física, el nodo es todo punto de una onda estacionaria cuya amplitud es cero en cualquier momento.
En informática, un nodo es un «punto de intersección o unión de varios elementos que confluyen en el mismo lugar». Por ejemplo: en una red de ordenadores cada una de las máquinas es un nodo, y si la red es Internet, cada servidor constituye también un nodo.
En programación, concretamente en estructuras de datos, un nodo es uno de los elementos de una lista enlazada, de un árbol o de un grafo. Cada nodo será una estructura o registro que dispondrá de varios campos, y al menos uno de esos campos será un puntero o referencia a otro nodo, de forma que, conocido un nodo, a partir de esa referencia, será posible en teoría tener acceso a otros nodos de la estructura. Los nodos son herramientas esenciales para la construcción de estructuras de datos dinámicas.
En computación paralela, el significado del término «nodo de cómputo» depende del contexto. Por ejemplo, en un sistema multicomputador, un «nodo de cómputo» es cada uno de los computadores individuales que lo forman. En un sistema multiprocesador, el «nodo de cómputo» es cada uno de los procesadores que lo componen.
En la historia reciente de España, el NO-DO o nodo era un «NOticiero DOcumental» de pocos minutos de duración que se presentaba en todos los cines antes de la proyección de cada película.
En biología, concretamente en el campo de las neurociencias, un nodo es una interrupción de mielina en un axón mielinado que deja al descubierto sectores de la membrana en los que se generan potenciales de acción.
Estación de trabajo
Una estación de trabajo está optimizada para desplegar y manipular datos complejos como el diseño mecánico en 3D (Ver: CAD), la simulación de ingeniería (por ejemplo en dinámica de fluidos), la representación de diagramas matemáticos, etc. Las Estaciones de Trabajo usualmente consisten de una pantalla de alta resolución, un teclado y un ratón como mínimo. Para tareas avanzadas de visualización, se puede usar hardware especializado como SpaceBall en conjunto con software MCAD para asegurar una mejor percepción. Las estaciones de trabajo, en general, han sido las primeras en ofrecer accesorios avanzados y herramientas de colaboración tales como la videoconferencia.En informática una estación de trabajo (en inglés workstation) es un microordenador de altas prestaciones destinado para trabajo técnico o científico. En una red de computadoras, es una computadora que facilita a los usuarios el acceso a los servidores y periféricos de la red. A diferencia de una computadora aislada, tiene una tarjeta de red y está físicamente conectada por medio de cables u otros medios no guiados con los servidores. Los componentes para servidores y estaciones de trabajo alcanzan nuevos niveles de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad, escalabilidad y arquitectura avanzada ideales para entornos multiproceso.
Siguiendo las tendencias de rendimiento de las computadoras en general, las computadoras promedio de hoy en día son más poderosas que las mejores estaciones de trabajo de una generación atrás. Como resultado, el mercado de las estaciones de trabajo se está volviendo cada vez más especializado, ya que muchas operaciones complejas que antes requerían sistemas de alto rendimiento pueden ser ahora dirigidas a computadores de propósito general. Sin embargo, el hardware de las estaciones de trabajo está optimizado para situaciones que requieren un alto rendimiento y fiabilidad, donde generalmente se mantienen operativas en situaciones en las cuales cualquier computadora personal tradicional dejaría rápidamente de responder.
Actualmente las estaciones de trabajo suelen ser vendidas por grandes fabricantes de ordenadores como HP o Dell y utilizan CPUs x86-64 como Intel Xeon o AMD Opteron ejecutando Microsoft Windows o GNU/LinuxApple Inc. y Sun Microsystems comercializan también su propio sistema operativo tipo UNIX para sus workstations.
Redundancia
Para otros usos de este término, véase redundancia (otros usos).
En teoría de la información, la redundancia es una propiedad de los mensajes, consistente en tener partes predictibles a partir del resto del mensaje y que por tanto en sí mismo no aportan nueva información o "repiten" parte de la información.
En numerosas aplicaciones, así como en las lenguas naturales la redundancia es una estrategia ampliamente usada para evitar malentendidos o errores de decodificación. Descriptivamente, la redundancia constituye factor comunicativo estratégico que consiste en intensificar, subrayar y repetir la información contenida en el mensaje a fin de que el factor de la comunicación ruido no provoque una pérdida fundamental de información. También tiene como significado exceso.
Telemática
La Telemática es una disciplina científica y tecnológica que surge de la evolución y fusión de la telecomunicación y de la informática. Dicha fusión ha traído el desarrollo de tecnologías que permiten desde realizar una llamada telefónica en la cima del monte Elbrus a un abonado en la selva amazónica, enviar un vídeo en 3D por Internet, o hasta recibir imágenes de una sonda que orbita alrededor de un planeta distante
Origen del término
El término "Telemática" se acuñó en ^Francia (télématique). En 1976, en un informe encargado por el presidente francés y elaborado por Simon Nora y Alain Minc Electrik (conocido como informe Nora-Minc y distribuido por el título: "Informatización de la Sociedad") en el que se daba una visión increíblemente precisa de la evolución tecnológica futura. Ahora bien, el concepto, como se indica en este informe, también puede ligarse a un origen estadounidense: compunication, o como se utiliza más habitualmente Computer and Communications. No obstante, no es casualidad la diferencia entre los términos: responden a contextos diferentes, en efecto, hay matices claves a distinguir. Para aclarar esto, conviene situarse en el contexto de la época: por una parte Francia, ponía claro énfasis en las telecomunicaciones como motor de su transformación social (1976), mientras que Estados Unidos estaba viviendo una gran revolución de la informática. Así, comunication apunta a un modelo con mayor relevancia de los sistemas informáticos; telemática (télématique) por su parte, refiere a un mayor énfasis en la telecomunicación. Esta diferencia de origen se ha perdido, ya que esta disciplina científica y tecnológica ha convergido por completo a nivel mundial, para formar un único cuerpo de conocimiento bien establecido. Disciplina científica y tecnológica que surge de la evolución y fusión de la telecomunicación y de la informática. Dicha fusión ha traído el desarrollo de tecnologías que permiten desde realizar una llamada telefónica en la cima del monte Elbrus a un abonado en la selva amazónica, enviar un vídeo en 3D por Internet, o hasta recibir imágenes de una sonda que orbita alrededor de un planeta
Definición
La Telemática cubre un campo científico y tecnológico de una considerable amplitud, englobando el estudio, diseño, gestión y aplicación de las redes y servicios de comunicaciones, para el transporte, almacenamiento y procesado de cualquier tipo de información (datos, voz, vídeo, etc.), incluyendo el análisis y diseño de tecnologías y sistemas de conmutación. La Telemática abarca entre otros conceptos los siguientes planos funcionales:
El plano de usuario, donde se distribuye y procesa la información de los servicios y aplicaciones finales;
El plano de señalización y control, donde se distribuye y procesa la información de control del propio sistema, y su interacción con los usuarios;
El plano de gestión, donde se distribuye y procesa la información de operación y gestión del sistema y los servicios, y su interacción con los operadores de la red.
Cada uno de los planos se estructura en subsistemas denominados entidades de protocolo, que a su vez se ubican por su funcionalidad en varios niveles. Estos niveles son agrupaciones de funcionalidad, y según el Modelo de interconexión de sistemas abiertos (OSI) de la Organización Internacional para la Estandarización (ISO) se componen de: nivel físico, nivel de enlace, nivel de red, nivel de transporte extremo a extremo, nivel de sesión, nivel de presentación y nivel de aplicación.
Trata también servicios como la tele-educación, el comercio electrónico (e-commerce) o la administración electrónica (e-government), servicios Web, TV digital, la conmutación y la arquitectura de conmutadores, y también toca temas como el análisis de prestaciones, modelado y simulación de redes: optimización, planificación de la capacidad, ingeniería de tráfico y diseño de redes.
Otra modalidad es encontrarla focalizada en una actividad específica como Telemática Educativa en donde se desarrolla el uso de los recursos telemáticos dirigidos a la Educación; entre ellos la comunicación interactiva, la distribución de la información y el uso pedagógico de los servicios.
Teleinformàtica
Una de las principales características de la sociedad actual es la gran importancia que ha adquirido la posesión y el uso de la informática. Se ha acuñado el termino de sociedad de la información para describir este fenómeno. El almacenismo, el manejo y la difusión de grandes cantidades de información es algo habitual en nuestros días, favorecido por el desarrollo de las denominadas nuevas tecnologías de la información. La informática ha facilitado este hecho, pero sucede, cada vez más, que la información que se obtiene o produce en un lugar, se precisa en otro lugar distinto, a veces muy lejano.
Es normal que los datos implicados en un determinado proceso haya que obtenerlos de distintos orígenes, físicamente dispersos. La sociedad actual exige, además, disponer de estos datos con rapidez y fiabilidad. Ante este problema de distancia entre el lugar de producción de datos y el lugar de tratamiento, la obtención de información distante o la comparticion de datos y el lugar de tratamiento, la obtención de información distante o la comparticion de datos por sujetos ubicados en distintos lugares, ha surgido una nueva técnica que utiliza u aúna la Informática y las Telecomunicaciones, a la cual se denomina Teleinformatica.
Mediante esta técnica se pueden interconectar a distancia computadoras, terminales y otros equipos, usando para ello algún medio adecuado de comunicación, como por ejemplo líneas telefónicas, cables coaxiales, microondas, etcétera.
Los problemas que se platean para la puesta en funcionamiento de lo que llamaremos sistema teleinformatico son muchos y complejos, incluyendo los siguientes:
* La transformación de la información digital que circula por la computadora en una clase de señal, analógica o digital, adecuada a los circuitos utilizados en la transmisión.
* La utilización óptima de la línea de telecomunicación, transmitiendo múltiples informaciones simultáneamente, según la capacidad de la misma.
*La eliminación o minizacion de los errores que puedan producirse por ruidos e interferencias, así como la protección contra la perdida o atenuación de la señal que se produce al ser enviada a grandes distancias.
* La conmutación de circuitos y de mensajes necesaria en una red para establecer diferentes orígenes y destinos.
* La compatibilidad entre los equipos y medios de comunicación, tanto a nivel físico como lógico, etcétera.

No hay comentarios:

Publicar un comentario