Consultar ensayos de calidad


Analisis computadores - historia del hardware



Introducción

Los computadores pueden ser separados en software y hardware. El hardware de computación es la maquina física, que bajo la dirección de un programa, almacena y manipula los datos. Originalmente, los calculos fueron hechos por seres humanos, quienes fueron llamados computadores, como título del trabajo o profesión. Este artículo cubre los principales desarrollos en la historia del hardware de computación, y procura ponerlos en contexto. Para una detallada línea de tiempo vea el artículo línea de tiempo de la computación. El artículo Historia de la computación trata de los métodos previstos para la pluma y el papel, con o sin la ayuda de tablas. Puesto que las calculadoras digitales confían en el almacenamiento digital, y tienden a estar limitadas por el tamaño y la velocidad de la memoria, la historia del almacenamiento de datos del computador esta unido al desarrollo de las computadoras.






Historia del hardware
El hardware ha sido un componente importante del proceso de calculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador mas primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época.
Los dispositivosde ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al abaco, la regla de calculo, el computadora analógica y los mas recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del abaco usando un dispositivo que tiene mas de 100 años puede a veces completar operaciones basicas mas rapidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los calculos mas complejos, los computadores son mas efectivos que el humano mas experimentado.


Primeros computadores digitales
La era de computar moderno comenzó con un explosivo desarrollo antes y durante la Segunda Guerra Mundial, a medida que los circuitos electrónicos, los relés, los condensadores, y los tubos de vacío reemplazaron los equivalentes mecanicos y los calculos digitales reemplazaron los calculos analogos. Las maquinas como el Atanasoff–Berry Computer, Z3, Colossus, y el ENIAC fueron construidas a mano usando circuitos que contenían relés o valvulas (tubos de vacío), y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada y como el medio de almacenamiento principal (no volatil).
En esta era, un número de diferentes maquinas fueron producidas con capacidades que constantemente avanzaban. Al principio de este período, no existió nada que se asemejara remotamente a una computadora moderna, excepto en los planes perdidos por largo tiempo de Charles Babbage y las visiones matematicas de Alan Turing y otros. Al final de la era, habían sido construidosdispositivos como el EDSAC, y son considerados universalmente como computadores digitales. Definir un solo punto en la serie, como la 'primera computadora', pierde muchos sutiles detalles.
El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la computación y ciencias de la computación de dos maneras. Su principal propósito era probar que había problemas (nombrados el problema de la parada) que no podían ser solucionados por ningún proceso secuencial. Al hacer eso, Turing proporcionó una definición de una computadora universal, una construcción que vino a ser llamada maquina de Turing, un dispositivo puramente teórico que formaliza el concepto de ejecución de algoritmo, reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt Gödel. Excepto por las limitaciones impuestas por sus almacenamientos de memoria finitos, se dice que las computadoras modernas son Turing completo, que es como decir que tienen la capacidad de ejecución de algoritmo equivalente a una maquina universal de Turing. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las computadoras de uso general de sus precursores de propósito específico.
Para que una maquina de computación sea una computadora de propósito general practica, debe haber algún mecanismo de lectura/escritura conveniente, como por ejemplo la cinta perforada. Para la completa versatilidad, la arquitectura de Von Neumann usa la misma memoria para almacenar tanto los programas como losdatos; virtualmente todas las computadoras contemporaneas usan esta arquitectura (o alguna variante). Mientras que es teóricamente posible implementar una computadora completa mecanicamente (como demostró el diseño de Babbage), la electrónica hizo posible la velocidad y mas adelante la miniaturización que caracterizan las computadoras modernas.
En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de la computadora, y dos fueron ignoradas en gran parte o deliberadamente mantenidas en secreto. La primera fue el trabajo aleman de Konrad Zuse. La segunda fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguna de éstas tuvieron mucha influencia en los varios proyectos de computación en los Estados Unidos. La tercera corriente de desarrollo de la computadora, el ENIAC y el EDVAC de Eckert y Mauchly, fue publicada extensamente.

Tipos de hardware
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas que consisten en operaciones aritmetilógicas y de entrada/salida; reciben entradas (datos para su procesamiento), producen salidas (resultados del procesamiento), procesan y almacenan información.
Todo sistema informatico tiene componentes hardware dedicados a alguna de estas funciones:
1. Periféricos de entrada.
2. Periféricos de salida.
3. Periféricos de entrada/salida.
4. Unidad central de procesamiento.
5. Memorias.
Cada dispositivo de entrada es sólo otra fuente de señales eléctricas; cada dispositivo desalida no es mas que otro lugar al cual enviar señales (salidas); los dispositivos de almacenamiento y las memorias son ambas cosas, dependiendo de lo que requiera el programa (operación de entrada=lectura, operación de salida=escritura).

Periféricos de entrada.
Son los que permiten al usuario que ingrese información desde el exterior. Entre ellos podemos encontrar: teclado, mouse o ratón, escaner, SAI (Sistema de Alimentación Ininterrumpida), micrófono, camara web , lectores de código de barras, Joystick,camara fotografica,etc.



Periféricos de salida.
Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc.


Periféricos de entrada/salida.
Son los dispositivos que pueden aportar simultaneamente información exterior al PC y al usuario. Así encontramos como dispositivos/periféricos/unidades de Entrada/Salida las tarjetas de red, los módems, las unidades de almacenamiento (discos duros, disquetes, floppy, discos ZIP o las memorias, (USB, flash, etc.).


Unidad central de procesamiento.
Es la computadora real, la 'inteligencia' de un sistema de computación. La CPU, o procesador, es el componente que interpreta instrucciones y procesa datos. Es el elemento fundamental, el cerebro de la computadora. Su papel sería equiparable al de un director de orquesta, cuyo cometido es que el resto de componentes funcionen correctamente y de manera coordinada. Las unidades centrales de proceso no sólo estan presentes en losordenadores personales, sino en todo tipo de dispositivos que incorporan una cierta 'inteligencia' electrónica como pueden ser: televisores, automóviles, calculadores, aviones, teléfonos móviles, juguetes y muchos mas.
Memorias.
Del inglés Random Access Memory, que significa memoria de acceso aleatorio, aludiendo a la capacidad que ofrece este dispositivo para almacenar y/o extraer información de él (Lectura/Escritura) en cualquier punto o dirección del mismo y en cualquier momento (no secuencial). Son los dispositivos que permiten el almacenamiento temporal de información para que la Unidad de Procesamiento pueda ser capaz de ejecutar sus programas. Existen diferentes tipos de memoria RAM:
• VRAM.
• SIMM.
• DIMM.
• DIP.
• RAM Disk.
• Memoria Caché ó RAM Caché.
• SRAM.
• DRAM.


Perifericos
Un periférico es un dispositivo electrónico físico que se conecta o acopla a una computadora, pero no forma parte del núcleo basico (CPU, memoria, placa madre, alimentación eléctrica) de la misma.

Los periféricos sirven para comunicar la computadora con el exterior (ratón, monitor, teclado, etc) o como almacenamiento de información (disco duro, unidad de disco óptico, etc).

Los periféricos suelen poder conectarse a los distintos puertos de la computadora. En general, éstos pueden conectarse o desconectarse de la computadora, pero la misma seguiría funcionando, aunque con menos capacidades.

Los periféricos son parte del hardware de la computadora, pero no todo hardware es periférico (por ejemplo, elmicroprocesador, la placa madre, etc. es hardware, pero no son periféricos).

Los periféricos forman parte de los accesorios o complementos de la computadora. El término 'accesorio de computadora' incluye a los periféricos, pero también otros componentes como chips, placas madre, sensores, etc. Por lo tanto, la palabra accesorios es un término mas amplio que periféricos.

Historia del software

La historia del software como se ha visto, no surge con los equipos electrónicos, -aunque es con ellos que adopta el nombre- esta presente desde el empleo de abacos o sumadoras mecanicas. Sin embargo, en estos casos, el software no se encuentra incorporado en el equipo. Es aportado por el operario. La maquina analítica de Charles Babbage, incidentalmente, tuvo su software, y fue una amiga de éste, la legendaria lady Lovelace, quien aportó el software que no se llegó a usar, dado que la maquina nunca se completó. En el ENIAC el control de las operaciones estaba parcialmente integrado en el equipo. Dicho control era realizado por un circuito que requería un alambrado específico para cada aplicación. Imaginemos lo engorroso que resultaba realambrar el circuito cada vez que cambiaba el uso del ENIAC.
Hasta este momento, no se percibía una diferencia sustancial entre el equipo y el control de las operaciones. El concepto de programa de control almacenado en memoria, aportación popularmente atribuida a John von Neumann, precipitó el desarrollo de software. En éste se perfilaron dos tendencias de desarrollo: los programas de aplicación y losde servicio. Estos últimos tenían como propósito facilitar el desarrollo de programas a partir de programas. Algunos programas de servicio fueron simples cargadores que permitieron emplear notaciones como el octal o hexadecimal mas compactas que el binario. Otros como los ensambladores simplificaron mas el proceso al reemplazar las notaciones numéricas con los símbolos mnemónicos que aportaron para describir a cada instrucción de la maquina. El siguiente paso significativo fue la traducción de fórmulas, que permitió el desarrollo de la historia del software y la descripción de los algoritmos con el empleo de expresiones algebraicas.
La primera teoría sobre el software fue propuesta por Alan Turing en su ensayo de 1935 sobre números computables, con una aplicación destinada a la toma de decisiones. El término 'software' fue utilizado por primera vez de forma escrita por John W. Tukey en 1958. ] El estudio de los campos académicos sobre el software se dividend en informatica y la ingeniería de software.
Como los programas cada vez entraban mas en el reino de firmware y el hardware por si sólo se hacía mas pequeño, mas barato y mas rapido debido a la ley de Moore, los elementos de la computación que primero se consideraban software, pasan a ser hardware. La mayoría de las compañías de hardware hoy en día tienen mas programadores de software en nómina que diseñadores de hardware, ya que las herramientas de software han automatizado muchas de las tareas de los ingenieros de circuitos. Al igual que la industria automotriz, laindustria del software ha crecido de unos pocos visionarios que operaban en su garaje con sus prototipos. Steve Jobs y Bill Gates fueron los Henry Ford y Chevrolet Luis de sus tiempos. En el caso del desarrollo de software, el despegue final es generalmente aceptado que se produce con la publicación en la década de 1980 de las especificaciones para el IBM Personal Computer. Hoy su movimiento sería visto como un tipo de público-sourcing.
Hasta ese momento, el software se incluye con el hardware de los fabricantes de equipos originales (OEM), tales como Data General, Digital Equipment y de IBM. Cuando un cliente compra una minicomputadora, esta incluye el software que es instalado por los ingenieros empleados por el OEM. Las empresas de informatica de hardware, no sólo incluyen sus paquetes de software, sino que también asesoren sobre la ubicación de los equipos normalmente en un espacio refrigerado llamo sala de ordenadores. La mayoría de las empresas tenían su software en su contabilidad valorados 0 ya que no podían venderlo. Cuando Data General introdujo su software Data General Nova, una compañía llamada Digidyne intentó instalar este software que ya había adquirido en un equipo distinto. Data Gerenal se negó a darle una licencia para poder hacerlo y fueron a los Tribunales. La Corte Suprema dijo que si Digidyne había pagado era propietaria de ese software debía poder instalarlo en el equipo que quisiese, lo que se llamó Digidyne v. Poco después IBM publicó los registros de DOS y nació Microsoft. La decisión de laCorte Suprema permitió valorar el software, patentarlo y comerciar con el. Es difícil imaginar hoy que una vez la gente sentía que el software no valía nada sin una maquina. Hay muchas empresas de éxito hoy en día que venden sólo productos de software, aunque todavía hay muchos problemas comunes de concesión de licencias de software debido a la complejidad de los diseños y documentación, lo que lleva a los trolls de patentes.
Con las especificaciones de software de código abierto y la posibilidad de concesión de licencias de software, nuevas oportunidades se levantaron de herramientas de software que luego se convirtieron en el estandar de facto, como DOS para los sistemas operativos, sino también diversos programas de procesamiento de texto y hojas de calculo. En un patrón de crecimiento similar, los métodos de desarrollo de propiedad se convirtió en la metodología estandar de desarrollo de software.
Ciclo de vida del software

El término ciclo de vida del software describe el desarrollo de software, desde la fase inicial hasta la fase final. El propósito de este programa es definir las distintas fases intermedias que se requieren para validar el desarrollo de la aplicación, es decir, para garantizar que el software cumpla los requisitos para la aplicación y verificación de los procedimientos de desarrollo: se asegura de que los métodos utilizados son apropiados.
Estos programas se originan en el hecho de que es muy costoso rectificar los errores que se detectan tarde dentro de la fase de implementación. El ciclo devida permite que los errores se detecten lo antes posible y por lo tanto, permite a los desarrolladores concentrarse en la calidad del software, en los plazos de implementación y en los costos asociados.
El ciclo de vida basico de un software consta de los siguientes procedimientos:
• Definición de objetivos: definir el resultado del proyecto y su papel en la estrategia global.
• Analisis de los requisitos y su viabilidad: recopilar, examinar y formular los requisitos del cliente y examinar cualquier restricción que se pueda aplicar.
• Diseño general: requisitos generales de la arquitectura de la aplicación.
• Diseño en detalle: definición precisa de cada subconjunto de la aplicación.
• Programación (programación e implementación): es la implementación de un lenguaje de programación para crear las funciones definidas durante la etapa de diseño.
• Prueba de unidad: prueba individual de cada subconjunto de la aplicación para garantizar que se implementaron de acuerdo con las especificaciones.
• Integración: para garantizar que los diferentes módulos se integren con la aplicación. Éste es el propósito de la prueba de integración que esta cuidadosamente documentada.
• Prueba beta (o validación), para garantizar que el software cumple con las especificaciones originales.
• Documentación: sirve para documentar información necesaria para los usuarios del software y para desarrollos futuros.
• Implementación
• Mantenimiento: para todos los procedimientos correctivos (mantenimiento correctivo) y las actualizacionessecundarias del software (mantenimiento continuo).
El orden y la presencia de cada uno de estos procedimientos en el ciclo de vida de una aplicación dependen del tipo de modelo de ciclo de vida acordado entre el cliente y el equipo de desarrolladores.
Modelos de ciclo de vida
Para facilitar una metodología común entre el cliente y la compañía de software, los modelos de ciclo de vida se han actualizado para reflejar las etapas de desarrollo involucradas y la documentación requerida, de manera que cada etapa se valide antes de continuar con la siguiente etapa. Al final de cada etapa se arreglan las revisiones de manera que (texto faltante).
Modelo en cascada
El modelo de ciclo de vida en cascada comenzó a diseñarse en 1966 y se terminó alrededor de 1970. Se define como una secuencia de fases en la que al final de cada una de ellas se reúne la documentación para garantizar que cumple las especificaciones y los requisitos antes de pasar a la fase siguiente:

Modelo V
El modelo de ciclo de vida V proviene del principio que establece que los procedimientos utilizados para probar si la aplicación cumple las especificaciones ya deben haberse creado en la fase de diseño.


Software portable
Se dice que un programa informatico (o una aplicación, o un sistema operativo) es portable cuando se puede hacer funcionar en un sistema sin haber sido instalado. - Un claro ejemplo de software portable es el que ha sido desarrollado en lenguaje Java. Ventajas: - Un estudiante puede utilizarlos independiente del lugar donde trabajey de si el ordenador tiene o no instalado el programa. - No usa espacio en el disco. ¿Qué es software portable? - Una aplicación portatil (un portable) es una aplicación informatica que puede ser utilizada en cualquier ordenador que posea el sistema operativo (S.O.) para el que fue programada; no es necesaria la instalación del software o bibliotecas adicionales en el sistema. - Se conocen con distintos nombres; portables, software alone, etc. Aunque la definición no es exactamente la misma su aplicación es muy similar, funcionar sin necesidad de instalar nada en el S.O. - Se puede utilizar desde un lapiz o pen-drive USB. Izquierdo y Riaño(2010). EJEMPLOS DE SOFTWARE PORTABLE MPLayer Portable -> reproductor multimedia GIMP Portable -> retoque fotografico Sumatra PDF Portable -> lector de PDF Miranda IM Portable -> mensajería instantanea Izquierdo y Riaño(2010) OpenOffice.org Portable -> Paquete ofimatico Mas software portable en https://portableapps.com/ VirtualDub Portable -> Edición de video Inkscape Portable -> Edición de graficos Firefox Portable -> navegador de internet Thunderbird Portable -> Gestor correo electrónico 7-Zip Portable -> Comprimir y descomprimir.
Programas portables o software portable son aquellos programas que se ejecutan en la pc sin necesidad de instalacion y puedes llevarlos en cualquier dispositivo de memoria extraible (disquette, pendrive USB, memorias SD, etc).
La configuracion de estos programas se mantiene en el mismo dispositivo portable, por la que no se modifican ningun archivo de lapc.

Aplicaciones Informaticas
'¿Que son las aplicaciones informaticas?': Son, aquellos programas que permiten la interacción entre usuario y computadora (comunicación), dando opción al usuario a elegir opciones y ejecutar acciones que el programa le ofrece. Existen innumerable número de tipos de aplicaciones.
Un aplicación, en final es un programa informatico que permite a un usuario utilizar una computadora con un fin específico. Las aplicaciones son parte del software de una computadora, y suelen ejecutarse sobre el sistema operativo.
Una aplicación de software suele tener un único objetivo: navegar en la web, revisar correo, explorar el disco duro, editar textos, jugar (un juego es un tipo de aplicación), etc. Una aplicación que posee múltiples programas se considera un paquete.
Son ejemplos de aplicaciones Internet Explorer, Outlook, Word, Excel, WinAmp, Aplicaciones Oracle.
En general, una aplicación es un programa compilado, escrito en cualquier lenguaje de programación. Las aplicaciones pueden tener distintas licencias de distribución como ser freeware, shareware, trialware, etc. Las aplicaciones tienen algún tipo de interfaz, que puede ser una interfaz de texto o una interfaz grafica (o ambas). También hay que destacar que la distinción entre aplicaciones y sistemas operativos muchas veces no es clara. De hecho, en algunos sistemas integrados no existe una clara distinción para el usuario entre el sistema y sus aplicaciones.
La diferencia entre los programas de aplicación y los de sistema estriba en que losde sistema suponen ayuda al usuario para relacionarse con el computador y hacer un uso mas cómo del mismo, mientras los de aplicación son programas que cooperan con el usuario para la realización de las actividades mencionadas.
Dentro de los programas de aplicación, puede ser útil una distinción entre aplicaciones verticales, de finalidad específica para un tipo muy delimitado de usuarios (médicos, abogados, arquitectos…), y aplicaciones horizontales, de utilidad para una amplísima gama de usuarios de cualquier tipo.
Hay muchos campos de en los cuales se pueden encontrar ejemplos de aplicaciones informaticas.
En la educación. El papel de la computadora ha de definirse dentro de la metodología actual de la enseñanza. La computadora no puede ni debe sustituir al maestro en el desempeño de la función docente. En el uso de las nuevas tecnologías, el maestro asume la responsabilidad de poner a disposición del alumno las ventajas que éstas pueden proporcionarle dentro del programa de estudios. Los programas computacionales de aplicación didactica, exceptuando los lenguajes de programación, y excluyendo también las aplicaciones propiamente informaticas como los procesadores de textos, las bases de datos, las hojas de calculo, etc., son designados generalmente como programas educativos.


Dentro de los programas de aplicación, puede ser útil una distinción entre aplicaciones verticales, de finalidad específica para un tipo muy delimitado de usuarios (médicos, abogados, arquitectos…), y aplicaciones horizontales, deutilidad para una amplísima gama de usuarios de cualquier tipo.
Hay muchos campos de en los cuales se pueden encontrar ejemplos de aplicaciones informaticas.
En la educación. El papel de la computadora ha de definirse dentro de la metodología actual de la enseñanza. La computadora no puede ni debe sustituir al maestro en el desempeño de la función docente. En el uso de las nuevas tecnologías, el maestro asume la responsabilidad de poner a disposición del alumno las ventajas que éstas pueden proporcionarle dentro del programa de estudios. Los programas computacionales de aplicación didactica, exceptuando los lenguajes de programación, y excluyendo también las aplicaciones propiamente informaticas como los procesadores de textos, las bases de datos, las hojas de calculo, etc., son designados generalmente como programas educativos.

En el Comercio. La informatica es algo mas que ordenadores, bienvenido a la Tecnología. Equipos portatiles conectados vía Wifi, o a través de móvil, la oficina móvil, control del negocio con camaras web. Un sinfín de utilidades que conviene conocer, por que se adaptan específicamente a cada negocio, y en muchos casos a precios asequibles.
Los adelantos tecnológicos logrados por la humanidad en materia de telematica y telecomunicaciones revolucionaron y cambiaron totalmente la concepción del comercio tangible y materializado a través del soporte de papel asegurado por sellos y firmas, surgiendo una nueva concepción de la expresión grafica y escrita a través de la utilización de medios no tangibles.Nos encontramos ante un proceso novísimo de desmaterialización, en el sentido de sustituir el soporte tradicional del 'papel', mas no de prescindir de lo material que algunos suelen confundir, pues sabemos que el mundo electrónico o digital no es uno totalmente intangible. La informatica ha generado un sin numero de aportes a las ciencias Económicas y dentro de ellas al area de las finanzas.
En la ciencia. El uso de la informatica como herramienta de ayuda a la medicina es una realidad en auge. Desde tiempos antiguos muchas de las actividades humanas se han basado en la repetición, a veces muy gravosa, de actos o calculos y del mismo modo que se inventaron operaciones matematicas basicas para simplificarlas, surgió la necesidad de mejorar las limitadas prestaciones que ofrece la mente del hombre para calcular, a medida que las diversas ciencias se hicieron mas complejas.
Las actividades en las cuales el ordenador puede colaborar con el personal sanitario, son muchas y podrían agruparse en tareas técnicas, de formación, administrativas y de gestión. Su uso en la mayoría de instrumental médico moderno facilita el analisis de datos, ondas, imagenes etc. permite utilizar de forma sencilla y eficiente técnicas complejas, como son la monitorización, analisis electrocardiografico, TAC, resonancia magnética. En los últimos años van añadiéndose nuevas aplicaciones informaticas a la medicina, como son las publicaciones electrónicas biomédicas, la telemedicina, impulsada por el auge de INTERNET y su World Wide Web y los registrosinformaticos de la historia clínica.


Familia de protocolos de Internet
La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y que permiten la transmisión de datos entre computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos mas importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron dos de los primeros en definirse, y que son los mas utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser mas de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las paginas web, ademas de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de area local (LAN) y area extensa (WAN).
TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutandolo en ARPANET, una red de area extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con el modelo OSI(Open System Interconnection), que describe los niveles o capas de la pila de protocolos, aunque en la practica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel resuelve una serie de tareas relacionadas con la transmisión de datos, y proporciona un servicio bien definido a los niveles mas altos. Los niveles superiores son los mas cercanos al usuario y tratan con datos mas abstractos, dejando a los niveles mas bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema practico de ingeniería.
El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es mas facil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son mas faciles de entender en el modelo OSI.

Historia del Protocolo TCP/IP
La Familia de Protocolos de Internet fueron el resultado del trabajo llevado a cabo por la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA por sus siglas en inglés) a principios de los 70. Después de la construcción de la pionera ARPANET en 1969 DARPA comenzó a trabajar en un gran número de tecnologías de transmisión de datos. En 1972, Robert E. Kahn fue contratado por la Oficina de Técnicas de Procesamiento de Información de DARPA, donde trabajó en lacomunicación de paquetes por satélite y por ondas de radio, reconoció el importante valor de la comunicación de estas dos formas. En la primavera de 1973, Vint Cerf, desarrollador del protocolo de ARPANET, Network Control Program(NPC) se unió a Kahn con el objetivo de crear una arquitectura abierta de interconexión y diseñar así la nueva generación de protocolos de ARPANET.
Para el verano de 1973, Kahn y Cerf habían conseguido una remodelación fundamental, donde las diferencias entre los protocolos de red se ocultaban usando un Protocolo de comunicaciones y ademas, la red dejaba de ser responsable de la fiabilidad de la comunicación, como pasaba en ARPANET, era el host el responsable. Cerf reconoció el mérito de Hubert Zimmerman y Louis Pouzin, creadores de la red CYCLADES, ya que su trabajo estuvo muy influenciado por el diseño de esta red.
Con el papel que realizaban las redes en el proceso de comunicación reducido al mínimo, se convirtió en una posibilidad real comunicar redes diferentes, sin importar las características que éstas tuvieran. Hay un dicho popular sobre el protocolo TCP/IP, que fue el producto final desarrollado por Cerf y Kahn, que dice que este protocolo acabara funcionando incluso entre 'dos latas unidas por un cordón'. De hecho hay hasta una implementación usando palomas mensajeras, IP sobre palomas mensajeras, que esta documentado en RFC 1149. 1 2
Un ordenador denominado router (un nombre que fue después cambiado a gateway, puerta de enlace, para evitar confusiones con otros tipos de Puerta de enlace)esta dotado con una interfaz para cada red, y envía Datagramas de ida y vuelta entre ellos. Los requisitos para estos routers estan definidos en el RFC 1812. 3
Esta idea fue llevada a la practica de una forma mas detallada por el grupo de investigación que Cerf tenía en Stanford durante el periodo de 1973 a 1974, dando como resultado la primera especificación TCP (Request for Comments 675,) 4 Entonces DARPA fue contratada por BBN Technologies, la Universidad de Stanford, y la University College de Londres para desarrollar versiones operacionales del protocolo en diferentes plataformas de hardware. Se desarrollaron así cuatro versiones diferentes: TCP v1, TCP v2, una tercera dividida en dos TCP v3 y IP v3 en la primavera de 1978, y después se estabilizó la versión TCP/IP v4 — el protocolo estandar que todavía se emplea en Internet.
En 1975, se realizó la primera prueba de comunicación entre dos redes con protocolos TCP/IP entre la Universidad de Stanford y la University College de Londres (UCL). En 1977, se realizó otra prueba de comunicación con un protocolo TCP/IP entre tres redes distintas con ubicaciones en Estados Unidos, Reino Unido y Noruega. Varios prototipos diferentes de protocolos TCP/IP se desarrollaron en múltiples centros de investigación entre los años 1978 y 1983. La migración completa de la red ARPANET al protocolo TCP/IP concluyó oficialmente el día 1 de enero de 1983 cuando los protocolos fueron activados permanentemente.5
En marzo de 1982, el Departamento de Defensa de los Estados Unidos declaró alprotocolo TCP/IP el estandar para las comunicaciones entre redes militares.6 En 1985, el Centro de Administración de Internet (Internet Architecture Board IAB por sus siglas en inglés) organizó un Taller de Trabajo de tres días de duración, al que asistieron 250 comerciales promocionando así el protocolo lo que contribuyó a un incremento de su uso comercial.
Ventajas e inconvenientes
El conjunto TCP/IP esta diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estandar para analizar el funcionamiento de la red.
Un inconveniente de TCP/IP es que es mas difícil de configurar y de mantener que NetBEUI o IPX/SPX; ademas es algo mas lento en redes con un volumen de trafico medio bajo. Sin embargo, puede ser mas rapido en redes con un volumen de trafico grande donde haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en campus universitarios como en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, así como también en redes pequeñas o domésticas,en teléfonos móviles y en domótica.

La familia de protocolos de Internet es un conjunto de protocolos de red que implementa la pila de protocolos en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se la denomina conjunto de protocolos TCP/IP,en referencia a los dos protocolos mas importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los mas utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser mas de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las paginas web, ademas de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de area local (LAN) y area extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutandolo en ARPANET, una red de area extensa del departamento de defensa.
La familia de protocolos de internet puede describirse por analogía con el modelo OSI, que describe los niveles o capas de la pila de protocolos, aunque en la practica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a losniveles mas altos. Los niveles superiores son los mas cercanos al usuario y tratan con datos mas abstractos, dejando a los niveles mas bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema practico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es mas facil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son mas faciles de entender en el modelo OSI.
Niveles en la pila TCP/IP
Hay algunas discusiones sobre como encaja el modelo TCP/IP dentro del modelo OSI. Como TCP/IP y modelo OSI no estan delimitados con precisión no hay una respuesta que sea la correcta.
El modelo OSI no esta lo suficientemente dotado en los niveles inferiores como para detallar la auténtica estratificación en niveles: necesitaría tener una capa extra (el nivel de Interred) entre los niveles de transporte y red. Protocolos específicos de un tipo concreto de red, que se sitúan por encima del marco de hardware basico, pertenecen al nivel de red, pero sin serlo. Ejemplos de estos protocolos son el ARP (Protocolo de resolución de direcciones) y el STP (Spanning Tree Protocol). De todas formas, estos son protocolos locales, y trabajan por debajo de las capas de Intered. Cierto es que situar ambosgrupos (sin mencionar los protocolos que forman parte del nivel de Interred pero se sitúan por encima de los protocolos de Interred, como ICMP) todos en la misma capa puede producir confusión, pero el modelo OSI no llega a ese nivel de complejidad para ser mas útil como modelo de referencia.
El siguiente diagrama intenta mostrar la pila TCP/IP y otros protocolos relacionados con el modelo OSI original:
7 Aplicación ej. HTTP, DNS, SMTP, SNMP, FTP, Telnet, SSH y SCP, NFS, RTSP, Feed, Webcal

6 Presentación ej. XDR, ASN.1, SMB, AFP

5 Sesión ej. TLS, SSH, ISO 8327 / CCITT X.225, RPC, NetBIOS

4 Transporte ej. TCP, UDP, RTP, SCTP, SPX

3 Red ej. IP, ICMP, IGMP, X.25, CLNP, ARP, RARP, BGP, OSPF, RIP, IGRP, EIGRP, IPX, DDP

2 Enlace de datos ej. Ethernet, Token Ring, PPP, HDLC, Frame Relay, RDSI, ATM, IEEE 802.11, FDDI

1 Físico ej. cable, radio, fibra óptica

Normalmente, los tres niveles superiores del modelo OSI (Aplicación, Presentación y Sesión) son considerados simplemente como el nivel de aplicación en el conjunto TCP/IP. Como TCP/IP no tiene un nivel de sesión unificado sobre el que los niveles superiores se sostengan, estas funciones son típicamente desempeñadas (o ignoradas) por las aplicaciones de usuario. La diferencia mas notable entre los modelos de TCP/IP y OSI es el nivel de Aplicación, en TCP/IP se integran algunos niveles del modelo OSI en su nivel de Aplicación. Una interpretación simplificada de la pila se muestra debajo:
5 Aplicación ej. HTTP, FTP, DNS
(protocolos de enrutamiento como BGP yRIP, que por varias razones funcionen sobre TCP y UDP respectivamente, son considerados parte del nivel de red)
4 Transporte ej. TCP, UDP, RTP, SCTP
(protocolos de enrutamiento como OSPF, que funcionen sobre IP, son considerados parte del nivel de red)
3 Interred Para TCP/IP este es el Protocolo de Internet (IP)
(protocolos requeridos como ICMP e IGMP funcionan sobre IP, pero todavía se pueden considerar parte del nivel de red; ARP no funciona sobre IP

2 Enlace ej. Ethernet, Token Ring, etc.

1 Físico ej. medio físico, y técnicas de codificación, T1, E1


El nivel Físico
El nivel físico describe las características físicas de la comunicación, como las convenciones sobre la naturaleza del medio usado para la comunicación (como las comunicaciones por cable, fibra óptica o radio), y todo lo relativo a los detalles como los conectores, código de canales y modulación, potencias de señal, longitudes de onda, sincronización y temporización y distancias maximas. La familia de protocolos de Internet no cubre el nivel físico de ninguna red; véanse los artículos de tecnologías específicas de red para los detalles del nivel físico de cada tecnología particular.
El nivel de Enlace de datos

El nivel de enlace de datos especifica como son transportados los paquetes sobre el nivel físico, incluido los delimitadores (patrones de bits concretos que marcan el comienzo y el fin de cada trama). Ethernet, por ejemplo, incluye campos en la cabecera de la trama que especifican que maquina o maquinas de la red son las destinatariasde la trama. Ejemplos de protocolos de nivel de enlace de datos son Ethernet, Wireless Ethernet, SLIP, Token Ring y ATM.
PPP es un poco mas complejo y originalmente fue diseñado como un protocolo separado que funcionaba sobre otro nivel de enlace, HDLC/SDLC.
Este nivel es a veces subdividido en Control de enlace lógico (Logical Link Control) y Control de acceso al medio (Media Access Control)
El nivel de Interred

Como fue definido originalmente, el nivel de red soluciona el problema de conseguir transportar paquetes a través de una red sencilla. Ejemplos de protocolos son X.25 y Host/IMP Protocol de ARPANET.
Con la llegada del concepto de Interred, nuevas funcionalidades fueron añadidas a este nivel, basadas en el intercambio de datos entre una red origen y una red destino. Generalmente esto incluye un enrutamiento de paquetes a través de una red de redes, conocidada como Internet.
En la familia de protocolos de Internet, IP realiza las tareas basicas para conseguir transportar datos desde un origen a un destino. IP puede pasar los datos a una serie de protocolos superiores; cada uno de esos protocolos es identificado con un único 'Número de protocolo IP'. ICMP y IGMP son los protocolos 1 y 2, respectivamente.
Algunos de los protocolos por encima de IP como ICMP (usado para transmitir información de diagnóstico sobre transmisiones IP) e IGMP (usado para dirigir trafico multicast) van en niveles superiores a IP pero realizan funciones del nivel de red e ilustran una incompatibilidad entre los modelos de Internet yOSI. Todos los protocolos de enrutamiento, como BGP, OSPF, y RIP son realmente también parte del nivel de red, aunque ellos parecen pertenecer a niveles mas altos en la pila.
El nivel de Transporte
Los protocolos del nivel de transporte pueden solucionar problemas como la fiabilidad ('¿alcanzan los datos su destino?') y la seguridad de que los datos llegan en el orden correcto. En el conjunto de protocolos TCP/IP, los protocolos de transporte también determinan a que aplicación van destinados los datos.
Los protocolos de enrutamiento dinamico que técnicamente encajan en el conjunto de protocolos TCP/IP (ya que funcionan sobre IP) son generalmente considerados parte del nivel de red; un ejemplo es OSPF (protocolo IP número 89).
TCP (protocolo IP número 6) es un mecanismo de transporte fiable y orientado a conexión, que proporciona un flujo fiable de bytes, que asegura que los datos llegan completos, sin daños y en orden. TCP realiza continuamente medidas sobre el estado de la red para evitar sobrecargarla con demasiado trafico. Ademas, TCP trata de enviar todos los datos correctamente en la secuencia especificada. Esta es una de las principales diferencias con UDP, y puede convertirse en una desventaja en flujos en tiempo real (muy sensibles a la variación del retardo) o aplicaciones de enrutamiento con porcentajes altos de pérdida en el nivel de interred.
Mas reciente es SCTP, también un mecanismo fiable y orientado a conexión. Esta relacionado con la orientación a byte, y proporciona múltiples sub-flujosmultiplexados sobre la misma conexión. También proporciona soporte de multihoming, donde una conexión puede ser representada por múltiples direcciones IP (representando múltiples interfaces físicas), así si hay una falla la conexión no se interrumpe. Fue desarrollado inicialmente para aplicaciones telefónicas (para transportar SS7 sobre IP), pero también fue usado para otras aplicaciones.
UDP (protocolo IP número 17) es un protocolo de datagramas sin conexión. Es un protocolo no fiable (best effort al igual que IP) - no porque sea particularmente malo, sino porque no verifica que los paquetes lleguen a su destino, y no da garantías de que lleguen en orden. Si una aplicación requiere estas características, debe llevarlas a cabo por sí misma o usar TCP.
UDP es usado normalmente para aplicaciones de streaming (audio, video, etc) donde la llegada a tiempo de los paquetes es mas importante que la fiabilidad, o para aplicaciones simples de tipo petición/respuesta como el servicio DNS, donde la sobrecarga de las cabeceras que aportan la fiabilidad es desproporcionada para el tamaño de los paquetes.
DCCP esta actualmente bajo desarrollo por el IETF. Proporciona semantica de control para flujos TCP, mientras de cara al usuario se da un servicio de datagramas UDP..
TCP y UDP son usados para dar servicio a una serie de aplicaciones de alto nivel. Las aplicaciones con una dirección de red dada son distinguibles entre sí por su número de puerto TCP o UDP. Por convención, los puertos bien conocidos (well-known ports) son asociados conaplicaciones específicas.
RTP es un protocolo de datagramas que ha sido diseñado para datos en tiempo real como el streaming de audio y video que se monta sobre UDP.
El nivel de Aplicación
El nivel de aplicación es el nivel que los programas mas comunes utilizan para comunicarse a través de una red con otros programas. Los procesos que acontecen en este nivel son aplicaciones específicas que pasan los datos al nivel de aplicación en el formato que internamente use el programa y es codificado de acuerdo con un protocolo estandar.
Algunos programas específicos se considera que se ejecutan en este nivel. Proporcionan servicios que directamente trabajan con las aplicaciones de usuario. Estos programas y sus correspondientes protocolos incluyen a HTTP (HyperText Transfer Protocol), FTP (Transferencia de archivos), SMTP (correo electrónico), SSH (login remoto seguro), DNS (Resolución de nombres de dominio) y a muchos otros.
Una vez que los datos de la aplicación han sido codificados en un protocolo estandar del nivel de aplicación son pasados hacia abajo al siguiente nivel de la pila de protocolos TCP/IP.
En el nivel de transporte, las aplicaciones normalmente hacen uso de TCP y UDP, y son habitualmente asociados a un número de puerto bien conocido (well-known port). Los puertos fueron asignados originalmente por la IANA.
Internet Protocol
Protocolo de Internet» redirige aquí. Para 'protocolo de Internet' como el término genérico, véase Familia de protocolos de Internet.
Este artículo trata sobre el protocolo para lacomunicación de datos. Para otros usos de este término, véase IP.
Internet Protocol (IP)
Familia: Familia de protocolos de Internet

Función: Envío de paquetes de datos tanto a nivel local como a través de redes.
Última versión: IPv6

__________ ______ ____ _________
Ubicación en la pila de protocolos
Aplicación
http, ftp,

Transporte
TCP, UDP,

Red
IP
Enlace
Ethernet, Token Ring,
FDDI,

__________ ______ ____ _________
Estandares: RFC 791 (1981)
RFC 2460 (IPv6, 1998)

Internet Protocol (en español Protocolo de Internet) o IP es un protocolo no orientado a conexión, usado tanto por el origen como por el destino para la comunicación de datos, a través de una red de paquetes conmutados no fiable y de mejor entrega posible sin garantías.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes o datagramas (en el protocolo IP estos términos se suelen usar indistintamente). En particular, en IP no se necesita ninguna configuración antes de que un equipo intente enviar paquetes a otro con el que no se había comunicado antes.
IP provee un servicio de datagramas no fiable (también llamado del mejor esfuerzo (best effort), lo hara lo mejor posible pero garantizando poco). IP no provee ningún mecanismo para determinar si un paquete alcanza o no su destino y únicamente proporciona seguridad (mediante checksums o sumas de comprobación) de sus cabeceras y no de los datos transmitidos. Por ejemplo, al no garantizar nada sobre la recepción del paquete, éste podríallegar dañado, en otro orden con respecto a otros paquetes, duplicado o simplemente no llegar. Si se necesita fiabilidad, ésta es proporcionada por los protocolos de la capa de transporte, como TCP.
Si la información a transmitir ('datagramas') supera el tamaño maximo 'negociado' (MTU) en el tramo de red por el que va a circular podra ser dividida en paquetes mas pequeños, y reensamblada luego cuando sea necesario. Estos fragmentos podran ir cada uno por un camino diferente dependiendo de como estén de congestionadas las rutas en cada momento.
Las cabeceras IP contienen las direcciones de las maquinas de origen y destino (direcciones IP), direcciones que seran usadas por los enrutadores (routers) para decidir el tramo de red por el que reenviaran los paquetes.
El IP es el elemento común en la Internet de hoy. El actual y mas popular protocolo de red es IPv4. IPv6 es el sucesor propuesto de IPv4; poco a poco Internet esta agotando las direcciones disponibles por lo que IPv6 utiliza direcciones de fuente y destino de 128 bits (lo cual asigna a cada milímetro cuadrado de la superficie de la Tierra la colosal cifra de 670.000 millones de direcciones IP), muchas mas direcciones que las que provee IPv4 con 32 bits. Las versiones de la 0 a la 3 estan reservadas o no fueron usadas. La versión 5 fue usada para un protocolo experimental. Otros números han sido asignados, usualmente para protocolos experimentales, pero no han sido muy extendidos.
Un protocolo es un método estandar que permite la comunicación entre procesos (quepotencialmente se ejecutan en diferentes equipos), es decir, es un conjunto de reglas y procedimientos que deben respetarse para el envío y la recepción de datos a través de una red. Existen diversos protocolos de acuerdo a cómo se espera que sea la comunicación. Algunos protocolos, por ejemplo, se especializaran en el intercambio de archivos (FTP); otros pueden utilizarse simplemente para administrar el estado de la transmisión y los errores (como es el caso de ICMP), etc.
En Internet, los protocolos utilizados pertenecen a una sucesión de protocolos o a un conjunto de protocolos relacionados entre sí. Este conjunto de protocolos se denomina TCP/IP.
Entre otros, contiene los siguientes protocolos:
Protocolos de red
Podemos definir un protocolo como el conjunto de normas que regulan la comunicación (establecimiento, mantenimiento y cancelación) entre los distintos componentes de una red informatica. Existen dos tipos de protocolos: protocolos de bajo nivel y protocolos de red.
Los protocolos de bajo nivel controlan la forma en que las señales se transmiten por el cable o medio físico. En la primera parte del curso se estudiaron los habitualmente utilizados en redes locales (Ethernet y Token Ring). Aquí nos centraremos en los protocolos de red.
Los protocolos de red organizan la información (controles y datos) para su transmisión por el medio físico a través de los protocolos de bajo nivel. Veamos algunos de ellos:
IPX/SPX
IPX (Internetwork Packet Exchange) es un protocolo de Novell que interconecta redes queusan clientes y servidores Novell Netware. Es un protocolo orientado a paquetes y no orientado a conexión (esto es, no requiere que se establezca una conexión antes de que los paquetes se envíen a su destino). Otro protocolo, el SPX (Sequenced Packet eXchange), actúa sobre IPX para asegurar la entrega de los paquetes.
NetBIOS
NetBIOS (Network Basic Input/Output System) es un programa que permite que se comuniquen aplicaciones en diferentes ordenadores dentro de una LAN. Desarrollado originalmente para las redes de ordenadores personales IBM, fué adoptado posteriormente por Microsoft. NetBIOS se usa en redes con topologías Ethernet y token ring. No permite por si mismo un mecanismo de enrutamiento por lo que no es adecuado para redes de area extensa (MAN), en las que se debera usar otro protocolo para el transporte de los datos (por ejemplo, el TCP).
NetBIOS puede actuar como protocolo orientado a conexión o no (en sus modos respectivos sesión y datagrama). En el modo sesión dos ordenadores establecen una conexión para establecer una conversación entre los mismos, mientras que en el modo datagrama cada mensaje se envía independientemente.
Una de las desventajas de NetBIOS es que no proporciona un marco estandar o formato de datos para la transmisión.
NetBEUI
NetBIOS Extended User Interface o Interfaz de Usuario para NetBIOS es una versión mejorada de NetBIOS que sí permite el formato o arreglo de la información en una transmisión de datos. También desarrollado por IBM y adoptado después por Microsoft, es actualmente elprotocolo predominante en las redes Windows NT, LAN Manager y Windows para Trabajo en Grupo.
Aunque NetBEUI es la mejor elección como protocolo para la comunicación dentro de una LAN, el problema es que no soporta el enrutamiento de mensajes hacia otras redes, que debera hacerse a través de otros protocolos (por ejemplo, IPX o TCP/IP). Un método usual es instalar tanto NetBEUI como TCP/IP en cada estación de trabajo y configurar el servidor para usar NetBEUI para la comunicación dentro de la LAN y TCP/IP para la comunicación hacia afuera de la LAN.
AppleTalk
Es el protocolo de comunicación para ordenadores Apple Macintosh y viene incluido en su sistema operativo, de tal forma que el usuario no necesita configurarlo. Existen tres variantes de este protocolo:
LocalTalk. La comunicación se realiza a través de los puertos serie de las estaciones. La velocidad de transmisión es pequeña pero sirve por ejemplo para compartir impresoras.
Ethertalk. Es la versión para Ethernet. Esto aumenta la velocidad y facilita aplicaciones como por ejemplo la transferencia de archivos.
Tokentalk. Es la versión de Appletalk para redes Tokenring.
TCP/IP
Es realmente un conjunto de protocolos, donde los mas conocidos son TCP (Transmission Control Protocol o protocolo de control de transmisión) e IP (Internet Protocol o protocolo Internet). Dicha conjunto o familia de protocolos es el que se utiliza en Internet. Lo estudiaremos con detalle en el apartado siguiente






Protocolo TCP/IP
La suite TCP/IP
Internet es unconglomerado muy amplio y extenso en el que se encuentran ordenadores con sistemas operativos incompatibles, redes mas pequeñas y distintos servicios con su propio conjunto de protocolos para la comunicación. Ante tanta diversidad resulta necesario establecer un conjunto de reglas comunes para la comunicación entre estos diferentes elementos y que ademas optimice la utilización de recursos tan distantes. Este papel lo tiene el protocolo TCP/IP. TCP/IP también puede usarse como protocolo de comunicación en las redes privadas intranet y extranet.
Las siglas TCP/IP se refieren a dos protocolos de red, que son Transmission Control Protocol (Protocolo de Control de Transmisión) e Internet Protocol (Protocolo de Internet) respectivamente. Estos protocolos pertenecen a un conjunto mayor de protocolos. Dicho conjunto se denomina suite TCP/IP.
Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente para proporcionar el transporte de datos dentro de Internet (o Intranet). En otras palabras, hacen posible que accedamos a los distintos servicios de la Red. Estos servicios incluyen, como se comento en el capítulo 1: transmisión de correo electrónico, transferencia de ficheros, grupos de noticias, acceso a la World Wide Web, etc.
Hay dos clases de protocolos dentro de la suite TCP/IP que son: protocolos a nivel de red y protocolos a nivel de aplicacion.
Protocolos a Nivel de Red
Estos protocolos se encargan de controlar los mecanismos de transferencia de datos. Normalmente son invisibles para el usuario y operan por debajo dela superficie del sistema. Dentro de estos protocolos tenemos:
TCP. Controla la división de la información en unidades individuales de datos (llamadas paquetes) para que estos paquetes sean encaminados de la forma mas eficiente hacia su punto de destino. En dicho punto, TCP se encargara de reensamblar dichos paquetes para reconstruir el fichero o mensaje que se envió. Por ejemplo, cuando se nos envía un fichero HTML desde un servidor Web, el protocolo de control de transmisión en ese servidor divide el fichero en uno o mas paquetes, numera dichos paquetes y se los pasa al protocolo IP. Aunque cada paquete tenga la misma dirección IP de destino, puede seguir una ruta diferente a través de la red. Del otro lado (el programa cliente en nuestro ordenador), TCP reconstruye los paquetes individuales y espera hasta que hayan llegado todos para presentarnoslos como un solo fichero.
IP. Se encarga de repartir los paquetes de información enviados entre el ordenador local y los ordenadores remotos. Esto lo hace etiquetando los paquetes con una serie de información, entre la que cabe destacar las direcciones IP de los dos ordenadores. Basandose en esta información, IP garantiza que los datos se encaminaran al destino correcto. Los paquetes recorreran la red hasta su destino (que puede estar en el otro extremo del planeta) por el camino mas corto posible gracias a unos dispositivos denominados encaminadores o routers.
Protocolos a Nivel de Aplicación
Aquí tenemos los protocolos asociados a los distintos servicios de Internet,como FTP, Telnet, Gopher, HTTP, etc. Estos protocolos son visibles para el usuario en alguna medida. Por ejemplo, el protocolo FTP (File Transfer Protocol) es visible para el usuario. El usuario solicita una conexión a otro ordenador para transferir un fichero, la conexión se establece, y comienza la transferencia. Durante dicha transferencia, es visible parte del intercambio entre la maquina del usuario y la maquina remota (mensajes de error y de estado de la transferencia, como por ejemplo cuantos bytes del fichero se han transferido en un momento dado).
Breve Historia del Protocolo TCP/IP
A principios de los años 60, varios investigadores intentaban encontrar una forma de compartir recursos informaticos de una forma mas eficiente. En 1961, Leonard Klienrock introduce el concepto de Conmutación de Paquetes (Packet Switching, en inglés). La idea era que la comunicación entre ordenadores fuese dividida en paquetes. Cada paquete debería contener la dirección de destino y podría encontrar su propio camino a través de la red.
Como ya comentamos en el capítulo anterior, en 1969 la Agencia de Proyectos de Investigación Avanzada (Defense Advanced Research Projects Agency o DARPA) del Ejército de los EEUU desarrolla la ARPAnet. La finalidad principal de esta red era la capacidad de resistir un ataque nuclear de la URSS para lo que se pensó en una administración descentralizada. De este modo, si algunos ordenadores eran destruidos, la red seguiría funcionando. Aunque dicha red funcionaba bien, estaba sujeta a algunas caidasperiódicas del sistema. De este modo, la expansión a largo plazo de esta red podría resultar difícil y costosa. Se inició entonces una búsqueda de un conjunto de protocolos mas fiables para la misma. Dicha búsqueda finalizó, a mediados de los 70, con el desarrollo de TCP/IP.
TCP/IP tenia (y tiene) ventajas significativas respecto a otros protocolos. Por ejemplo, consume pocos recusos de red. Ademas, podía ser implementado a un coste mucho menor que otras opciones disponibles entonces. Gracias a estos aspectos, TCP/IP comenzó a hacerse popular. En 1983, TCP/IP se integró en la versión 4.2 del sistema operativo UNIX de Berkeley y la integración en versiones comerciales de UNIX vino pronto. Así es como TCP/IP se convirtió en el estandar de Internet.
En la actualidad, TCP/IP se usa para muchos propósitos, no solo en Internet. Por ejemplo, a menudo se diseñan intranets usando TCP/IP. En tales entornos, TCP/IP ofrece ventajas significativas sobre otros protocolos de red. Una de tales ventajas es que trabaja sobre una gran variedad de hardware y sistemas operativos. De este modo puede crearse facilmente una red heterogénea usando este protocolo. Dicha red puede contener estaciones Mac, PC compatibles, estaciones Sun, servidores Novell, etc. Todos estos elementos pueden comunicarse usando la misma suite de protocolos TCP/IP. La siguiente tabla muestra una lista de plataformas que soportan TCP/IP:
Plataforma Soporte de TCP/IP
UNIX Nativo
DOS Piper/IP por Ipswitch
Windows TCPMAN por Trumpet Software
Windows 95 Nativo
WindowsNT Nativo
Macintosh MacTCP u OpenTransport (Sys 7.5+)
OS/2 Nativo
AS/400 OS/400 Nativo
Las plataformas que no soportan TCP/IP nativamente lo implementan usando programas TCP/IP de terceras partes, como puede apreciarse en la tabla anterior.
Cómo Trabaja TCP/IP
TCP/IP opera a través del uso de una pila. Dicha pila es la suma total de todos los protocolos necesarios para completar una transferencia de datos entre dos maquinas (así como el camino que siguen los datos para dejar una maquina o entrar en la otra). La pila esta dividida en capas, como se ilustra en la figura siguiente:
EQUIPO SERVIDOR O CLIENTE
|
Capa de
Aplicaciones Cuando un usuario inicia una transferencia de datos,
esta capa pasa la solicitud a la Capa de Transporte.
|
Capa de
Transporte La Capa de Transporte añade una cabecera y pasa
los datos a la Capa de Red.
|
Capa de
Red En la Capa de Red, se añaden las direcciones IP de
origen y destino para el enrrutamiento de datos.
|
Capa de
Enlace de Datos Ejecuta un control de errores sobre el flujo de datos
entre los protocolos anteriores y la Capa Física.
|
Capa
Física Ingresa o engresa los datos a través del medio físico,
que puede ser Ethernet vía coaxial, PPP vía módem, etc.
Después de que los datos han pasado a través del proceso ilustrado en la figura anterior, viajan a su destino en otra maquina de la red. Allí, el proceso se ejecuta al revés (los datos entran por la capa física y recorren la pila hacia arriba). Cada capa de la pila puede enviar y recibir datos desde la capaadyacente. Cada capa esta también asociada con múltiples protocolos que trabajan sobre los datos.
El Programa Inetd y los Puertos
Cada vez que una maquina solicita una conexión a otra, especifica una dirección particular. En general, esta dirección sera la dirección IP Internet de dicha maquina. Pero hablando con mas detalle, la maquina solicitante especificara también la aplicación que esta intentando alcanzar dicho destino. Esto involucra a dos elementos: un programa llamado inetd y un sistema basado en puertos.
Inetd. Inetd pertenece a un grupo de programas llamados TSR (Terminate and stay resident). Dichos programas siempre estan en ejecución, a la espera de que se produzca algún suceso determinado en el sistema. Cuando dicho suceso ocurre, el TSR lleva a cabo la tarea para la que esta programado.
En el caso de inetd, su finalidad es estar a la espera de que se produzca alguna solicitud de conexión del exterior. Cuando esto ocurre, inetd evalúa dicha solicitud determinando que servicio esta solicitando la maquina remota y le pasa el control a dicho servicio. Por ejemplo, si la maquina remota solicita una pagina web, le pasara la solicitud al proceso del servidor Web.
En general, inetd es iniciado al arrancar el sistema y permanece residente (a la escucha) hasta que apagamos el equipo o hasta que el operador del sistema finaliza expresamente dicho proceso.
Puertos. La mayoría de las aplicaciones TCP/IP tienen una filosofía de cliente-servidor. Cuando se recibe una solicitud de conexión, inetd inicia un programaservidor que se encargara de comunicarse con la maquina cliente. Para facilitar este proceso, a cada aplicación (FTP o Telnet, por ejemplo) se le asigna una única dirección. Dicha dirección se llama puerto. Cuando se produce una solicitud de conexión a dicho puerto, se ejecutara la aplicación correspondiente.
Aunque la asignación de puertos a los diferentes servicios es de libre elección para los administradores de sistema, existe un estandar en este sentido que es conveniente seguir. La tabla que se muestra a continuación presenta un listado de algunas asignaciones estandar:
Servicio o Aplicación Puerto
File Transfer Protocol (FTP) 21
Telnet 23
Simple Mail Transfer Protocol (SMTP) 25
Gopher 70
Finger 79
Hypertext Transfer Protocol (HTTP) 80
Network News Transfer Protocol (NNTP) 119
Números IP
En el capítulo anterior vimos que una dirección IP consistía en cuatro números separados por puntos, estando cada uno de ellos en el rango de 0 a 254. Por ejemplo, una dirección IP valida sería 193.146.85.34. Cada uno de los números decimales representa una cadena de ocho dígitos binarios. De este modo, la dirección anterior sería realmente la cadena de ceros y unos:
11000001.10010010.01010101.00100010
NOTA: Podemos usar la Calculadora de Windows 95 para realizar las conversiones de binario-decimal y viceversa.
La versión actual del protocolo IP (la versión 4 o IPv4) define de esta forma direcciones de 32 bits, lo que quiere decir que hay 2^32 (4.294.967.296) direcciones IPv4 disponibles. Esto parece un gran número, perola apertura de nuevos mercados y el hecho de que un porcentaje significativo de la población mundial sea candidato a tener una dirección IP, hacen que el número finito de direcciones pueda agotarse eventualmente. Este problema se ve agravado por el hecho de que parte del espacio de direccionamiento esta mal asignado y no puede usarse a su maximo potencial.
Por otra parte, el gran crecimiento de Internet en los últimos años ha creado también dificultades para encaminar el trafico entre el número cada vez mayor de redes que la componen. Esto ha creado un crecimiento exponencial del tamaño de las tablas de encaminamiento que se hacen cada vez mas difíciles de sostener.
Los problemas comentados se han solucionado en parte hasta la fecha introduciendo progresivos niveles de jerarquía en el espacio de direcciones IP, que pasamos a comentar en los siguientes apartados. No obstante, la solución a largo plazo de estos problemas pasa por desarrollar la próxima generación del protocolo IP (IPng o IPv6) que puede alterar algunos de nuestros conceptos fundamentales acerca de Internet.
Clasificación del Espacio de Direcciones
Cuando el protocolo IP se estandarizó en 1981, la especificación requería que a cada sistema conectado a Internet se le asignase una única dirección IP de 32 bits. A algunos sistemas, como los routers, que tienen interfaces a mas de una red se les debía asignar una única dirección IP para cada interfaz de red. La primera parte de una dirección IP identifica la red a la que pertenece el host, mientras que lasegunda identifica al propio host. Por ejemplo, en la dirección 135.146.91.26 tendríamos:
Prefijo de Red Número de Host
135.146 91.26
Esto crea una jerarquía del direccionamiento a dos niveles. Recordemos que la dirección es realmente una cadena de 32 dígitos binarios, en la que en el ejemplo anterior hemos usado los 24 primeros para identificar la red y los 8 últimos para identificar el host.
Clases Primarias de Direcciones. Con la finalidad de proveer la flexibilidad necesaria para soportar redes de distinto tamaño, los diseñadores decidieron que el espacio de direcciones debería ser dividido en tres clases diferentes: Clase A, Clase B y Clase C. Cada clase fija el lugar que separa la dirección de red de la de host en la cadena de 32 bits.
Una de las características fundamentales de este sistema de clasificación es que cada dirección contiene una clave que identifica el punto de división entre el prefijo de red y el número de host. Por ejemplo, si los dos primeros bits de la dirección son 1-0 el punto estara entre los bits 15 y 16.
Redes Clase A (/8). Cada dirección IP en una red de clase A posee un prefijo de red de 8 bits (con el primer bit puesto a 0 y un número de red de 7 bits), seguido por un número de host de 24 bits.
El posible definir un maximo de 126 (2^7-2) redes de este tipo y cada red /8 soporta un maximo de 16.777.214 (2^24-2) hosts. Obsérvese que hemos restado dos números de red y dos números de host. Estos números no pueden ser asignados ni a ninguna red ni a ningún host y son usados para propósitosespeciales. Por ejemplo, el número de host 'todos 0' identifica a la propia red a la que 'pertenece'.
Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para la redes /8 o clase A:
1.xxx.xxx.xxx hasta 126.xxx.xxx.xxx
Redes Clase B (/16). Tienen un prefijo de red de 16 bits (con los dos primeros puestos a 1-0 y un número de red de 14 bits), seguidos por un número de host de 16 bits. Esto nos da un maximo de 16.384 (2^14) redes de este tipo, pudiéndose definir en cada una de ellas hasta 65.534 (2^16-2) hosts.
Traduciendo los números binarios a notación decimal, tendríamos el siguiente rango de direcciones para la redes /16 o clase B:
128.0.xxx.xxx hasta 191.255.xxx.xxx
Redes Clase C (/24). Cada dirección de red clase C tiene un prefijo de red de 24 bits (siendo los tres primeros 1-1-0 con un número de red de 21 bits), seguidos por un número de host de 8 bits. Tenemos así 2.097.152 (2^21) redes posibles con un maximo de 254 (2^8-2) host por red.
El rango de direcciones en notación decimal para las redes clase C sería:
192.0.0.xxx hasta 223.255.255.xxx
Subredes
En 1985 se define el concepto de subred, o división de un número de red Clase A, B o C, en partes mas pequeñas. Dicho concepto es introducido para subsanar algunos de los problemas que estaban empezando a producirse con la clasificación del direccionamento de dos niveles jerarquicos.
Las tablas de enrutamiento de Internet estaban empezando a crecer.
Los administradores locales necesitaban solicitar otronúmero de red de Internet antes de que una nueva red se pudiese instalar en su empresa.
Ambos problemas fueron abordados añadiendo otro nivel de jerarquía, creandose una jerarquía a tres niveles en la estructura del direccionamiento IP. La idea consistió en dividir la parte dedicada al número de host en dos partes: el número de subred y el número de host en esa subred:
Jerarquía a dos Niveles
Prefijo de Red Número de Host
135.146 91.26
Jerarquía a tres Niveles
Prefijo de Red Número de Subred Número de Host
135.146 91 26
Este sistema aborda el problema del crecimiento de las tablas de enrutamiento, asegurando que la división de una red en subredes nunca es visible fuera de la red privada de una organización. Los routers dentro de la organización privada necesitan diferenciar entre las subredes individuales, pero en lo que se refiere a los routers de Internet, todas las subredes de una organización estan agrupadas en una sola entrada de la tabla de rutas. Esto permite al administrador local introducir la complejidad que desee en la red privada, sin afectar al tamaño de las tablas de rutas de Internet.
Por otra parte, sólo hara falta asignar a la organización un único número de red (de las clases A,B o C) o como mucho unos pocos. La propia organización se encargara entonces de asignar dintintos números de subred para cada una de sus redes internas. Esto evita en la medida de lo posible el agotamiento de los números IP disponibles.
Mascara de Subred
Prefijo de Red extendido. Los routers de Internet usan solamente elprefijo de red de la dirección de destino para encaminar el trafico hacia un entorno con subredes. Los routers dentro del entorno con subredes usan el prefijo de red extendido para encaminar el trafico entre las subredes. El prefijo de red extendido esta compuesto por el prefijo de red y el número de subred:
Prefijo de Red Extendido
Prefijo de Red Número de Subred Número de Host
El prefijo de red extendido se identifica a través de la mascara de subred. Por ejemplo, si consideramos la red clase B 135.146.0.0 y queremos usar el tercer octeto completo para representar el número de subred, deberemos especificar la mascara de subred 255.255.255.0
Entre los bits en la mascara de subred y la dirección de Internet existe una correspondencia uno a uno. Los bits de la mascara de subred estan a 1 si el sistema que examina la dirección debe tratar los bits correspondientes en la dirección IP como parte del prefijo de red extendido. Los bits de la mascara estan a 0 si el sistema debe considerar los bits como parte del número de host. Esto se ilustra en la siguiente figura:
prefijo de red nº subred nº host
Dirección IP 135.146.91.26 10000111 10010010 01011011 00011010
Mascara de Subred 255.255.255.0 11111111 11111111 11111111 00000000
prefijo de red extendido
En lo que sigue nos referiremos a la longitud del prefijo de red extendido mas que a la mascara de subred, aunque indican lo mismo. La longitud del prefijo es igual al número de bits a 1 contiguos en la mascara de subred. De este modo, la dirección 135.146.91.26con una mascara de subred 255.255.255.0 podra expresarse también de la forma 135.146.91.26/24, lo que resulta mas compacto y facil de entender.
Caso practico
Pero veamos un caso practico para comprender mejor esta clasificación con tres niveles jeraquicos. A una organización se le ha asignado el número de red 193.1.1.0/24 (esto es, una clase C) y dicha organización necesita definir seis subredes. La subred mas grande puede contener un maximo de 25 hosts.
Primer paso (definir la mascara de subred). Lo primero que debemos hacer es determinar el número de bits necesarios para definir las 6 subredes. Dada la naturaleza del sistema de numeración binario esto sólo puede hacerse tomando múltiplos de 2. Así que cogeremos 2^3=8 y podemos dejar las 2 subredes restantes previendo un eventual crecimiento de nuestra red.
Como 8=2^3, se necesitan 3 bits para numerar las 8 subredes. Como estamos hablando de una clase C ( /24), sumamos 3 y nuestro prefijo de red extendido sera /27 que en decimal nos daría la mascara 255.255.255.224. Esto se ilustra en la figura siguiente:
prefijo de red bits nº subr bits nº host
193.1.1.0/24= 11000001 00000001 00000001 000 00000
prefijo de red extendido
255.255.255.224= 11111111 11111111 11111111 111 00000
27 bits
NOTA: Para no desanimarse, podemos coger la calculadora y hacer la conversión de 11100000 a decimal, que dara justamente 224.
Segundo paso (definir los números de subred). Las ocho subredes se numeraran de 0 a 7. Lo único que tenemos que hacer es colocar la representación binariade dichos números en el campo bits nº subred de la primera fila de la figura anterior, y luego traducir las direcciones binarias a decimal. Quedaría lo siguiente:
Red Base: 11000001.00000001.00000001.00000000=193.1.1.0/24
Subred 0: 11000001.00000001.00000001.00000000=193.1.1.0/27
Subred 1: 11000001.00000001.00000001.00100000=193.1.1.32/27
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/27
Subred 3: 11000001.00000001.00000001.01100000=193.1.1.96/27
Subred 4: 11000001.00000001.00000001.10000000=193.1.1.128/27
Subred 5: 11000001.00000001.00000001.10100000=193.1.1.160/27
Subred 6: 11000001.00000001.00000001.11000000=193.1.1.192/27
Subred 7: 11000001.00000001.00000001.11100000=193.1.1.224/27
Tercer paso (definir los números de host). En nuestro ejemplo, disponemos de 5 bits en el campo bits nº host de cada dirección de subred. Esto nos da un bloque de 30 (=2^5-2) direcciones de host posibles, que cubre los 25 que se preveen como maximo. Obsérvese que restamos 2 pues las direcciones de host todos 0 (esta subred) o todos 1 (broadcast) no pueden usarse. Los host de cada subred se numeran del 0 al 30. Para definir la dirección asignada al host n de una subred dada, colocaremos la representación binaria de n en el campo bits nº host y luego traduciremos la dirección completa a notación decimal. Por ejemplo, para la subred 2 quedaría:
Subred 2: 11000001.00000001.00000001.01000000=193.1.1.64/24
Host 1: 11000001.00000001.00000001.01000001=193.1.1.64/27
Host 2: 11000001.00000001.00000001.01000010=193.1.1.65/27Host 3: 11000001.00000001.00000001.01000011=193.1.1.66/27
.
.
.
Host 29: 11000001.00000001.00000001.01011101=193.1.1.93/27
Host 30: 11000001.00000001.00000001.01011110=193.1.1.94/27
En el ejemplo anterior, la parte inicial de cada dirección identifica el prefijo de red extendido, mientras que los dígitos en negrita indican el campo de 5 bits número de host.
DNS
Como ya comentamos en el capítulo dedicado a Internet, el DNS (Domain Name System, o Sistema de Nombres de Dominio) es un sistema hace corresponder a la dirección IP de cada host de Internet un único nombre de dominio, para que podamos acceder a dicho host con mayor facilidad. Ademas, veíamos que la estructura de dichos nombres es jerarquica, algo similar a Nombre_del_host.Subsubdominio.Subdominio.Dominio. Estudiaremos ahora con mas detalle este tema. Comenzamos explicando algunos conceptos previos que nos serviran para comprender mejor el tema.
Nombres de equipos NetBIOS y DNS
En Windows 95 pueden utilizarse dos tipos de nombres para los equipos:
El nombre NetBIOS, que consta de una única parte y que sera el que indiquemos en la casilla Identificación dentro del cuadro de dialogo Red en el Panel de control.
El nombre DNS, que consta de dos partes: un nombre de host y un nombre de dominio, que juntos forman el nombre completo de dominio (FQDN o Fully Qualified Domain Name). Este nombre se puede indicar en el cuadro de dialogo Propiedades de TCP/IP accesible también a través del cuadro de dialogo Red.
Resolución de nombres
En las redes TCP/IP, losordenadores se identifican a través de su dirección IP. Sin embargo, a los usuarios les resulta mas facil usar nombres para los ordenadores en vez de números, por lo que se hace necesario establecer un mecanismo que resuelva nombres en direcciones IP cuando se soliciten conexiones dando los nombres de los ordenadores remotos. Esto se conoce como un sistema de resolución de nombres. En las redes Windows existen diversos sistemas de resolución de nombres disponibles:
Resolución de nombres por difusión. Cuando un equipo se conecta a la red, realizara difusiones a nivel IP para registrar su nombre NetBIOS anunciandolo en la red. Cada equipo en el area de difusión es responsable de cancelar cualquier intento de registrar un nombre duplicado. Uno de los problemas existentes en este sistema es que, si la red es grande, se sobrecargara de difusiones. No obstante, resultara el adecuado en nuestra Intranet para las conexiones internas.
Servicio de nombres Internet de Windows (WINS, Windows Internet Naming Service). Utiliza una base de datos dinamica que hace corresponder nombres de equipos NetBIOS con direcciones IP. Dicha base de datos reside en un servidor WINS (que sera una maquina con Windows NT server). WINS reduce el uso de la resolución por difusión y permite a los usuarios localizar facilmente sistemas en redes remotas.
Resolución de nombres usando el Sistema de nombres de dominio (DNS). DNS permite resolver nombres DNS a direcciones IP cuando un ordenador se conecta a ordenadores remotos fuera de la red local (porejemplo, a nodos de Internet). Necesita un servidor de nombres DNS. En nuestro caso dicho servidor sera el de Red Canaria, al cual accederemos a través de nuestro router que actuara como puerta de enlace o gateway para cada estación de nuestra red local. Para mas detalles sobre DNS ver el apartado siguiente.
Ficheros LMHOSTS y HOSTS. Ambos ficheros se utilizan en ordenadores locales para enumerar direcciones IP conocidas de ordenadores remotos junto con sus nombres de equipo. El fichero LMHOSTS especifica el nombre NetBIOS del ordenador remoto y su dirección IP. El fichero HOST especifica el nombre DNS y la dirección IP. Pueden considerarse como equivalentes locales a los servicios WINS y DNS y pueden usarse para resolver nombres de ordenadores remotos a direcciones IP cuando los servicios anteriores no estan disponibles. En nuestro caso, usaremos un fichero HOSTS en cada una de nuestras estaciones para indicar el nombre y la dirección IP de nuestro servidor web interno (Servweb), ya que al tener el DNS activado en dichas estaciones (para acceder a Internet), cuando no estemos conectados dicho DNS no estara operativo con la consiguiente ralentización en la resolución del nombre del servidor web interno.
Sistema de nombres de dominio (DNS o Domain Name System)
El DNS es una base de datos distribuida que proporciona un sistema de nomenclatura jerarquico para indentificar hosts en Internet.
Espacio de nombres de dominio. La base de datos DNS tiene una estructura en arbol que se llama espacio de nombres de dominio. Cada dominio(o nodo en el arbol) tiene un nombre y puede contener subdominios. El nombre de dominio identifica la posición del dominio en el arbol respecto a su dominio principal, utilizandose puntos para separar los nombres de los nodos. Por ejemplo, el nombre de dominio rcanaria.es se refiere al subdominio rcanaria perteneciente al dominio principal es.

Dominios de primer nivel. Los dominios del nivel superior en la base de datos DNS pueden ser genéricos (com, org, edu, etc.) o territoriales (uk, es, etc.). Para obtener un listado completo, consultar el capítulo 1. La administración de dichos dominios se lleva a cabo por un organismo llamado InterNIC.
Dominios de niveles inferiores y zonas. Por debajo del primer nivel, InterNIC delega en otras organizaciones la administración del espacio de nombres de dominio. El arbol DNS queda dividido en zonas, donde cada zona es una unidad administrativa independiente. Las zonas pueden ser un único dominio o un dominio dividido en subdominios. Por ejemplo, el dominio rcanaria sería una zona administrativa del arbol DNS.
Nombres de dominio completos. Un nombre de dominio completo (FQDN o Fully Qualified Domain Name) se forma siguiendo la ruta desde la parte inferior del arbol DNS (nombre de host) hasta la raíz de dicho arbol. En el FQDN el nombre de cada nodo es separado por un punto. Un ejemplo de FQDN sería www.educa.rcanaria.es.
Servidores de nombres y resolvers. Los servidores DNS o servidores de nombre contienen información de una parte de la base de datos DNS (zona) para satisfacerlas demandas de los clientes DNS. Cuando un ordenador cliente (resolver) solicita una conexión a un ordenador remoto de Internet a través de su FQDN, el servidor de nombres buscara el FQDN en su porción de la base de datos DNS. Si esta ahí, satisfara de inmediato la demanda del resolver. En caso contrario, consultara a otros servidores de nombres para intentar responder a la consulta.

¿ Qué es la Computación en Nube ?
La computación en nube es un sistema informatico basado en Internet y centros de datos remotos para gestionar servicios de información y aplicaciones. La computación en nube permite que los consumidores y las empresas gestionen archivos y utilicen aplicaciones sin necesidad de instalarlas en cualquier computadora con acceso a Internet. Esta tecnología ofrece un uso mucho mas eficiente de recursos, como almacenamiento, memoria, procesamiento y ancho de banda, al proveer solamente los recursos necesarios en cada momento. El término “nube” se utiliza como una metafora de Internet.
La computación en nube es un sistema informatico basado en Internet y centros de datos remotos para gestionar servicios de información y aplicaciones. La computación en nube permite que los consumidores y las empresas gestionen archivos y utilicen aplicaciones sin necesidad de instalarlas en cualquier computadora con acceso a Internet. Esta tecnología ofrece un uso mucho mas eficiente de recursos, como almacenamiento, memoria, procesamiento y ancho de banda, al proveer solamente los recursos necesarios en cada momento.
Eltérmino “nube” se utiliza como una metafora de Internet y se origina en la nube utilizada para representar Internet en los diagramas de red como una abstracción de la infraestructura que representa.
Un ejemplo sencillo de computación en nube es el sistema de documentos y aplicaciones electrónicas Google Docs / Google Apps. Para su uso no es necesario instalar software o disponer de un servidor, basta con una conexión a Internet para poder utilizar cualquiera de sus servicios.
El servidor y el software de gestión se encuentran en la nube (Internet) y son directamente gestionados por el proveedor de servicios. De esta manera, es mucho mas simple para el consumidor disfrutar de los beneficios. En otras palabras: la tecnología de la información se convierte en una servicio, que se consume de la misma manera que consumimos la electricidad o el agua.

En este tipo de computación todo lo que puede ofrecer un sistema informatico se ofrece como servicio,1 de modo que los usuarios puedan acceder a los servicios disponibles 'en la nube de Internet' sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan. Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores de Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portatiles, etc.
'Cloud computing' es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catalogo de serviciosestandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.
El cambio paradigmatico que ofrece computación en nube es que permite aumentar el número de servicios basados en la red. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma mas rapida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.
Computación en nube consigue aportar estas ventajas, apoyandose sobre una infraestructura tecnológica dinamica que se caracteriza, entre otros factores, por un alto grado de automatización, una rapida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado evitando ademas el uso fraudulento del software y la piratería.
La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios
Comienzos
El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS, Microsoft [1] y otros que construyeron su propia infraestructura.De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fabricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled), un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos, este nuevo modelo de nube se estaba aplicando a los servicios de Internet.2
Beneficios
• Integración probada de servicios Red. Por su naturaleza, la tecnología de 'Cloud Computing' se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.3
• Prestación de servicios a nivel mundial. Las infraestructuras de 'Cloud Computing' proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
• Una infraestructura 100% de 'Cloud Computing' permite al proveedor de contenidos o servicios en la nube prescindir de instalar cualquiertipo de hardware, ya que éste es provisto por el proveedor de la infraestructura o la plataforma en la nube. La belleza de la tecnología de 'Cloud Computing' es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
• Implementación mas rapida y con menos riesgos. Podra empezar a trabajar muy rapidamente gracias a una infraestructura de 'Cloud Computing'. No tendra que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de 'Cloud Computing' estaran disponibles en cuestión de días o horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.
• Actualizaciones automaticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de 'Cloud Computing' no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automaticamente durante la actualización.
• Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha mas energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.Desventajas
• La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.
• La disponibilidad de las aplicaciones esta ligada a la disponibilidad de acceso a Internet.
• Los datos 'sensibles' del negocio no residen en las instalaciones de las empresas por lo que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de información.
• La confiabilidad de los servicios depende de la 'salud' tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.4
• La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.
• La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces, por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes significativas, así como su consumo automatico por aplicaciones.
• Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que estos requieren.
• Escalabilidad a largo plazo. A medida que mas usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de losproveedores aumentara, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o jitter altos.
Capas
Software como servicio
El software como servicio (en inglés software as a service, SaaS) se encuentra en la capa mas alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido mas ampliamente es Salesforce.com, pero ahora ya hay muchos mas, incluyendo las Google Apps que ofrecen servicios basicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en mas de una capa de la nube con su Force.com, que ya esta en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio. Otro ejemplo es la plataforma MS Office como servicio SaaS con su denominación de Microsoft Office 365, que incluye versiones online de la mayoría de las aplicaciones de esta suite ofimatica de Microsoft. 5
Plataforma como servicio
La capa del medio, que es la plataforma como servicio (en inglés platform as a service, PaaS), es la encapsulación de una abstracción de un ambiente de desarrollo y el empaquetamientode una carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila basica Red (por ejemplo, un distro Linux, un servidor Red, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de desarrollo y pruebas del software, o pueden estar especializadas en cualquier area en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google, y también Windows Azure [2], de Microsoft, una plataforma en la nube que permite el desarrollo y ejecución de aplicaciones codificadas en varios lenguajes y tecnologías como .NET, Java y PHP. Servicios PaaS tales como éstos permiten gran flexibilidad, pero puede ser restringida por las capacidades que estan disponibles a través del proveedor.
Infraestructura como servicio
La infraestructura como servicio (infrastructure as a service, IaaS) -también llamado en algunos casos hardware as a service, HaaS)6 se encuentra en la capa inferior y es un medio de entregar almacenamiento basico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocidoes Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.
Tipos de nubes
• Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.7
• Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas estan en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios estan autorizados a utilizar la infraestructura.
• Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentircierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estara probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.
Comparaciones
La computación en nube usualmente es confundida con la computación en grid (red) (una forma de computación distribuida por la que 'un súper computador virtual' esta compuesto de un conjunto ó cluster enlazado de ordenadores débilmente acoplados, actuando en concierto para realizar tareas muy grandes).8
Controversia
Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.
La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.9 Algunos críticos afirman que sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, The Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales 'gregarios' con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñardeterminadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época y numerosos expertos respaldan la teoría.10
De forma similar, Richard Stallman, fundador de la Free Software Foundation, cree que la computación en nube pone en peligro las libertades de los usuarios, porque éstos dejan su privacidad y datos personales en manos de terceros. Ha afirmado que la computación en nube es 'simplemente una trampa destinada a obligar a mas gente a adquirir sistemas propietarios, bloqueados, que les costaran mas y mas conforme pase el tiempo.'11
Aplicaciones
• iCloud - desarrollado por Apple Inc.
• Campaign Cloud - desarrollado por ElectionMall.Com powerd by Microsoft
• Dropbox - desarrollado por Dropbox
• Google Docs - Desarrollado por Google



Artículo 68
Zona
La zona es el punteo acumulado de los resultados de todas las evaluaciones desarrolladas a lo largo del trimestre: examenes parciales, ejercicios, trabajos de investigación, tareas, casos y otros, previos al examen final.
Es obligación del tutor entregar a los estudiantes dos reportes de zona:
1. En la sexta semana, zona parcial (esto aplica solo a los cursos que contiene examen parcial).
2. En la décima semana, el punteo total acumulado como zona.
Es responsabilidad del estudiante exigirle al tutor su zona, si el tutor no entregara la zona correspondiente en la sexta y décima semana, el estudiante debera reportarlo a mas tardar dos días habiles después del la fecha de nopresentación de zonas por parte del tutor, al correo electrónico: directorcoordinaciontutores.idea@galileo.edu. La Universidad se libera de responsabilidad si el estudiante no reporta lo anterior en el tiempo correspondiente.
El tutor solo tiene la obligación de presentar zonas en las semanas indicadas, de igual forma solo tiene responsabilidad en devolver los éxamenes y tareas de la semana siguiente después de recibidos, si el alumno no asistiera a cualquiera de estas tutorías, el tutor conservara la documentación y la entregara en la décima semana. Si el alumno no solicita la misma, esta sera destruida.
El tutor solo puede entregar las zonas al alumno que esta debidamente inscrito y asignado, bajo ninguna circunstancia puede entregar copia de las mismas a la Administración del CEI.
Artículo 70
Normas específicas para la evaluación por medio de un examen escrito
Para todas las evaluaciones de aprendizaje por medio de un examen escrito, se establecen como normas específicas:
1. Se obliga la presencia física del estudiante en los examenes.
2. Se obliga a realizar evaluaciones en forma individual. El desarrollo de evaluaciones en grupo no aplica. A quien se le sorprenda contraviniendo este artículo, tutor o estudiante, sera sancionado conforme al reglamento vigente.
3. Por la modalidad y metodología del Programa FISICC-IDEA, no existe exoneración de examenes en cualquiera de los cursos. El examen final es obligatorio en todo el programa, y este incluye todo el contenido del curso. A quien se le sorprendacontraviniendo este artículo, tutor o estudiante, sera sancionado conforme al reglamento vigente.
4. El estudiante, en todo examen (corto, parcial, final, reposición o privado) otorgado por Universidad Galileo (por medio de cuadernillo, hoja scantron, hojas simples o en computadora), debera firmar o aceptar el enunciado: “Por este medio acepto y me sujeto a las reglas de evaluación de los cursos establecidas por la Universidad y a las sanciones correspondientes por la infracción a las mismas”.
5. El estudiante debe someterse a los examenes correspondientes (cortos, parciales y finales) en las fechas y horarios establecidos por el tutor en el programa de estudio. Quien no se presente a dichas fechas perdera el valor de los mismos. En todo caso el estudiante que no pueda asistir al examen parcial, el tutor podra aplicar en forma proporcional al valor del parcial no realizado, la nota obtenida por el estudiante en el examen final, siempre y cuando exista una justificación de ausencia, la nota obtenida en el examen final sea mayor de 61 puntos y presente su solicitud y justificación ante el tutor, antes de finalizada la octava semana de tutorías. En el caso de no poder asistir tampoco al examen final le valga por el examen parcial. Se sugiere en este caso que el alumno opte directamente por el examen de reposición y no por extraordinario, dado que el extraordinario solo modificara la nota del examen final pero no tendra puntuación del parcial. En el caso de reposición se le efectuara un examen de 0 a 100 puntos.
6. La duración delexamen final dependera de la cantidad de créditos académicos del curso en mención. Para los cursos de un (1) período, el examen tendra duración de una (1) hora y, para los de dos (2) períodos, seran dos (2) horas. Esta duración no aplica para los Seminarios o cursos con Examen Centralizado.
7. Bajo ninguna circunstancia el tutor podra realizar evaluaciones por medio de un examen escrito fuera del horario y Centro de Estudios en el cual el estudiante tiene la asignación de curso, de igual forma el tutor no esta autorizado a realizar ningún cobro sobre los examenes extraordinarios. A quien se le sorprenda contraviniendo este artículo, tutor o estudiante, sera sancionado conforme al reglamento vigente.
8. En caso de evento fortuito, como corte o suspensión del servicio de energia eléctrica, situaciones climaticas, fenómenos naturales u otras situaciones externas, que afecte el desarrollo de la tutoría durante una evaluación escrita, la misma sera suspendida, y los examenes deben ser recogidos por el tutor inmediatamente, no es posible que el alumno continúe desarrollando sus examen.
Para definir si el examen tiene validez o es necesario trasladarlo para la siguiente tutoría se considera lo siguiente:
• Sí del tiempo destinado al examen, el tiempo recorrido es mayor del 50%, se dara como valida la prueba y se ponderara sobre el 50% del contenido del examen. El alumno que haya concluido sus examen se le ponderara sobre 100%.
• Si es menor se repetira la prueba la siguiente semana de tutorías, un examen no puede realizarseen tutoría de reposición. En todo caso la prueba sera distinta. Si en todo caso un alumno hubiera concluido su prueba la misma sera valida, sin embargo tiene derecho a someterse a la nueva prueba.
En el caso de ausencia se energía eléctrica, el examen y tutoría puede continuar si es en horario diurno y el aula tiene suficiente iluminación natural para concluir la misma. Si es factible, en el tiempo restante se avanzara en los siguientes temas tutoría para que no sea necesaria la reposición de la misma.
Artículo 86
Examen Extraordinario
Es el examen que da el Programa FISICC-IDEA al estudiante que cuando por justificación de ausencia, no asiste a la evaluación final. En este caso el estudiante conserva la zona acumulada obtenida en el desarrollo del curso.
Para optar a un examen extraordinario, el estudiante debe dirigir una solicitud, adjuntando constancia a su justificación de ausencia al departamento de Control Académico para su aprobación. La misma debe hacerse a Control Académico como fecha límite, antes de finalizada la segunda semana de tutorías del ciclo académico inmediato siguiente, al que el estudiante se asignó el curso del que solicita examen, después de esta fecha el estudiante pierde la concesión de examen extraordinario.
Una vez aprobado la autorización, para la asignación de la fecha del examen extraordinario, el estudiante puede optar a las siguientes opciones:
• a. Realizar el examen en la primera fecha de examenes de reposición: en este caso aplica el procedimiento y costos de asignación deexamenes de reposición, con la única diferencia que Control Académico tomara en cuenta la zona para publicar la nota final. Este examen se realiza en el caso del interior de la república en el Centro de Estudios del estudiante y para estudiantes del Departamento de Guatemala, en el Campus Central. Ver artículo 80.
• b. Realizar el examen extraordinario en una fecha y hora establecida en común acuerdo entre las partes. En este caso se aplica el costo de examenes extraordinarios y únicamente se realiza en Campus Central.
Ambas opciones son para realizar el examen en fechas posteriores a la del examen final al que el estudiante no pudo asistir. Si en todo caso el estudiante prefiere que se le realice el examen antes del fin de ciclo, debera realizar la solicitud por escrito a Dirección Académica, para que se determine como proceder, en estos casos sólo se modificara la fecha del examen con causa justificable y constancias que demuestren lo anterior. Dirección Académica definira el lugar, hora y costo del examen y el responsable del corrimiento del mismo. El tutor no tiene autoridad para adelantarle el examen final, quien contradiga lo anterior sera sancionado según el reglamento, un examen realizado fuera de fecha realizado por el tutor puede inclusive implicar la baja del tutor.
El examen extraordinario no se puede llevar a cabo bajo ninguna excepción después de finalizar la quinta semana de tutorías, por ello no se puede llevar a cabo en la segunda fecha de reposición.


Política de privacidad