jueves, 24 de julio de 2008

UNIVERSIDAD NACIONAL DEL CALLAO


Reseña Historica

La Universidad Nacional del Callao se crea el 2 de septiembre de 1966, según la Ley 16225, iniciando su funcionamiento en el distrito de La Punta, con las siguientes facultades:

  • Recursos Hidrobiológicos y Pesquería.
  • Química Industrial.Ingeniería Naval, Industrial, Mecánica y Eléctrica.
  • Ciencias Económicas y Administrativas.

Se creó esta Casa de Estudios con un carácter y carreras de perfil técnico, única en su género en el Perú y por su ubicación privilegiada en el primer puerto marítimo, aéreo y única provincia constitucional como es el Callao. La Universidad ha mantenido este carácter propio y hoy cuenta con once Facultades, quince Escuelas Profesionales y una Escuela de Postgrado.

En la Escuela de Postgrado se ofrecen maestrías en docencia e investigación universitaria, ingeniería química, ciencia y tecnología de alimentos, salud pública, ingeniería de sistemas, finanzas, comercio y negocios internacionales, ciencias fiscalizadoras, tributación. La Universidad Nacional del Callao se ha propuesto formar profesionales, realizar investigación y proyección social en consonancia con las necesidades de la sociedad y de la comunidad, y aportar así al desarrollo de la región y del País.

Para cumplir con estos fines se ha planteado a sí misma una organización apoyada cada vez más con los adelantos de la ciencia y tecnología moderna, tanto en el proceso de enseñanza-aprendizaje como en los aspectos administrativos, siendo su horizonte la calidad, la competitividad, la eficiencia y eficacia en el uso de sus recursos. Por su naturaleza histórica y funcional hasta el momento la Universidad privilegia la investigación en aspectos ligados a la actividad pesquera y recursos hidrobiológicos, el diseño y mantenimiento de equipos, maquinaria y herramientas y plantas industriales y manufactureras, la industria metalmecánica, la agroindustria, la química básica y aplicada, el comercio, la banca, las finanzas y el turismo.

Dos veces al año se programan exámenes de admisión, para un número de 1500 ingresantes bajo la modalidad de la doble opción, cuenta con un centro de preparación para el ingreso, con una capacidad de 1000 alumnos, 150 de los cuales pueden acceder directamente a las Facultades en cada proceso de admisión. entre sus diversas actividades extracurriculares, destaca el Centro de idiomas, que ofrece cursos de ingles y francés, a aproximadamente 600 alumnos, vía un convenio con la Alianza Francesa.

Misión:

Formar profesionales competentes de calidad, que puedan desempeñarse en forma eficiente, eficaz y efectiva en las organizaciones donde se desempeñen, que identifiquen y planteen soluciones a los problemas en los campos de la tecnología, la ciencia y las humanidades, de acuerdo con la realidad y visión del desarrollo nacional, realizando investigaciones, extensión y proyección social, con orientación preferente a los campos de actividad pesquera, marítima, portuaria y naval.


Visión:

La Universidad Nacional del Callao se convertirá en una institución líder, moderna, capaz de contribuir al desarrollo y transformación de nuestra sociedad.

Topología de la red

La topología de red define la estructura de una red. Una parte de la definición topológica es la topología física, que es la disposición real de los cables o medios. La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos. Las topologías más comúnmente usadas son las siguientes:

Topologías físicas

Una topología de bus usa un solo cable backbone que debe terminarse en ambos extremos. Todos los hosts se conectan directamente a este backbone.




La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable.



La topología en estrella conecta todos los cables con un punto central de concentración.
Una topología en estrella extendida conecta estrellas individuales entre sí mediante la conexión de HUBs o switches. Esta topología puede extender el alcance y la cobertura de la red.




Una topología jerárquica es similar a una estrella extendida. Pero en lugar de conectar los HUBs o switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología.

La topología de malla se implementa para proporcionar la mayor protección posible para evitar una interrupción del servicio. El uso de una topología de malla en los sistemas de control en red de una planta nuclear sería un ejemplo excelente. Como se puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Aunque Internet cuenta con múltiples rutas hacia cualquier ubicación, no adopta la topología de malla completa.

También hay otra topología denominada árbol.



Topologías lógicas

La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens.

La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. No existe una orden que las estaciones deban seguir para utilizar la red. Es por orden de llegada, es como funciona Ethernet.

La topología transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token, ese host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir. Dos ejemplos de redes que utilizan la transmisión de tokens son Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Arcnet es una variación de Token Ring y FDDI. Arcnet es la transmisión de tokens en una topología de bus.

Red de área local

Una red de área local, o red local, es la interconexión de varios ordenadores y periféricos. (LAN es la abreviatura inglesa de Local Area Network, 'red de área local'). Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 100 metros. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.

El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.

En épocas anteriores a los ordenadores personales, una empresa podía tener solamente un ordenador central, accediendo los usuarios a éste mediante terminales de ordenador con un cable simple de baja velocidad. Las redes como SNA de IBM(Arquitectura de Red de Sistemas) fueron diseñadas para unir terminales u ordenadores centrales a sitios remotos con líneas alquiladas. Las primeras LAN fueron creadas a finales de losaño 1970 y se solían crear líneas de alta velocidad para conectar grandes ordenadores centrales a un solo lugar. Muchos de los sistemas fiables creados en esta época, como Ethernet y ARCNET, fueron los más populares.

El crecimiento CP/M y DOS basados en el ordenador personal significó que en un lugar físico existieran docenas o incluso cientos de ordenadores. La intención inicial de conectar estos ordenadores fue, generalmente, compartir espacio de disco e impresoras láser, pues eran muy caros en este tiempo. Había muchas expectativas en este tema desde 1983 y la industria informática declaró que el siguiente año sería “El año de las Lan”.

En realidad esta idea fracasó debido a la proliferación de incompatibilidades de la capa física y la implantación del protocolo de red, y la confusión sobre la mejor forma de compartir los recursos. Lo normal es que cada vendedor tuviera tarjeta de red, cableado, protocolo y sistema de operación de red. Con la aparición de Netware surgió una nueva solución, la cual ofrecía: soporte imparcial para los más de cuarenta tipos existentes de tarjetas, cables y sistemas operativos mucho más sofisticados que los que ofrecían la mayoría de los competidores. Netware dominaba el campo de las Lan de los ordenadores personales desde antes de su introducción en 1983 hasta mediados de los años 1990, cuando Microsoft introdujo Windows NT Advance Server y Windows for Workgroups.

De todos los competidores de Netware, sólo Banyan VINES tenía poder técnico comparable, pero Banyan ganó una base segura. Microsoft y 3Com trabajaron juntos para crear un sistema operativo de red simple el cual estaba formado por la base de 3Com's 3+Share, el Gestor de redes Lan de Microsoft y el Servidor de IBM. Ninguno de estos proyectos fue muy satisfactorio.


Ventajas


En una empresa suelen existir muchos ordenadores, los cuales necesitan de su propia impresora para imprimir informes (redundancia de hardware), los datos almacenados en uno de los equipos es muy probable que sean necesarios en otro de los equipos de la empresa, por lo que será necesario copiarlos en este, pudiéndose producir desfases entre los datos de dos usuarios, la ocupación de los recursos de almacenamiento en disco se multiplican (redundancia de datos), los ordenadores que trabajen con los mismos datos tendrán que tener los mismos programas para manejar dichos datos (redundancia de software), etc.

La solución a estos problemas se llama red de área local, esta permite compartir bases de datos (se elimina la redundancia de datos), programas (se elimina la redundancia de software) y periféricos como puede ser un módem, una tarjeta RDSI, una impresora, etc. (se elimina la redundancia de hardware); poniendo a nuestra disposición otros medios de comunicación como pueden ser el correo electrónico y el Chat. Nos permite realizar un proceso distribuido, es decir, las tareas se pueden repartir en distintos nodos y nos permite la integración de los procesos y datos de cada uno de los usuarios en un sistema de trabajo corporativo. Tener la posibilidad de centralizar información o procedimientos facilita la administración y la gestión de los equipos.

Además una red de área local conlleva un importante ahorro, tanto de tiempo, ya que se logra gestión de la información y del trabajo, como de dinero, ya que no es preciso comprar muchos periféricos, se consume menos papel, y en una conexión a Internet se puede utilizar una única conexión telefónica o de banda ancha compartida por varios ordenadores conectados en red.

Características importantes.
  • Tecnología broadcast (difusión) con el medio de transmisión compartido.
  • Cableado específico instalado normalmente a propósito.
  • Capacidad de transmisión comprendida entre 1 Mbps y 1 Gbps.
  • Extensión máxima no superior a 3 km (Una FDDI puede llegar a 200 km)
  • Uso de un medio de comunicación privado.
  • La simplicidad del medio de transmisión que utiliza ( cable coaxial, cables telefónicos y fibra optica).
  • La facilidad con que se pueden efectuar cambios en el hardware y el software.
  • Gran variedad y número de dispositivos conectados.
  • Posibilidad de conexión con otras redes.
Componentes

Servidor:
El servidor es aquel o aquellos ordenadores que van a compartir sus recursos hardware y software con los demás equipos de la red. Sus características son potencia de cálculo, importancia de la información que almacena y conexión con recursos que se desean compartir.

Estación de trabajo: Los ordenadores que toman el papel de estaciones de trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que proporcionan los Servidores a los cuales pueden acceder.

Gateways o pasarelas: Es un hardware y software que permite las comunicaciones entre la red local y grandes ordenadores (mainframes). El gateway adapta los protocolos de comunicación del mainframe (X25, SNA, etc.) a los de la red, y viceversa.

Bridges o puentes: Es un hardware y software que permite que se conecten dos redes locales entre sí. Un puente interno es el que se instala en un servidor de la red, y un puente externo es el que se hace sobre una estación de trabajo de la misma red. Los puentes también pueden ser locales o remotos. Los puentes locales son los que conectan a redes de un mismo edificio, usando tanto conexiones internas como externas. Los puentes remotos conectan redes distintas entre sí, llevando a cabo la conexión a través de redes públicas, como la red telefónica, RDSI o red de conmutación de paquetes.

Tarjeta de red: También se denominan NIC (Network Interface Card). Básicamente realiza la función de intermediario entre el ordenador y la red de comunicación. En ella se encuentran grabados los protocolos de comunicación de la red. La comunicación con el ordenador se realiza normalmente a través de las ranuras de expansión que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque algunos equipos disponen de este adaptador integrado directamente en la placa base.

El medio: Constituido por el cableado y los conectores que enlazan los componentes de la red. Los medios físicos más utilizados son el cable de par trenzado, par de cable, cable coaxial y la fibra óptica (cada vez en más uso esta última).

Concentradores de cableado: Una LAN en bus usa solamente tarjetas de red en las estaciones y cableado coaxial para interconectarlas, además de los conectores, sin embargo este método complica el mantenimiento de la red ya que si falla alguna conexión toda la red deja de funcionar. Para impedir estos problemas las redes de área local usan concentradores de cableado para realizar las conexiones de las estaciones, en vez de distribuir las conexiones el concentrador las centraliza en un único dispositivo manteniendo indicadores luminosos de su estado e impidiendo que una de ellas pueda hacer fallar toda la red.

SAP

La moda de los sistemas integrados basados en diseños modulares apareció en los años 80, aunque con desilusionantes resultados: Gran cantidad de interfaces, información restringida, falta de integración real.

La búsqueda de la integración, no mejoró con la introducción masiva de redes, PC y bases de datos relacionales al principio de la década de los noventa. La cantidad de datos generados por cientos de aplicaciones aisladas o con interfaces mutuas no garantizaba que en el proceso de toma de decisiones se estuviera utilizando la información correcta.

En las organizaciones tradicionales de TI, dentro de las empresas, el equipo operacional descubría o necesitaba el desarrollo de nuevas aplicaciones para satisfacer sus necesidades. En ocasiones, esta situación era el desencadenante de un análisis funcional o de un diseño conceptual que con frecuencia tardaba demasiado, dando tiempo necesario para que los requisitos cambiaran de manera drástica. La gran conclusión fue que las tecnologías subyacentes a las aplicaciones empresariales deben seguir la dirección marcada por las empresas, deben alinearse a sus objetivos estratégicos, deben apoyar el desarrollo del negocio y deben reaccionar a los cambios que demandan los mercados con la misma velocidad con que éstos se producen.

Por ello es que en el mundo de las aplicaciones empresariales se ha producido un fuerte movimiento hacia las estrategias de comprar antes que desarrollar, pues las continuas transformaciones empresariales pueden tener una correspondencia más rápida y sencilla si se utilizan aplicaciones estándares y flexibles en lugar de aplicaciones personalizadas.

Los sistemas ERP (Enterprise Resource Planning o Planificación de Recursos Empresariales), han propiciado un cambio trascendental en la forma tradicional en que se afrontan proyectos de TI, suponiendo además un cambio fundamental en los actuales proyectos empresariales. Esta familia de sistemas se ha presentado en el mercado como la respuesta al desafío de aplicaciones adaptables, integrables, flexibles e integradas.

Dos son las principales razones que justifican este cambio: Los proyectos ERP están dirigidos por los usuarios y gestores apoyados en una sólida integración de procesos empresariales, traspasando los tradicionales límites departamentales y funcionales de las empresas.

SAP es la empresa que ha liderado el mercado de los sistemas de información gerencial, especialmente el nicho de los ERP. Las múltiples soluciones que esta empresa ha desarrollado le han permitido ser el símbolo de las nuevas aplicaciones empresariales por lo que su caso se hace digno de estudio.

En el año 1972, cuatro empleados de IBM se unieron para crear la empresa que hoy en día es una multinacional llamada SAP AG.

Desde su fundación, SAP (Sistemas, Aplicaciones y Productos en procesos de datos), ha ido introduciéndose en el mercado dando diferentes tipos de soluciones en lo que a gestión se refiere. Uno de sus primeros sistemas, el llamado R/2 fue creado para aplicaciones de gestión en mainframes, y a partir de 1992 SAP R/3 se ha convertido en el líder mundial en el desarrollo de aplicaciones estándares de gestión.

Este éxito obtenido lo otorga a SAP madurez y una sólida experiencia para resolver los problemas de gestión de la información de las empresas de todo el mundo. La principal razón de este resultado es que se trata de un paquete de software de aplicaciones estándar que puede configurarse en múltiples áreas de negocio y que se adapta a necesidades específicas de cada empresa. Con el fin de dar un soporte a estas necesidades, SAP incluye un gran número de procesos y funciones empresariales, pero también deja cabida a nuevas funcionalidades y mejoras a la vez que ofrece la necesaria flexibilidad para adaptarse a los cambios y evoluciones de las empresas.

En la actualidad SAP AG se encuentra en más de 50 países cuya sede central está ubicada en Walldorf, Alemania. En Chile empresas de diversos rubros como por ejemplo automotriz, construcción y metalurgia, electrónica, farmacéutica, medios, minería, papel y productos forestales, petróleo y gas, etc. han implantado SAP, obteniendo éxito en todos los niveles.

SAP AG valora de manera muy positiva los comentarios y peticiones de los clientes e intenta satisfacer los requisitos mejorando constantemente sus productos y ofreciendo unos servicios de alta calidad y extremadamente valioso, lo que combinado le convierte en la mejor solución integrada de aplicaciones empresariales.

Soluciones SAP

Worplace Bench mySAP Workplace es un portal corporativo basado en la Web que permite al cliente acceder a las aplicaciones, la información y los servicios que necesita para realizar su trabajo.

El Workplace puede configurarse y personalizarse de acuerdo a las preferencias y roles corporativos de cada usuario. Al configurar el workplace en todos los niveles ? particular, por roles, por empresa o por industria ? solamente se brinda la información, los servicios y la funcionalidad necesaria para llevar a cabo las tareas en cuestión. Los roles son la base para la personalización de acuerdo a la empresa y funcionan como plantillas para la creación de nuevos roles.

A través de un browser de Web, desde cualquier lugar del mundo, los Workplaces crean interfaces basadas en roles altamente personalizables, las cuales ayudan a incrementar la productividad del empleado. Son la herramienta perfecta para administrar las relaciones externas y facilitan la administración, la seguridad y el mantenimiento.

Servicios SAP

SAP ha presentado un amplio conjunto de servicios de calidad para ayudar a sus clientes en el proceso de implementar y dar soporte al sistema R/3. Entre estos servicios se incluyen información de producto, formación, instalación, migraciones, consultoría, etc. SAP ha basado sus servicios en conexiones remotas con clientes a través de redes internacional.

SAP ofrece un programa de certificación en las áreas técnica, funcional, y de desarrollo del sistema y un amplio programa de formación a nivel mundial.

SAP proporciona los siguientes tipos de servicios:

· Servicios de consultoría

· Servicios de mantenimiento

· Servicios de Información

· Servicios de mantenimiento preventivo

Telefonia IP

La Telefonía IP es una solución tecnológica que sirve para transmitir comunicaciones de voz sobre una red de datos basada en el estándar IP. Con la solución de Telefonía IP, la organización reduce costos integrando sus aplicaciones de voz y datos sobre una única plataforma de Red. Esta solución permite elevar la productividad, reducir costos operativos de la empresa mediante la convergencia de las comunicaciones; además de escalar las soluciones de acuerdo a las necesidades de las empresas, las cuales pueden ser corporativas, medianas o pequeñas.
Las soluciones de Telefonía IP se brindan a través de las siguientes modalidades:

Solución Mixta: Es la que permite integrar las soluciones de telefonía convencional con la Telefonía IP, ahorrando en los costos de inversión y permitiendo una integración escalable manteniendo el equipamiento de las inversiones anteriormente realizadas.



Solución Full IP: Se opta por el cambio total de las comunicaciones tradicionales de voz por la solución de Telefonía IP, obteniendo los máximos beneficios de la convergencia de las comunicaciones sobre una única plataforma de red.



Características
  • Convergencia de redes: integración de las redes de voz y datos.
  • Escalabilidad y flexibilidad: permiten desarrollar mayores servicios sobre las redes implantadas.
  • Compatibilidad con los sistemas tradicionales.
  • Confidencialidad en las comunicaciones.
  • Apertura real en las comunicaciones permitiendo interoperabilidad y libre dirección por uso de estándares abiertos.

Beneficios

Económicos:

  • Ahorro en los costos operacionales: costos de implementación y costos de gestión costos de cableado.
  • Reduce desembolso de Capital: una sola infraestructura convergente, un solo cableado .
    Ahorro en llamadas entre locales.
  • Administración Centralizada

Movilidad:

  • Los equipos de Telefonía IP pueden ser conectados desde cualquier punto de la red de la empresa manteniendo su mismo número y las mismas características sin necesidad de ser reconfigurados.


Aplicaciones

Permite desarrollar nuevas aplicaciones de acuerdo al modelo de negocio de las empresas sobre las plataformas ya existentes.

  • Audioconferencia para 100 usuarios llamando a un mismo número.
  • Call Center / Contact Center.
  • Comercio Electrónico.
  • Mensajería Unificada.
  • Asistente personal.
  • Aplicaciones XML: desarrollo de aplicativos Web para entidades educativas, empresas de logística, sector financiero, salud, etc.
  • Integración a múltiples plataformas existente para la transmisión de voz y datos.

Distribuciones de Linux

Linux es un sistema de libre distribución por lo que puedes encontrar todos los ficheros y programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros y programas necesarios, asi como instalarlos en tu sistema y configurarlo, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas y organizaciones que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.

Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).

Existen muchas y variadas distribuciones creadas por diferentes empresas y organizaciones a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais poder encontrar en tiendas de informática, librerías. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas y organizaciones que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
Si se va a instalar el sistema por primera vez, se recomienda hacerlo con una de estas distribuciones y en un futuro cuando se quiera actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utilices, usar Internet.

Si lo que quiere es probar una distribucion Linux sin necesidad de instalarla, se puede probar una distribucion LiveCD.

A continuación puedes encontrar informacion sobre las distribuciones mas importantes de Linux.

REDHAT ENTERPRISE

Esta es una distribucion que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

FEDORA

Esta es una distribucion patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.

DEBIAN

Otra distribucion con muy buena calidad. El proceso de instalacion es quizas un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que ultimos avances.

OpenSuSE

Facil de instalar. Version libre de la distribucion comercial SuSE.

SuSE LINUX ENTERPRISE

Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

SLACKWARE

Esta distribucion es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.

GENTOO

Esta distribucion es una de las unicas que han incorporado un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Se puede compilar/optimizar nuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribucion sin una buena conexion a internet, un ordenador medianamente potente (si se quiere terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.

UBUNTU

Distribucion basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.

KUBUNTU

Distribucion basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.

MANDRIVA

Esta distribucion fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.

Linux

Linux es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningun tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente.


El sistema lo forman el nucleo del sistema (kernel) más un gran número de programas / bibliotecas que hacen posible su utilización. Muchos de estos programas y bibliotecas han sido posibles gracias al proyecto GNU, por esto mismo, muchos llaman a Linux, GNU/Linux, para resaltar que el sistema lo forman tanto el núcleo como gran parte del software producido por el proyecto GNU.

Linux se distribuye bajo la GNU General Public license por lo tanto, el código fuente tiene que estar siempre accesible y cualquier modificación ó trabajo derivado tiene que tener esta licencia.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinacion de Linus Torvalds, la persona de la que partio la idea de este proyecto, a principios de la década de los noventa. Hoy en dia, grandes compañias, como IBM, SUN, HP, Novell y RedHat, entre otras muchas, aportan a Linux grandes ayudas tanto económicas como de código.

Dia a dia, más y más programas y aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de los mismos vienen acompañados del código fuente y se distribuyen generalmente bajo los terminos de licencia de la GNU General Public License.

Más y más casas de software comercial distribuyen sus productos para Linux y la presencia del mismo en empresas aumenta constantemente por la excelente relación calidad-precio que se consigue con Linux.

Las arquitecturas en las que en un principio se puede utilizar Linux son Intel 386-, 486-, Pentium, Pentium Pro, Pentium II/III/IV, IA-64, Amd 5x86, Amd64, Cyrix y Motorola 68020,IBM S/390, zSeries, DEC Alpha, ARM, MIPS, PowerPC, SPARC y UltraSPARC. Además no es dificil encontrar nuevos proyectos portando Linux a nuevas arquitexturas.

Historia

Linux hace su aparición a principios de la década de los noventa, era el año 1991 y por aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linus Torvalds empezó, -como una afición y sin poder imaginar a lo que llegaria este proyecto, a programar las primeras lineas de código de este sistema operativo al que llamaria más tarde Linux.

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian más.
Linus nunca anuncio la versión 0.01 de Linux (agosto/septiembre 1991), esta versión no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentación , distribución .....
Despues de la versión 0.03, Linus salto en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el número de versión hasta la 0.95 (Marzo 1992), la primera capaz de ejecutar el sistema X-windows. Más de un año despues (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0.0 no llego hasta el 14 de marzo de 1994.

El 9 de Mayo 1996, Tux fue propuesto como mascota oficial de Linux.
El 9 de junio de 1996 fue lanzada la serie 2.0.x, la 2.2.x no llegó hasta el 25 de enero de 1999 y la 2.4.x hasta el 4 de enero del 2001.
El 17 de diciembre del 2003 fue lanzada la serie actual del nucleo, la 2.6.x y el desarrollo de Linux sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.

Características

  • Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo. LINUX utiliza la llamada multitarea preeventiva,la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
  • Multiusuario:Muchos usuarios usando la misma maquina al mismo tiempo.
  • Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como amd64, Alpha, ARM, MIPS, PowerPC y SPARC.
  • Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel, AMD y SPARC.
  • Funciona en modo protegido 386.
  • Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
    Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
  • Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
  • Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición en el sistema de archivos, con la posibilidad de añadir más áreas de intercambio sobre la marcha.
  • La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas.
  • Librerías compartidas de carga dinámica (DLL's) y librerías estáticas.
  • Se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
  • Compatible con POSIX, System V y BSD a nivel fuente.
  • Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
    Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito.
  • Control de tareas POSIX.
  • Pseudo-terminales (pty's).
  • Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
  • Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
  • Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64.
  • Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
  • Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT, FAT32 (WNT, Windows 95/98) se encuentra soportado desde la version 2.0 del nucleo y el NTFS de WNT desde la version 2.2 (Este ultimo solo en modo lectura).
  • Soporte en sólo lectura de HPFS-2 del OS/2 2.1
  • Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.
  • TCP/IP, incluyendo ssh, ftp, telnet, NFS, etc.
  • Appletalk.
  • Software cliente y servidor Netware.
  • Lan Manager / Windows Native (SMB), software cliente y servidor.
  • Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6, AX.25, X.25, IPX, DDP, Netrom, etc