lunes, 27 de agosto de 2018

MAPEO DE ARCHIVOS

MAPEO DE ARCHIVOS

Un mapa de sitio web (o mapa de sitio o mapa web) es una lista de las páginas de un sitio web accesibles por parte de los buscadores y los usuarios. Puede ser tanto un documento en cualquier formato usado como herramienta de planificación para el diseño de una web como una página que lista las páginas de una web (ya realizada), organizadas comúnmente de forma jerárquica. Esto ayuda a los visitantes y a los bots de los motores de búsqueda a hallar las páginas de un sitio web.







REFERENCIA ELECTRONICA:
http://cidecame.uaeh.edu.mx/lcc/mapa/PROYECTO/libro40/210_mapeo_de_archivos.html

lunes, 6 de agosto de 2018

ACTIVE DIRECTORY

ACTIVE DIRECTORY (DIRECTORIO ADMINISTRATIVO)

Son los términos que utiliza Microsoft para referirse a su implementación de servicio de directorio en una red distribuida de computadores. Utiliza distintos protocolos, principalmente LDAP, DNS, DHCP y Kerberos.


FUNCIONAMIENTO

Este protocolo viene implementado de forma similar a una base de datos, la cual almacena en forma centralizada toda la información relativa a un dominio de autenticación. Una de sus ventajas es la sincronización presente entre los distintos servidores de autenticación de todo el dominio.



REFERENCIA ELECTRONICA:
https://es.wikipedia.org/wiki/Active_Directory

DNS

DNS (Domain Name System)

Tambien conocido como, sistema de nombres de dominio.
Es una tecnología basada en una base de datos que sirve para resolver nombres en las redes, es decir, para conocer la dirección IP de la máquina donde está alojado el dominio al que queremos acceder.

El DNS es un sistema que sirve para traducir los nombres en la red.



Está compuesto por tres partes con funciones bien diferenciadas.

-Cliente DNS: está instalado en el cliente (es decir, nosotros) y realiza peticiones de resolución de nombres a los servidores DNS.

-Servidor DNS: son los que contestan las peticiones y resuelven los nombres mediante un sistema estructurado en árbol. Las direcciones DNS que ponemos en la configuración de la conexión, son las direcciones de los Servidores DNS.


-Zonas de autoridad: son servidores o grupos de ellos que tienen asignados resolver un conjunto de dominios determinado (como los .es o los .org).


REFERENCIA ELECTRONICA:
https://www.xatakamovil.com/conectividad/como-funciona-internet-dns

DHCP


DHCP (Dynamic Host Configuration Protocol)

Que en español seria, protocolo de configuración de host dinámico.
Es un protocolo que permite que un equipo conectado a una red pueda obtener su configuración en forma dinámica.
Solo tienes que especificarle al equipo, mediante DHCP, que encuentre una dirección IP de manera independiente. El objetivo principal es simplificar la administración de la red.




REFERENCIA ELECTRONICA:
https://es.ccm.net/contents/261-el-protocolo-dhcp



martes, 31 de julio de 2018

¿QUE ES UN SERVIDOR?

¿QUE ES UN SERVIDOR?

Un servidor es una aplicación en ejecución capaz de atender las peticiones de un cliente y devolverle una respuesta en concordancia. Los servidores se pueden ejecutar en cualquier tipo de computadora, incluso en computadoras dedicadas a las cuales se les conoce individualmente como el servidor. 


TIPOS DE SERVIDORES

SERVIDORES DE CORREO:
Estos servidores tienen programas capaces de almacenar correos para los usuarios locales y con un conjunto de reglas definidas por el usuario que determinan cómo el servidor de correo debe reaccionar ante el destino de un mensaje específico.
                                    Resultado de imagen para correos electronicos png 

SERVIDORES WEB:
Los servidores web utilizan programas específicos para administrar sus servicios. En función del programa que utiliza el servidor web para administrar y servir las páginas web.

SERVIDORES DE AUDIO Y VIDEO:
Estos servidores disponen de software que permite colaborar a los usuarios del servidor independientemente de donde están ubicados, permitiéndoles así hacer un trabajo colaborativo.



REFERENCIA ELECTRONICA:
http://www.areatecnologia.com/informatica/servidor-y-tipos.html
https://es.wikipedia.org/wiki/Servidor

martes, 19 de junio de 2018

VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACION

VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACION



VENTAJAS:

REDUCCION DE COSTE

Sin duda una de las principales ventajas del uso de la virtualización es el ahorro de dinero que supone para las empresas su implementación. La virtualización puede suponer para el ahorro en el área de TI de tu empresa de hasta un 20 %.


MEJOR SEGURIDAD

– Copias de seguridad. La virtualización te permitirá programar de una forma fácil y rápida la realización de backups de cada una de tus máquinas virtuales de tal modo que, en caso de sufrir un ataque o un fallo importante, puedas restaurar tu máquina en un breve espacio de tiempo.

– Mejor respuesta ante interrupciones imprevistas. A veces los servidores sufren problemas, bien por un fallo en su sistema operativo o por un fallo del hardware. El uso de la virtualización permitirá trasladar los servidores virtuales a otro servidor físico que esté en perfecto estado para que puedas continuar trabajando en el menor tiempo posible.

– Posibilidad de hacer pruebas de forma segura. La virtualización es una plataforma excelente y segura en la que puedes realizar diferentespruebas de configuraciones o actualizaciones de software para comprobar que este funciona correctamente. De este modo podrás implementarlo más tarde en tus equipos sin miedo a que ocurra algún problema.

TRABAJADORES MAS EFICIENTES

– Si tus trabajadores se desplazan o tu empresa permite trabajar desde casa el uso de servidores virtuales permite que tus empleados accedan a los datos de tu empresa desde cualquier lugar, lo que facilitará su trabajo y mejorará su rendimiento.


– La virtualización permite una administración más sencilla de aspectos como la instalación del software, realizar actualizaciones o mantener la seguridad por lo que tus empleados del área de sistemas verán facilitada su labor.


DESVENTAJAS:

AUMENTO DE LOS COSTOS INICIALES

La inversión en software para gestionar servidores virtuales, y quizás la necesidad de adquirir nuevo hardware para poder implementar la virtualización de servidores, puede suponer un obstáculo si tu empresa es pequeña o no dispones de los recursos suficientes.

NECESIDAD PARA APRENDER A MANEJAR EL NUEVO ENTORNO VIRTUAL

Antes de implementar la virtualización en tu empresa deberás tener en cuenta que, si tus administradores de sistemas no están familiarizados con la gestión de este tipo de entornos virtuales, deberán aprender a manejar multitud de nuevas herramientas, lo cual no siempre es fácil.


MENOR RENDIMIENTO

Dado que los servidores virtuales corren en una capa intermedia a la del hardwarereal el rendimiento será inferior que mediante el uso de servidores tradicionales.


Por otro lado, si instalas muchas máquinas virtuales en un solo servidor físicoacabarás saturando el mismo, lo cual también implicará una reducción considerable del rendimiento. Es importante que solo se creen las máquinas virtuales indispensables, ni una más.






REFERENCIA ELECTRONICA:
http://rcg-comunicaciones.com/ventajas-e-inconvenientes-la-virtualizacion/

lunes, 11 de junio de 2018

SISTEMA OPERATIVO MAC

SISTEMA OPERATIVO MAC

MACOS es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh, también aplicado retroactivamente a las versiones anteriores a System 7.6, y que apareció por primera vez en System 7.5.1. Es conocido por haber sido uno de los primeros sistemas dirigidos al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, iconos y menús.

Hay una gran variedad de versiones sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Pese a esto, documentos históricos prueban la existencia de una relación, en sus inicios, entre el proyecto Macintosh y el proyecto Alto de Xerox PARC. Las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas

El Sistema Operativo Mac OS no fue la primer interfaz gráfica, pero fue la primera con gran éxito por su accesibilidad de precio. Para aquellos años en el mercado lo que existía era La Xerox Alto con un costo de 32,000 dólares, la Xerox Star costó 16,600 dólares y la Apple Lisa con un precio de 10,000 dólares. El nombre de esta Apple fue un capricho de Steve Jobs por su hija. Este Sistema 1 venía incluido en el primer Macintosh, que tenía un precio de 2,500 dólares.


 HISTORIA

El proyecto de Macintosh arrancó a principios de 1979 con Jef Raskin, quien visionó un computador de bajo precio y fácil de usar para el cliente promedio. En septiembre de 1979, se le dio permiso a Raskin para realizar las contrataciones para el proyecto y estaba buscando, en particular, un ingeniero que pudiera construir un prototipo. Bill Atkinson, un miembro del equipo del Apple Lisa team, le presentó a Burrell Smith, un técnico del servicio que había sido contratado a principios de ese año.

Al contrario que el IBM PC, el cual usaba una ROM de sistema de 8 kB para el POST (auto diagnóstico al encender) y un sistema básico de entrada/salida (BIOS), la ROM de la Mac era mucho más grande (64 kB) y guardaba código clave del SO. Buena parte de la ROM Mac original fue codificada por Andy Hertzfeld, un miembro del equipo original de Macintosh. Él fue capaz de ahorrar valioso espacio en la ROM intercalando código en lenguaje ensamblador.

Apple hizo una campaña publicitaria muy importante para su máquina renovada. Luego de su creación, la compañía compró 39 páginas completas de espacio publicitario en la revista Newsweek, ediciones de noviembre y diciembre de 1984. Apple fue tan exitoso en la campaña, que pronto eclipsó las ventas de su predecesor más sofisticado, el Lisa, tanto que Apple desarrolló rápidamente un producto llamado MacWorks que permitió al Lisa de emular el software del sistema Macintosh a través del System 3, momento en el que fue discontinuado y comercializado con la marca Macintosh XL. Muchos de los avances del SO del Lisa no aparecerían en el sistema operativo hasta el System 7.
 
 

REFERENCIA ELECTRONICA:
https://es.wikipedia.org/wiki/Mac_OS

SISTEMA OPERATIVO UNIX

SISTEMA OPERATIVO UNIX

 ¿QUE ES UNIX?
Es un sistema operativo, es decir, es una colección de programas que ejecutan otros programas en una computadora. UNIX nació en los Laboratorios Bell de AT&T en 1969, desarrollado por Ken Thompson y Dennis Ritchie (también creador del lenguaje de programación C). UNIX ofrecía solo una serie de pequeños programas, tan poco como fuese posible con respecto a sus predecesores, y tal vez esperando que la gente querría unir todos esos programas.

El sistema provee un serie de herramientas, cada una realiza una función limitada y bien definida, utiliza un sistema de archivos unificado como medio de comunicación, y un lenguaje de comandos llamado “shell” que permite combinar esas herramientas para realizar acciones complejas.

HISTORIA 

A finales de la década de 1960 el Instituto Tecnológico de Massachusetts, los Laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Information and Computing Service),​ desarrollado para ejecutarse en una computadora central (mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos.
Hacia 1991, un estudiante de ciencias de la computación de la Universidad de Helsinki, llamado Linus Torvalds desarrolló un núcleo para computadoras con arquitectura x86 de Intel que emulaba muchas de las funcionalidades de UNIX y lo lanzó en forma de código abierto en 1991, bajo el nombre de Linux. En 1992, el Proyecto GNU comenzó a utilizar el núcleo Linux junto a sus programas.
En 1993, la compañía Novell adquirió la división Unix Systems Laboratories de AT&T junto con su propiedad intelectual. Esto ocurrió en un momento delicado en el que Unix Systems Laboratories disputaba una demanda en los tribunales contra BSD por infracción de los derechos de copyright, revelación de secretos y violación de marca de mercado.​
Aunque BSD ganó el juicio, Novell descubrió que gran parte del código de BSD fue copiada ilegalmente en UNIX System V. En realidad, la propiedad intelectual de Novell se reducía a unos cuantos archivos fuente.​ La correspondiente contra-demanda acabó en un acuerdo extrajudicial cuyos términos permanecen bajo secreto a petición de Novell.
A finales de 1993, Novell vendió su división UNIX comercial​(es decir, la antigua Unix Systems Laboratories) a Santa Cruz Operation (SCO) reservándose, aparentemente, algunos derechos de propiedad intelectual sobre el software.​ Xinuos (antes UnXis) continúa la comercialización de System V en su producto UnixWare tras adquirir a SCO en abril de 2011.



REFERENCIA ELECTRONICA:
https://hipertextual.com/archivo/2014/05/que-es-unix/ 
https://es.wikipedia.org/wiki/Unix#Historia

SISTEMA OPERATIVO LINUX

SISTEMA OPERATIVO LINUX

¿QUE ES LINUX?
Es un Sistema Operativo como MacOS, DOS o Windows. Es decir, Linux es el software necesario para que tu ordenador te permita utilizar programas como: editores de texto, juegos, navegadores de Internet, etc. Linux puede usarse mediante un interfaz gráfico al igual que Windows o MacOS, pero también puede usarse mediante línea de comandos como DOS.Linux tiene su origen en Unix. Éste apareció en los años sesenta, desarrollado por los investigadores Dennis Ritchie y Ken Thompson, de los Laboratorios Telefónicos Bell. 


HISTORIA DE LINUX
Hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds, empezó como una afición y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX. 

El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribución. Después de la version 0.03, Linus saltó en la numeración hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el núcleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994. Desde entonces no se ha parado de desarrollar, la version actual del núcleo es la 2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema
.  

REFERENCIA ELECTRONICA:http://linux.ciberaula.com/articulo/que_es_linux/ 

miércoles, 30 de mayo de 2018

DIFERENCIAS ENTRE UN PROCESO Y UN HILO

DIFERENCIAS ENTRE UN PROCESO Y UN HILO

Los hilos se distinguen de los tradicionales procesos en que los procesos son generalmente independientes, llevan bastante información de estados, e interactúan sólo a través de mecanismos de comunicación dados por el sistema. Por otra parte, muchos hilos generalmente comparten otros recursos directamente. En muchos de los sistemas operativos que proveen facilidades para los hilos, es más rápido cambiar de un hilo a otro dentro del mismo proceso, que cambiar de un proceso a otro. Este fenómeno se debe a que los hilos comparten datos y espacios de direcciones, mientras que los procesos al ser independientes no lo hacen. Al cambiar de un proceso a otro el sistema operativo (mediante el dispatcher) genera lo que se conoce como overhead, que es tiempo desperdiciado por el procesador para realizar un cambio de modo (mode switch), en este caso pasar del estado de Running al estado de Waiting o Bloqueado y colocar el nuevo proceso en Running. En los hilos como pertenecen a un mismo proceso al realizar un cambio de hilo este overhead es casi despreciable.

¿UN HILO PUEDE SER UN PROCESO?
Al igual que los procesos, los hilos poseen un estado de ejecución y pueden sincronizarse entre ellos para evitar problemas de compartimiento de recursos. Generalmente, cada hilo tiene una tarea específica y determinada, como forma de aumentar la eficiencia del uso del procesador.

¿ UN PROCESO PUEDE SER PARALELO?
El proceso paralelo sólo es posible si disponemos de varias unidades de proceso, generalmente núcleos o procesadores. Esto se debe a que los procesadores son secuenciales, esto es, ejecutan las órdenes una por una, y por tanto no pueden ejecutar dos a la vez.

¿ UN HILO PUEDE SER PARALELO?
Los hilos son básicamente una tarea que puede ser ejecutada en paralelo con otra tarea; teniendo en cuenta lo que es propio de cada hilo es el contador de programa, la pila de ejecucion y el estado de la CPU (incluyendo el valor de los registros).


REFERENCIA ELECTRONICA:
https://sistemasoper2.wordpress.com/2014/10/21/diferencias-entre-hilos-y-procesos/
https://www.fing.edu.uy/tecnoinf/mvd/cursos/so/material/teo/so05-hilos.pdf 
https://sistemaoperativo.wikispaces.com/Hilos

FAT 32 Y NTFS

FAT32 Y NTFS

FAT32

FAT es un sistema de archivos desarrollado para MS-DOS. Es el sucesor de FAT16, que a su vez es sucesor de FAT12. El tamaño máximo soportado por este sistema es de 4 GB-1 Byte y se utiliza para el intercambio de datos entre distintos sistemas operativos de un mismo equipo. Además, también es utilizado en tarjetas de memoria y dispositivos similares.
Si intentamos meter en un pendrive de 16 GB en sistema FAT32 un archivo de 10 GB, no nos dejará, pues este archivo supera esos 4GB-1Byte.

 NTFS

Está incluido en las versionas de Windows 2000, Windows XP, Windows Server 2003, Windows Server 2008, Window Vista, Windos 7 y Windows 8. El tamaño mínimo recomendado para las particiones de este tipo de sistemas de archivos es de 10 GB, siendo posibles tamaños mayores. Además, a diferencia de FAT32, distingue entre mayúsculas y minúsculas.
En cuanto al rendimiento, NTFS es mucho más rápido en el acceso a los archivos que una partición tipo FAT. Esto se debe a que utiliza un árbol binario de alto rendimiento para localizar los archivos. El tamaño límite de una partición es de 17*10⁹ Bytes.
Por otra parte, los sistemas de archivos NTFS son más estables que los FAT. Además, NTFS cifra archivos, cosa que FAT no hace.

REFERENCIA ELECTRONICA:
https://geekytheory.com/sistemas-de-archivos-fat32-ntfs-ext3-y-ext4

lunes, 14 de mayo de 2018

GENERACION DE COMPUTADORAS

PRIMERA GENERACION (1940 - 1952)

 
Estaban construidas con electrónica de válvulas. Se programaban en lenguaje de la máquina. Un programa es un conjunto de instrucciones para que la máquina efectue alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).


1946 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental.

1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales.

1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina.

La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas.

1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.

1955 - Zuse Z22. La primera computadora de Konrad Zuse aprovechando los tubos del vacío.


SEGUNDA GENERACION (1956 - 1964)


La segunda generación de las computadoras reemplazó las válvulas de vacío por los transistores. Por eso, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que las de la anterior.


1956: IBM vendió por un valor de 1 230 000 dólares su primer sistema de disco magnético, el RAMAC (Random Access Method of Accounting and Control).

1959: IBM envió el mainframe IBM 1401 basado en transistores, que utilizaba tarjetas perforadas.

1962: Se desarrolla el primer juego de ordenador, llamado Spacewar!.3 4 DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.

1964: IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio.


TERCERA GENERACION (1965 - 1971)


Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al mismo tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura.


Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una nueva forma de programar que aún se mantiene en las grandes computadoras actuales.

Menor consumo de energía eléctrica Apreciable reducción del espacio que ocupaba el aparato Aumento de fiabilidad y flexibilidad Teleproceso Multiprogramación Renovación de periféricos Minicomputadoras, no tan costosas y con gran capacidad de procesamiento.

1964, anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de "serie".


CUARTA GENERACION (1972 - 1980)

 

Fase caracterizada por la integración sobre los componentes electrónicos, lo que propició la aparición del microprocesador un único circuito integrado en el que se reúnen los elementos básicos de la máquina.

Se desarrolló el "chip".

 

El tercer componente, la memoria primaria, es operado por otros "chips".Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.

Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.

1971 El primer microprocesador fue el Intel 4004, producido en ese mismo año.

 

 

QUINTA GENERACION (1983 - 2017)

 

Se crea entonces la computadora portátil o laptop tal cual la conocemos en la actualidad.

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con los que se manejaban las computadoras.

 

IBM presenta su primera laptop o computadora portátil y revoluciona el sector informativo.

Estas son la base de las computadoras modernas de hoy en día.

 

REFERENCIA ELECTRONICA:
https://es.wikipedia.org/wiki/Generaciones_de_computadoras

lunes, 7 de mayo de 2018

ADMINISTRACION DE SISTEMAS OPERATIVOS


¿QUE ES UN SISTEMA OPERATIVO?

Es el software principal o conjunto de programas de un sistema informático que gestiona los recursos de hardware y provee servicios a los programas de aplicación de software, ejecutándose en modo privilegiado respecto de los restantes (aunque puede que parte de él se ejecute en espacio de usuario).

El sistema operativo se encarga transmitir información entre los programas de aplicación y los recursos físicos.

Algunos ejemplos de sistemas operativos son Microsoft Windows, GNU/Linux y Mac OS X. Todos ellos cuentan con distintas versiones que presentan diferentes características y funciones.






REFERENCIA ELECTRONICA: 
https://es.wikipedia.org/wiki/Sistema_operativo
https://www.significados.com/sistema-operativo/