lunes, 23 de abril de 2012

Mantenimiento Correctivo

El mantenimiento del computador es aquel que debemos realizar al computador cada cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas.

El periodo de mantenimiento depende de diversos factores: ¡a cantidad de horas diarias de operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambiente donde se encuentra instalada (si hay polvo, calor, etc.), el estado general (si es un equipo nuevo o muy usado), y el resultado obtenido en el último mantenimiento.

Una PC de uso personal, que funcione unas cuatro horas diarias, en un ambiente favorable y dos o menos años de operación sin fallas graves, puede resultar aconsejable realizar su mantenimiento cada dos o tres meses de operación, aunque algunas de las actividades de mantenimiento pudieran requerir una periodicidad menor.

En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda hacer un mantenimiento por lo menos una vez al mes.

No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que dependen de las condiciones específicas de operación y entorno ambiental.

El Mantenimiento Correctivo que se observa se planificará, dentro de ¡a emergencia que se presente y teniendo en cuenta la prestación de los servicios, para lo cual deberá recurrirse a las autoridades de los Establecimientos para determinar el momento Oportuno de su ejecución, a no ser que pueda ser incluido dentro del tiempo establecido para el plan de
Mantenimiento Preventivo.

Razones para hacer un mantenimiento al PC

Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento Si no se limpian y se organizan con frecuencia, el disco duro se llena de información, el sistema de archivos se desordena y el rendimiento general disminuye.

Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.


El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son:

1. Diagnóstico.
2. Limpieza
3. Desfragmentación.


Diagnóstico

La computadora trabaja más de lo que normalmente se cree. Está constantemente dando prioridad a las tareas, ejecutando órdenes y distribuyendo la memoria.

Sin embargo, con el tiempo ocurren errores en el disco duro, los datos se desorganizan y las referencias se vuelven obsoletas.

Estos pequeños problemas se acumulan y ponen lento el sistema operativo, las fallas del sistema y software ocurren con más frecuencia y las operaciones de encendido y apagado se demoran mas.

Para que el sistema funcione adecuadamente e incluso para que sobre todo no se ponga tan lento, se debe realizar un mantenimiento periódico.



Asegurándonos de incluir en la rutina del mantenimiento estas labores:
  • Exploración del disco duro para saber si tiene errores y solucionar los sectores alterados.
  • Limpieza de archivos.
  • Desfragmentación de disco duro.



Limpieza

Para garantizar un rendimiento optimo y eficaz de la computadora, debernos mantenerla limpia y bien organizada.
Debemos eliminar los programas antiguos, programas que no utilicemos y las unidades de disco para liberar la memoria y reducir la posibilidad de conflicto del sistema.

Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas son:
1 Poco espacio disponible.
2. Espacio ocupado por archivos innecesarios,
3. Alto porcentaje de fragmentación.

Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de la identidad en Internet.

Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones rio especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc.

Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar dei 10% de su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o comprimir archivos.

Todas las aplicaciones de Windows generan archivos temporales.

Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan.

En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows "se cuelga" o por una deficiente programación de la aplicación.

Mantenimiento Preventivo

Herramientas:

Recuerde que para cualquier labor de mantenimiento se debe utilizar la herramienta adecuada. En cuanto al mantenimiento preventivo, podemos mencionar las siguientes:
Un juego de atornilladores (Estrella. hexagonal o Torx, de y de copa) Una pulsera antiestática Una pequeña suave Copitos de algodón Un soplador o "blower Trozos de tela secos Un disquete de limpieza Alcohol isopropílico Limpia contactos en aerosol lubricante o grasa blanca Un borrador.

Elementos para limpieza externa (Se utilizan para quitar las manchas del gabinete y las demás superficies de los diferentes aparatos)

Juego de herramientas para mantenimiento preventivo

Existen varios procesos que se deben realizar antes de iniciar un mantenimiento preventivo para determinar el correcto funcionamiento de los componentes. éstos son:
· la unidad de disco flexible. Una forma práctica de realizar este proceso es tener un disco antivirus lo más actualizado posible y ejecutar el programa. Esto determina el buen funcionamiento de la unidad y a la vez se verifica que no haya virus en el sistema.
· Chequear el disco duro con el comando CHKDSK del DOS.
· Si se tiene multimedia instalada, puede probarse con un CD de música, esto determina que los altavoces y la unidad estén bien.
·Realice una prueba a todos los periféricos instalados. Es mejor demorarse un poco para determinar el funcionamiento correcto de la computadora y sus periféricos antes de empezar a desarmar el .
·Debemos ser precavidos con el de los tornillos del sistema en el momento de desarmarlo. Los tornillos no están diseñados para todos los puntos. Es muy importante diferenciar bien los que son cortos de los medianos y de los largos. Por ejemplo, si se utiliza un tornillo largo para montar el disco duro, se corre el riesgo de dañar la interna del mismo. Escoja la mejor metodología según sea su habilidad en este campo:
Algunos almacenan lodos los tomillos en un lugar, otros los clasifican y otros los ordenan según se va desarmando para luego formarlos en orden contrario en el momento de armar el equipo.
·El objetivo primordial de un mantenimiento no es desarmar y armar, sino de limpiar, lubricar y calibrar los dispositivos. Elementos como el polvo son demasiado nocivos para cualquier componente electrónico, en especial si se trata de elementos con movimiento tales como los motores de la unidad de disco, el ventilador, etc.
· Todas estas precauciones son importantes para garantizar que el sistema de cómputo al que se le realizará.

Abobe Photoshop


Adobe Photoshop es el nombre o marca comercial oficial que recibe uno de los programas más populares de la casa Adobe Systems, junto con sus programas hermanos Adobe Illustrator y Adobe Flash, y que se trata esencialmente de una aplicación informática en forma de taller de pintura y fotografía que trabaja sobre un "lienzo" y que está destinado para la edición, retoque fotográfico y pintura a base de imágenes de mapa de bits (o gráficos rasterizados).

Su nombre en español significa literalmente "tienda de Fotos" pero puede interpretarse como "taller de foto". Su capacidad de retoque y modificación de fotografías le ha dado el rubro de ser el programa de edición de imágenes más famoso del mundo.

Actualmente forma parte de la familia Adobe Creative Suite y es desarrollado y comercializado por Adobe Systems Incorporated inicialmente para computadores Apple pero posteriormente también para plataformas PC con sistema operativo Windows.Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete siendo estos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection.

Photoshop en sus versiones iniciales trabajaba en un espacio bitmap formado por una sola capa, donde se podían aplicar toda una serie de efectos, textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las tradicionales ampliadoras. En la actualidad lo hace con múltiples capas.
A medida que ha ido evolucionando el software ha incluido diversas mejoras fundamentales, como la incorporación de un espacio de trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color (ICM / ICC), tratamiento extensivo de tipografías, control y retoque de color, efectos creativos, posibilidad de incorporar plugins de terceras compañías, exportación para sitios web entre otros.

Photoshop se ha convertido, casi desde sus comienzos, en el estándar de facto en retoque fotográfico, pero también se usa extensivamente en multitud de disciplinas del campo del diseño y fotografía, como diseño web, composición de imágenes bitmap, estilismo digital, fotocomposición, edición y grafismos de vídeo y básicamente en cualquier actividad que requiera el tratamiento de imágenes digitales.

Photoshop ha dejado de ser una herramienta únicamente usada por diseñadores / maquetadores, ahora Photoshop es una herramienta muy usada también por fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso de "positivado y ampliación" digital, no teniendo que pasar ya por un laboratorio más que para la impresión del material.

Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto a Windows y Flash (de Adobe Systems También) uno de los programas que resulta más familiar (al menos de nombre) a la gente que comienza a usarlo sobre todo en su versión Photoshop Elements, para el retoque casero fotográfico.

Aunque el propósito principal de Photoshop es la edición fotográfica, este también puede ser usado para crear imágenes, efectos, gráficos y más en muy buena calidad. Aunque para determinados trabajos que requieren el uso de gráficos vectoriales es más aconsejable utilizar Adobe Illustrator.

Entre las alternativas a este programa, existen algunos programas libres como GIMP, orientada a la edición fotográfica en general, o propietarios como PhotoPaint de Corel, capaz de trabajar con cualquier característica de los archivos de Photoshop, y también con sus filtros plugin.




 

 

formatos de archivo

Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de imágenes, como BMP, JPG, PNG, GIF, entre otros, además tiene formatos de imagen propios. Los formatos soportados por Photoshop son:
  • PSD, PDD: formato estándar de photoshop con soporte de capas.
  • PostScript: no es exactamente un formato, sino un lenguaje de descripción de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas de dibujo para poder editarlo.
  • EPS: es una versión de PostScript, se utiliza para situar imágenes en un documento. Es compatible con programas vectoriales y de autoedición.
  • DCS: fue creado por Quark (empresa de software para autoedición) y permite almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición.
  • Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en Photoshop, por ejemplo los de QuarkXPress.
  • BMP: formato estándar de Windows.
  • GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo de transparencia, y salvarlo como entrelazado para que al cargarlo en la web lo haga en varios pasos. Admite hasta 256 colores.
  • JPEG: también muy utilizado en la WWW, factor de compresión muy alto y buena calidad de imagen.
  • TIFF: una solución creada para pasar de PC a MAC y viceversa.
  • PICT: desde plataformas MAC se exporta a programas de autoedición como QuarkXPress.
  • PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta transparencia y colores a 24 bits. Solo las versiones recientes de navegadores pueden soportarlos.
  • PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y mapa de bits.
  • IFF: se utiliza para intercambio de datos con Amiga.
  • PCX: formato solo para PC. Permite colores a 1, 4, 8 y 24 pixels.
  • RAW: formato estándar para cualquier plataforma o programa gráfico.
  • TGA: compatible con equipos con tarjeta gráfica de Truevision.
  • Scitex CT: formato utilizado para documentos de calidad profesional.
  • Filmstrip: se utiliza para hacer animaciones. También se puede importar o exportar a Premiere.
  • FlashPix: formato originario de Kodak para abrir de forma rápida imágenes de calidad superior.

Administracion de Redes

Los términos administrador de red, especialista de red y analista de red se designan a aquellas posiciones laborales en las que los ingenieros se ven involucrados en redes de computadoras, o sea, las personas que se encargan de la administración de la red.
Los administradores de red son básicamente el equivalente de red de los administradores de sistemas: mantienen el hardware y software de la red.

Esto incluye el despliegue, mantenimiento y monitoreo del engranaje de la red: switches, routers, cortafuegos, etc. Las actividades de administración de una red por lo general incluyen la asignación de direcciones, asignación de protocolos de ruteo y configuración de tablas de ruteo así como, configuración de autenticación y autorización de los servicios.
Frecuentemente se incluyen algunas otras actividades como el mantenimiento de las instalaciones de red tales como los controladores y ajustes de las computadoras e impresoras. A veces también se incluye el mantenimiento de algunos tipos de servidores como VPN, sistemas detectores de intrusos, etc.
Los analistas y especialistas de red se concentran en el diseño y seguridad de la red, particularmente en la Resolución de problemas o depuración de problemas relacionados con la red. Su trabajo también incluye el mantenimiento de la infraestructura de autorización a la red.

lgunas funciones de administración de red incluyen:

  • proporcionar servicios de soporte
  • asegurarse de que la red sea utilizada eficientemente, y
  • asegurarse que los objetivos de calidad de servicio se alcancen.
Un administrador de red sirve a los usuarios: crea espacios de comunicación, atiende sugerencias; mantiene las herramientas y el espacio requerido por cada usuario, a tiempo y de buena forma (piense si usted fuera usuario como le gustaría que fuera el administrador); mantiene en buen estado el hardware y el software de los computadores y la(s) red(es) a su cargo; mantiene documentación que describe la red, el hardware y el software que administra; respeta la privacidad de los usuarios y promueve el buen uso de los recursos. A cambio de tantas responsabilidades la recompensa es el buen funcionamiento de la red como un medio que vincula personas y de los computadores y programas como herramientas para agilizar algunas labores que dan tiempo y dar tiempo para realizar otras.
Encargado del buen funcionamiento de un sistema Linux.
El administrador de red debe conocer las claves de la cuenta root de las máquinas que administra. Desde esa cuenta puede configurar servicios y establecer políticas que afectarán a todos los usuarios. Algunas de las labores que sólo pueden hacerse desde esta cuenta son:
  • Nombre de la cuenta que permite administrar un sistema Linux.
  • Apagar el equipo (aunque por defecto en Debian esta operación la puede realizar cualquier usuario).
  • Configurar los programas que se inician junto con el sistema.
  • Administrar cuentas de usuarios.
  • Administrar los programas y la documentación instalada.
  • Configurar los programas y los dispositivos.
  • Configurar la zona geográfica, fecha y hora.
  • Administrar espacio en discos y mantener copias de respaldo.
  • Configurar servicios que funcionarán en red.
  • Solucionar problemas con dispositivos o programas. Labor que resulta en ocasiones la más dispendiosa, pero que se facilitará entre más aprenda del sistema y la red a su cargo.

domingo, 22 de abril de 2012

CCleaner


Es una aplicación gratuita, de código cerrado, que tiene como propósito mejorar el rendimiento de cualquier equipo que ejecute Microsoft Windows mediante la eliminación de los archivos innecesarios y las entradas inválidas del registro de Windows. También cuenta con la posibilidad de desinstalar programas desde su interfaz e inhabilitar la ejecución de aplicaciones en el inicio del sistema para mejorar la velocidad de arranque.
Piriform, creadora de la aplicación, lanza una nueva versión de la aplicación cada dos meses aproximadamente y se puede actualizar automáticamente si se desea.
El 3 de junio de 2011 fue anunciada la versión beta para el sistema operativo Mac OS X, compatible con las ediciones 10.5 (Leopard) y 10.6 (Snow Leopard).2 3

Funciones



Limpiador: elimina archivos temporales del navegador, del Explorador de Windows, del sistema operativo y de programas de terceros. También ofrece la posibilidad de añadir funciones de limpieza un poco más avanzadas. Para un borrado más seguro se pueden realizar 1, 3, 7 o hasta 35 pasadas para que sean menos recuperables por parte de programas especializados. El programa además puede limpiar el equipo cada vez que se inicie.
Registro: localiza y corrige problemas como extensiones de archivos, direcciones de programas inválidas y otras entradas no válidas. Para contar con más seguridad, CCleaner permite hacer una copia de seguridad del registro antes de limpiarlo.
Herramientas: desinstala programas tal y como el panel de control de Windows, además ofrece la posibilidad de renombrar la entrada del programa, borrarla (eliminar del panel de control el programa pero sin desinstalarlo) y guardar a un archivo de texto. La función herramientas incluye la posibilidad de inhabilitar el inicio automático de algunas o de todas las aplicaciones a fin de dejar solo las necesarias para poder tener una mejor velocidad de arranque y apagado del sistema operativo, tal y como lo hace el comando msconfig de Windows.


CCleaner limpia los siguientes componentes de Windows:

Internet Explorer: Archivos temporales de Internet, Cookies, Historial, URLs recientemente escritas, Borrar archivos Index.dat, ubicación últimas descargas e historial de autocompletado.
Mozilla Firefox: Caché de Internet, Cookies, Historial de Descargas, Historial de Internet e Información guardada de formularios.
Google Chrome
Opera
Safari
Papelera de reciclaje
Portapapeles
Los archivos temporales de Windows
Los archivos de registro de Windows
Documentos recientes (en el menú Inicio)
Ejecutar la historia (en el menú Inicio)
Asistente de búsqueda de Windows XP historia
Windows XP Prefetch datos antiguos
Volcados de memoria de Windows después de los accidentes
Los fragmentos de archivo chkdsk
Los archivos de Microsoft office 2010
Soporte para windows 8
Soporte para firefox 8 Beta
idioma indonesio
Además, las opciones avanzadas permiten la limpieza de:
Menú Orden caché
Bandeja de Notificaciones de caché
Tamaño de ventana y ubicación de caché
Ayudar a la historia de usuario
Archivos de registro de IIS
Carpetas personalizadas

Limpieza de aplicaciones:

Así como la limpieza de viejos archivos y configuraciones dejadas por componentes estándar de Windows, CCleaner también limpia los archivos temporales y listas de archivos recientes de muchas aplicaciones.

Incluye:



Firefox, Opera, Safari, Media Player, eMule, Kazaa, Google Toolbar, Netscape, Microsoft Office, Nero, Adobe Acrobat Reader, WinRAR, WinAce, WinZip, Windows Live Messenger, Google Earth, Adobe Reader, Adobe Photoshop, Adobe Illustrator,camtasia studio 7, freemake converter(distintas versiones), aimp v.3.0, vuze, Windows Media Center, Windows Media Player, Corel VideoStudio Pro X4 etc.

Limpieza de registro:


CCleaner utiliza un avanzado limpiador del registro para ver si hay problemas e incoherencias. Se puede comprobar lo siguiente:
DLLs compartidas faltantes
Extensiones de archivos inválidas
Entradas de ActiveX y Class
Tipo de Librerías
Aplicaciones
Fuentes
Rutas de aplicación
Archivos de ayuda
Instalador
Programas obsoletos
Ejecución en el Inicio
Clasificación del menú de Inicio
Cache MUI

Redes

Es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

Componentes básicos de las redes

Para poder formar una red se requieren elementos: hardware, software y protocolos.

Software

Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el sistema operativo de red es parte del sistema operativo de los servidores y de los clientes, por ejemplo en Linux y Microsoft Windows.

Software de aplicación: en última instancia, todos los elementos se utilizan para que el usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados, correos electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten.

Hardware

Tarjeta de red

Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas), es necesaria la intervención de una tarjeta de red, o NIC (Network Card Interface), con la cual se puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es asignado un identificador único por su fabricante, conocido como dirección MAC (Media Access Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el tráfico de datos de la red del emisor al receptor adecuado.

El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable (ej: red Ethernet) o las ondas de radio (ej: red Wi-Fi) en una señal que pueda interpretar el ordenador.
Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas ya vienen integradas en la placa base.
Adaptador de red es el nombre genérico que reciben los dispositivos encargados de realizar dicha conversión. Esto significa que estos adaptadores pueden ser tanto Ethernet, como wireless, así como de otros tipos como fibra óptica, coaxial, etc. También las velocidades disponibles varían según el tipo de adaptador; éstas pueden ser, en Ethernet, de 10, 100, 1000 Mbps o 10000, y en los inalámbricos, principalmente, de 11, 54, 300 Mbps.


Clasificación de las redes



Una red puede recibir distintos calificativos de clasificación en base a distintas taxonomías: alcance, tipo de conexión, tecnología, etc.

Red de área local, o LAN (Local Area Network)

 Es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. No utilizan medios o redes de interconexión públicos.


Red de área metropolitana (metropolitan area network o MAN )

 Es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aún así limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de la localidad por medio de fibra óptica.


Redes de área amplia, o WAN (Wide Area Network)

Son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, etc.

Red de área personal, o PAN (Personal Area Network) en inglés, es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.

Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network), es una red de computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso.
 Estas redes normalmente son de unos pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede ser cualqueira de los habituales en las redes inalámbricas pero las que reciben esta denominación son habituales en Bluetooth.

Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas.

Red de área de campus, o CAN (Campus Area Network), es una red de computadoras de alta velocidad que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la interconexión.

Red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios.

Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cuál todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como respuesta a la necesidad de poder estructurar las conexiones de equipos de un edificio por medio de software,11 permitiendo dividir un conmutador en varios virtuales.

Historia del Internet

Internet es una Red de Redes de Computadoras distribuidos alrededor del mundo.

Antes de 1957 las computadoras podían realizar solo una tarea a la vez, el cual se le conocía como Procesamiento por lotes por ello era poco eficaz.

Como las computadoras se iban haciendo cada vez mas grandes tenían que ser guardadas en habitaciones refrigeradas.

En ese tiempo, Programar era mucho trabajo manual y la conexión indirecta producía muchos errores.

En ese mismo año se produjo un gran cambio: Se tuvo que instalar una conexión remota para que los programadores pudieran trabajar directo con las computadoras. En esa misma época, surgió la idea de compartir la capacidad de proceso con varios usuarios.

En Febrero de 1958 los Estados Unidos fundó la Agencia para el Proyecto de investigación avanzada en Defensa (Defense Advanced Research Project Agency). DARPA planeó una red de computadoras a gran escala para acelerar la transferencia de los conocimientos y evitar la duplicidad de investigaciones existentes, cuyo objetivo principal debía ser continuar operando aun en el caso de alguno o varios de sus nodos de comunicaciones fueran destruidos durante un ataque enemigo.

En 1962 el Dr. J.C.R. Licklider uno de los responsables principales del proyecto influyo para lograr que esta tecnología de comunicaciones sirviese para interconectar las universidades dentro de los EE.UU. Hacia fines de la década de 1960 la investigación fructifica al llevar de la teoría a la realidad la interconexión de ordenadores en red comunicándolos a través de las líneas telefónicas.  Esta red se convertiría en ARPANET. En conjunto con tres conceptos desarrollados.


El concepto de una Red Militar por la Corporación RAND (laboratorio de ideas (think tank) norteamericano formado, en un primer momento, para ofrecer investigación y análisis a las fuerzas armadas norteamericanas.

Desde entonces la organización de esta corporación ha cambiado y actualmente también trabaja en la organización comercial y gubernamental de los Estados Unidos. RAND tiene alrededor de 1.600 empleados distribuidos en seis sitios: En los Estados Unidos. - Santa Mónica, California (sede) y Washington, DC (actualmente localizados en Arlington, Virginia y Pittsburgh, Pensilvania); En Europa- Leiden en los Países Bajos, Berlín, Alemania, y Cambridge en el Reino Unido. En el 2003, se inauguró el instituto RAND-Qatar. Algunos consideran que el nombre de la corporación es un acrónimo de la frase "Reserch ANd Development" ("investigación y desarrollo"). El general de la fuerza aérea norteamericana Curtis LeMay bromeó aclarando que RAND significa "Research And No Development"(investigación y no desarrollo) en América; Una Red Comercial del Laboratorio Nacional de Física en Inglaterra y la Red Científica Cyclades, en Francia.

ARPANET: Desarrollado en 1966, en las universidades había  prudencia en eso de compartir computadoras, por lo tanto pusieron pequeñas maquinas por delante del mainframe o unidad central. Con el IMP (Interface Message Processor) tomaba el control de las actividades en la red, mientras que la unidad central solo se encargaba de la inicialización de los programas de los archivos de datos. Desde entonces solo los IMP fueron interconectados en una red la cual también se llamaba Subred.

 La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959. El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz.
Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes.

En 1961 se manda uno de los primeros correos electrónicos del mundo. Surgido en el MIT mediante un
computador IBM-7094.

En 1963 nace la conmutación de paquetes el cual era una interconexión entre computadoras creada por Len Kleinrock.

Para la primera conexión entre computadoras Network Working Group desarrollo un protocolo de control de red (Programa para el control de red) o NCP, después el NCP fue sustituido por un nuevo protocolo en control de transmisiones o  TCP más eficiente.

Debemos aclarar que en esta época las comunicaciones seguían usando las ondas de radio, las cuales se verían afectadas en caso se ataques atómicos.

Por otro lado Cyclades tenía un presupuesto muy reducido y por lo tanto pocos nodos.
Su enfoque fue la comunicación con otras redes. De esa manera, el termino INTER-NET (Entre Redes) había nacido. Además el concepto de Cyclades iba más allá que el de ARPA y NPL.
Durante la comunicación entre el emisor y el receptor las computadoras no intervenían mas, simplemente funcionaban como un nodo de transferencia.

El protocolo de Cyclades fue a través de todas las maquinas usando una capa física que fue implementada dentro del hardware suministrando una conexión directa con el
receptor, con una estructura de extremo a extremo. Esta conexión gramo importancia en todo el mundo.
Mientras las compañías telefónicas desarrollaron el protocolo X.25 el cual nos facilitaba la comunicación entre sus servidores, para recibir cargos y facturaciones.

El protocolo de Control de Transmisiones de DARPA  fue conectado a las computadoras a través de puertas de enlace y la Organización Internacional para la Estandarización diseño el modelo ISO (Internacional Organisation for Standardization) de referencia. La renovación del ISO fue el intento final de estandarizar las redes.

En Febrero de  1972 llega el Arroba “@” al perfeccionar su programa de correo electrónico, Ray Tomlinson rescata el antiguo símbolo @ para separar el nombre del destinatario del lugar donde se encuentra.

Finalmente, el protocolo TCP (Transmission Control Protocol)  asimilo las normativas del modelo ISO y dio paso al protocolo TCP/IP este último creado por Vint Cerf y Robert Kahn en 1974. Un estándar que organizaba la compatibilidad entre las redes y que finalmente las unió creando Internet. La característica principal del TCP es la verificación de la transferencia de archivos. Garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron. También proporciona un mecanismo para distinguir distintas aplicaciones dentro de una misma máquina, a través del concepto de puerto.
TCP da soporte a muchas de las aplicaciones más populares de Internet (navegadores, intercambio de ficheros, clientes ftp y protocolos de aplicación HTTP, SMTP, SSH y FTP.

Abril de 1975 Bill Gates funda Microsoft, que se dedica a desarrollar, fabricar y producir software y equipos electrónicos. A mediados de los 80 domina el mercado de las computadoras personales con su sistema operativo MS-DOS.

En Abril de 1976 Steve Jobs y Steve Wozniak, diseñan una computadora más pequeña, barata y fácil de utilizar que las ya existentes. Jobs bautiza con el nombre de “Apple Computer”
1987 la National Science Foundation crea el desarrollo de la NSFnet una serie de redes  (5 centros de superordenadores) que le mantenían conectados a diferentes tipos de usuarios dedicadas a la comunicación de la investigación y de la educación que fue el sustituto de ARPANET.

Esta nueva red (perteneciente a NSF) es administrada por ANS una sociedad entre IBM corp; MCI corp y la Universidad de Michigan. A partir de 1989 se abre el acceso comercial a Internet a través de proveedores que ofrecen Correo Electrónico, Transferencia de Archivos y Servicios de Base de Datos.
En el mismo año Paul Mockapetris crea el DNS (Domain Name System) es un sistema de nomenclatura jerárquica para computadoras, servicios o cualquier recurso conectado a Internet o a una red privada. Su función más importante, es traducir (resolver) nombres inteligibles para los humanos en identificadores binarios asociados con los equipos conectados a la red, esto con el propósito de poder localizar y direccionar estos equipos mundialmente. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio.
El 1ro de Noviembre de 1988 el internet es infectado por un virus tipo gusano que ocupa el 10% de la red.
1989 el internet crece de forma muy rápida con 50.000 redes, 4.000.000 sistemas, 70 millones de usuarios y su uso empieza a ser comercial.

El 28 de Febrero de 1990, se desactivo el hardware de ARPANET, pero Internet continuo funcionando.
1991 Tim Berbaners Lee crea la World Wide Web desde la CERN (European Organization for Nuclear Research) Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces. El primer paso consiste en traducir la parte nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.

El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de páginas vistas o las peticiones de servidor asociadas, o peticiones de fichero, que tienen lugar.

Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.

En 1993 Marc Andreessen produce la primera versión de Mosaic, un programa de internet que permitía navegar con facilidad; mismo que al paso del tiempo se convertiría en NetScape.
Se crea Internic, el primer centro administrativo para internet.

1994 Jezz Bezos crea Amazon, la tienda más grande online dedicada a la venta de libros
Jerry Yang y David Filo crean Yahoo!
Marzo, una firma de abogados Canter y Siegel aprovecha Usenet para publicar un aviso de sus servicios legales. Inicia así el Spam o Correo Basura: Mensajes no solicitados, enviados masivamente.

1995 Nacen los Blogs, uno de los primeros en salir es creado por Jastin Hall.

1996 John Perry Barlow, poeta y antiguo letrista publica la Declaración de Independencia del Ciberespacio.
Julio de ese mismo año, Hotmail es el primer servicio de e-mail basado en la web, mas tarde pasará a pertenecer a Microsoft.

1997 Arranca una corriente especulativa muy fuerte. En las bolsas de valores de Occidente trepan las empresas vinculadas a Internet. Esta tendencia sigue en franco ascenso hasta el 2001.

1998 Larry Page y Sergei Brin crean el buscador GOOGLE. El término proviene del termino matemático Googol (un 1 seguido de 100 ceros), simboliza la inmensidad de datos que se pueden encontrar en la red.

1999 Abre sus puertas el primer banco virtual. El First Inter Bank of Indiana ofrece todos los servicios bancarios exclusivamente por la red.
En Julio el programa de mensajería instantánea diseñado por Microsoft para sus sistemas Windows, comienza su extensa carrera. Tres meses después esta a punto de ser reciclado por su escaso éxito. Sin embargo, una inesperada avalancha de usuarios lo vuelve a popularizar, desplazando a su famoso predecesor, ICQ.

En Enero del 2001 Jimmy Wales y Larry Sanger crean la más grande enciclopedia de Internet, basada en la colaboración. Toda persona con acceso a Internet puede modificar la mayoría de los artículos. La Wikipedia combina wiki “rápido” para los hawaianos con paideia, educación en griego.

2003 Apple Computer presenta Apple iTunes Music Store, que permite bajar legalmente temas musicales pagando 0.99 dólares por cada uno.
Se crea hi5 es una red social fundada por Ramu Yalamanchi (actual director general de la empresa hi5 Networks) y que fue lanzada en el 2003. Al finalizar el año 2007 tenía más de 70 millones de usuarios registrados,1 la mayoría de ellos en América Latina; además, era uno de los 40 sitios web más visitados del mundo.2 Bill Gossman fue nombrado CEO en abril de 2009,3 y Alex St. John se integró como presidente y CTO en noviembre del mismo año.4 A principios del 2010, hi5 adquirió a la empresa de juegos "Big Six".5 La compañía adquirió 20 millones de dólares en series A de Mohr Davidow Ventures, así como 15 millones de dólares en deudas de riesgo en 2007.6 7

2004 Mark Zuckerberg lanza la red social Facebook. Permite localizar a personas con quienes se ha perdido contacto y hacer nuevos amigos para intercambiar mensajes, fotos y otras actividades.
Marzo, el nuevo servido de e-mail de Google ofrece una gran capacidad de almacenamiento gratuito: 1 gigabyte.
Noviembre, se publica el Mozilla Firefox. En los primeros 99 días obtiene 25 millones de descargas. Se considera la “segunda guerra de los navegadores” entre Internet Explorer y otros como Ópera y Safari.
En Febrero 2005 Chad Hurley, Steve Chen y Jawed, crean en California YouTube. Que les permite a los usuarios compartir videos digitales. La facilidad para alojar videos personales de hasta 10 min de duración lo hacen extremadamente popular.

1650 millones de dólares convierten a YouTube en propiedad de Google  en octubre de 2006. Un mes mas tarde es considerado “El invento del año”.

2007 Apple lanza su teléfono celular capaz de conectarse a Internet, el Iphone.
En diciembre de 2011, Hi5 fue vendida a Tagged, uno de sus competidores, por una suma no revelada. "Me di cuenta de la oportunidad de Hi5 estaba en pasar de contestar a tus amigos a conectarse con nueva gente en línea por eso Tagged es el hogar perfecto para Hi5, ya que continúa demostrando ser un competidor importante en la vida social", dijo Alex St. John, ex presidente y director de tecnología de Hi5 en un comunicado de despedida.

Ponchar Cable Coaxial

MATERIALES:
CABLE COAXIAL (MIN 1M)
PINZAS PELADORAS DE CABLE COAXIAL
2 CAMPANAS
PINZAs PONCHADORAS DE CABLE COAXIAL








COLOCAMOS EL CABLE COAXIAL DENTRO DE LAS PINZAS PELADORAS, A UNA DISTANCIA MIN DE 3CM Y CORTAMOS 1CM APROX DE LA CUBIERTA DEL CABLE CON DARLE 2 O 3 VUELTAS BASTARÁ.



PROCEDEMOS A DOBLAR LA MAYA CONDUCTORA, ACOMODANDOLA DE TAL MANERA QUE COINCIDA CON LA ROSCA DE LA CAMPANA.


EN ALGUNOS CASOS EL AISLANTE NO SE CORTA CON ALGUNAS PINZAS, EN ESE CASO CORTAMOS  1CM DE DISTANCIA DEL AISLANTE PARA QUE NOS QUEDE SOLO EL CABLE DE COBRE A LA VISTA.



INSERTAMOS LA CAMPANA, CON EL ORIFICIO PEQUEÑO DEBAJO PARA QUE ENTRE PRIMERO. ENROSCARLA HASTA MAS NO PODER ESTO TAMBIÉN SE PUEDE FACILITAR CON LA AYUDA DE UNAS PINZAS, EL PUNTO ES QUE EL CABLE DE COBRE  SOBRESALGA UN MÍNIMO  DE LA CAMPANA.



FINALMENTE  SE UTILIZAREMOS LAS PINZAS PONCHADORAS PARA CABLE COAXIAL, LO ACOMODAMOS Y PRESIONAMOS FUERTEMENTE 2 VECES PARA QUE QUEDE.



CHECAMOS QUE ESTE BIEN PONCHADO DE TAL MANERA QUE ESTE BIEN SUJETO EL CABLE.
Y SE REPITE EL PROCEDIMIENTO PARA EL OTRO LADO DEL CABLE.


Ponchar Cable de Red RJ45


MATERIALES:
 CABLE UTP  NIVEL 5 (min 1M)
 PINZA PARA PONCHAR ESTE CABLE (RJ45)
 2 CONECTORES PARA EL CABLE Y UN PROBADOR PARA EL CABLE YA PONCHADO.





PARA  HACER EL PONCHADO EN CLASE “A” Ó “B” PRIMERO SE CORTA LA MANGUERA QUE PROTEGE EL CABLE SIN DAÑAR LOS CABLES INTERIORES A UNA DISTANCIA DE 3CM DESDE LA PUNTA DEL CABLE. DESPUÉS SE PROCEDERÁ A ACOMODAR LOS CABLES EN LAS SIGUIENTES COMBINACIONES:


CLASE TIPO "A"

  • BLANCO VERDE
  • VERDE
  • BLANCO NARANJA
  • AZUL
  • BLANCO AZUL
  • NARANJA
  • BLANCO CAFÉ
  • CAFÉ 




CLASE TIPO "B"

  • BLANCO NARANJA
  • NARANJA
  • BLANCO VERDE
  • AZUL
  • BLANCO AZUL
  • VERDE
  • BLANCO CAFÉ
  • CAFÉ







UNA VEZ ACOMODADOS LOS CABLES INTERIORES SE PROCEDE A CORTARLOS PERO AHORA DE UNA DISTANCIA DE APROXIMADAMENTE 1.5CM DESDE LA PUNTA.


MANTENIENDO LAS PUNTAS METÁLICAS DEL CONECTOR HACIA ARRIBA, INTRODUCIMOS LOS FILAMENTOS EN EL CONECTOR. ASEGURÁNDOSE QUE ENTREN EN UN ORIFICIO CADA FILAMENTO.


PROCEDEMOS A INTRODUCIR EL CONECTOR CON LOS FILAMENTOS YA ACOMODADOS EN LAS PINZAS RJ45 EN EL ORIFICIO RJ45 O DE 8 PINES, APRETANDO 2 VECES Y LO SACAMOS. CHECAMOS QUE LAS PUNTAS METÁLICAS DEL CONECTOR ESTÉN SUMIDAS, QUE EL CABLE NO SE SALGA Y QUE LAS PUNTAS DE LOS FILAMENTOS ESTÉN VISIBLES DESDE EL FRENTE DEL CONECTOR.



SE REPITE EL PROCEDIMIENTO PARA EL OTRO LADO DEL CABLE Y SE PRUEBA.