jueves, 3 de marzo de 2011

Active Directory

Active Directory está basado en una serie de estándares llamados (X.500), aquí se encuentra una definición lógica a modo jerárquico.
Dominios y subdominios se identifican utilizando la misma notación de las zonas DNS, razón por la cual Active Directory requiere uno o más servidores DNS que permitan el direccionamiento de los elementos pertenecientes a la red, como por ejemplo el listado de equipos conectados; y los componentes lógicos de la red, como el listado de usuarios.
Un ejemplo de la estructura descendente (o herencia), es que si un usuario pertenece a un dominio, será reconocido en todo el árbol generado a partir de ese dominio, sin necesidad de pertenecer a cada uno de los subdominios.
A su vez, los árboles pueden integrarse en un espacio común denominado bosque (que por lo tanto no comparten el mismo nombre de zona DNS entre ellos) y establecer una relación de trust o confianza entre ellos. De este modo los usuarios y recursos de los distintos árboles serán visibles entre ellos, manteniendo cada estructura de árbol el propio Active Directory.


Funcionamiento
Su funcionamiento es similar a otras estructuras de LDAP (Lightweight Directory Access Protocol), ya que este protocolo viene implementado de forma similar a una base de datos, la cual almacena en forma centralizada toda la información relativa a un dominio de autenticación. La ventaja que presenta esto es la sincronización presente entre los distintos servidores de autenticación de todo el dominio.
A su vez, cada uno de estos objetos tendrá atributos que permiten identificarlos en modo unívoco (por ejemplo, los usuarios tendrán campo nombre, campo email, etcétera, las impresoras de red tendrán campo nombre, campo fabricante, campo modelo, campo "usuarios que pueden acceder", etc). Toda esta información queda almacenada en Active Directory replicándose de forma automática entre todos los servidores que controlan el acceso al dominio.
De esta forma, es posible crear recursos (como carpetas compartidas, impresoras de red, etc) y conceder acceso a estos recursos a usuarios, con la ventaja que estando todos estos objetos memorizados en Active Directory, y siendo esta lista de objetos replicada a todo el dominio de administración, los eventuales cambios serán visibles en todo el ámbito. Para decirlo en otras palabras, Active Directory es una implementación de servicio de directorio centralizado en una red distribuida que facilita el control, la administración y la consulta de todos los elementos lógicos de una red (como pueden ser usuarios, equipos y recursos).


Intercambio entre dominios
Para permitir que los usuarios de un dominio accedan a recursos de otro dominio, Active Directory usa un trust (en español, relación de confianza). El trust es creado automáticamente cuando se crean nuevos dominios. Los límites del trust no son marcados por dominio, sino por el bosque al cual pertenece. Existen trust transitivos, donde los trust de Active Directory pueden ser un acceso directo (une dos dominios en árboles diferentes, transitivo, una o dos vías), bosque (transitivo, una o dos vías), reino (transitivo o no transitivo, una o dos vías), o externo (no transitivo, una o dos vías), para conectarse a otros bosques o dominios que no son de Active Directory. Active Directory usa el protocolo V5 de Kerberos, aunque también soporta NTLM y usuarios webs mediante autenticación SSL / TLS


Confianza transitiva
Las Confianzas transitivas son confianzas automáticas de dos vías que existen entre dominios en Active Directory.


Confianza explícita
Las Confianzas explícitas son aquellas que establecen las relaciones de forma manual para entregar una ruta de acceso para la autenticación. Este tipo de relación puede ser de una o dos vías, dependiendo de la aplicación.
Las Confianzas explícitas se utilizan con frecuencia para acceder a dominios compuestos por ordenadores con Windows NT 4.0.


Confianza de Acceso Directo
La Confianza de acceso directo es, esencialmente, una confianza explícita que crea accesos directos entre dos dominios en la estructura de dominios. Este tipo de relaciones permite incrementar la conectividad entre dos dominios, reduciendo las consultas y los tiempos de espera para la autenticación.


Confianza entre bosques
La Confianza entre bosques permite la interconexión entre bosques de dominios, creando relaciones transitivas de doble vía. En Windows 2000, las confianzas entre bosques son de tipo explícito, al contrario de Windows Server 2003.


Direccionamientos a recursos
Los direccionamientos a recursos de Active Directory son estándares con la Convención Universal de Nombrado (UNC), Localizador Uniforme de Recursos (URL) y nombrado de LDAP.
Cada objeto de la red posee un nombre de distinción (en inglés, Distinguished name (DN)), así una impresora llamada Imprime en una Unidad Organizativa (en inglés, Organizational Units, OU) llamada Ventas y un dominio foo.org, puede escribirse de las siguientes formas para ser direccionado:
 en DN sería CN=Imprime,OU=Ventas,DC=foo,DC=org, donde
 CN es el nombre común (en inglés, Common Name)
 DC es clase de objeto de dominio (en inglés, Domain object Class).
 En forma canónica sería foo.org/Ventas/Imprime
Los otros métodos de direccionamiento constituyen una forma local de localizar un recurso
 Distinción de Nombre Relativo (en inglés, Relative Distinguised Name (RDN)), que busca un recurso sólo con el Nombre Común (CN).
 Globally Unique Identifier (GUID), que genera una cadena de 128 bits que es usado por Active Directory para buscar y replicar información


Diferencias entre Windows NT y Active Directory
A diferencia del anterior sistema de administración de dominios de Windows NT Server, que preveía únicamente el dominio de administración, Active Directory permite también crear estructuras jerárquicas de dominios y subdominios, facilitando la estructuración de los recursos según su localización o función dentro de la organización a la que sirven. Otra diferencia importante es el uso de estándares como X.500 y LDAP para el acceso a la información.

Requisitos de instalación
Para crear un dominio hay que cumplir, por lo menos, con los siguientes requisitos recomendados:
 Tener cualquier versión Server de Windows 2000, 2003 (Server, Advanced Server o Datacenter Server) o Windows 2008, en el caso de 2003 server, tener instalado el service pack 1 en la máquina.
 Protocolo TCP/IP instalado y configurado manualmente, es decir, sin contar con una dirección asignada por DHCP,
 Tener un servidor de nombre de DNS, para resolver la dirección de los distintos recursos físicos presentes en la red
 Poseer más de 250 MB en una unidad de disco formateada en NTFS.

lunes, 28 de febrero de 2011

Windows Server 2003

Funciones del Servidor

Windows Server 2003 es un sistema operativo de propósitos múltiples capaz de manejar una gran gama de funciones de servidor, en base a sus necesidades, tanto de manera centralizada como distribuida. Algunas de estas funciones del servidor son:
• Servidor de archivos e impresión.
• Servidor Web y aplicaciones Web.
• Servidor de correo.
• Terminal Server.
• Servidor de acceso remoto/red privada virtual (VPN).
• Servicio de directorio, Sistema de dominio (DNS), y servidor DHCP.
• Servidor de transmisión de multimedia en tiempo real (Streaming).
• Servidor de infraestructura para aplicaciones de negocios en línea (tales como planificación de recursos de una empresa y software de administración de relaciones con el cliente).

Fundamentos Empresariales de Microsoft Windows Server 2003

Más por menos.
Microsoft Windows Server 2003 ofrece más rapidez, fiabilidad, escalabilidad y disponibilidad que Microsoft Windows NT Server, siendo además mucho más fácil de gestionar. Puede ser implementado y gestionado en menos tiempo, con un esfuerzo menor, complejidad reducida y un coste total de propiedad inferior.
• Permite a los clientes ser más productivos.
• Está construido sobre la robustez y fiabilidad de Microsoft Windows 2000 Server.
• Es el Sistema Operativo Windows más rápido, fiable y seguro que jamás haya existido.
¿Por qué Microsoft Windows Server 2003?
• Como servidor de ficheros es de un 100% a un 139% más rápido que Windows 2000 Server y un 200% más que Windows NT Server 4.0.
• Como servidor de impresión, es un 135% más eficiente que Windows NT Server 4.0.
• Como servidor web es de un 100% a un 165% más rápido que Windows 2000 Server.
• Las características mejoradas del Directorio Activo permiten realizar tareas más fácilmente, entre las que destacan la habilidad de renombrar dominios, la posibilidad de redefinir el esquema y una replicación más eficiente.
• Mayor disponibilidad a través del Windows System Resource Manager, de las actualizaciones del sistema automáticas y gracias a un servidor cuyos parámetros le confieren la máxima seguridad por defecto.
• Ofrece la mejor conectividad, facilitando al máximo la configuración de enlaces entre delegaciones, acceso inalámbrico seguro y acceso remoto a aplicaciones a través de los Terminal Services, así como en su integración mejorada con dispositivos y aplicaciones.
• Combinado con Visual Studio .NET 2003, se convierte en la plataforma más productiva para implementar, ejecutar y gestionar aplicaciones conectadas mediante la nueva generación de servicios Web basados en XML.
En una palabra, Microsoft Windows Server 2003 es productividad: más por menos.


Ediciones Microsoft windows server 2003

• MICROSOFT WINDOWS SERVER 2003 STANDARD EDITION.
El sistema operativo servidor fiable ideal para satisfacer las necesidades diarias de empresas de todos los tamaños, proporcionando la solución óptima para compartir archivos e impresoras, conectividad segura a Internet, implementación centralizada de aplicaciones y un entorno de trabajo que conecta eficazmente a empleados, socios y clientes. Soporta hasta 4 procesadores y 4 Gb de Memoria RAM.
• MICROSOFT WINDOWS SERVER 2003 ENTERPRISE EDITION.
La plataforma preferida tanto por las grandes compañías como por las de tamaño medio para implementar aplicaciones de forma segura, así como servicios Web. Integrándose en infraestructuras aportando fiabilidad, mejores rendimientos y un elevado valor empresarial, se presenta tanto en 32 como en 64 bit. Soporta hasta 8 procesadores, hasta 64 Gb de memoria RAM y permite clustering de hasta 8 nodos.
• MICROSOFT WINDOWS SERVER 2003 DATACENTER EDITION.
Es el servidor escogido para aplicaciones críticas de negocio así como las consideradas de misión crítica, que exigen los más altos niveles de uptime, escalabilidad y fiabilidad. Sólo disponible a través del Datacenter Program de la mano de los fabricantes y proveedores de servicios líderes del mercado, se presenta en las versiones de 32 y 64 bit. y permite escalar por encima de las 8 vías o procesadores alcanzando hasta 64 procesadores en paralelo.
• MICROSOFT WINDOWS SERVER 2003 WEB EDITION.
Optimizado específicamente para albergar y servir páginas web, manteniendo las funcionalidades esenciales que garantizan la fiabilidad, seguridad y facilidad de gestión características de Windows Server. Es la edición adecuada para implementar servidores web dedicados a bajo coste.


Tecnologías Básicas de Windows Server 2003

Windows Server 2003 contiene tecnologías básicas construidas en base a las fortalezas de Windows 2000 Server para ofrecer un sistema operativo rentable y superior. Aprenda sobre diferentes y nuevas tecnologías y características que hacen de Windows Server 2003 una plataforma de servidor ideal para organizaciones de cualquier tamaño. Conozca como este sistema operativo de servidor seguro puede hacer que su organización y sus empleados sean más productivos y estén mejor conectados.
Seguro
Windows Server 2003 cuenta con la fiabilidad, disponibilidad, escalabilidad y seguridad que lo hace una plataforma altamente segura.
• Disponibilidad. Windows Server 2003 ofrece una disponibilidad mejorada de soporte a clustering. Los servicios de clustering han llegado a ser esenciales para las organizaciones en cuanto a implementación de negocios críticos, comercio electrónico y aplicaciones de negocios en línea, porque proporcionan mejoras significativas en disponibilidad, escalabilidad y manejabilidad. La instalación y configuración de clustering es más fácil y más robusta en Windows Server 2003, mientras que algunas características de red mejoradas en el producto ofrecen mejor recuperación de fallos y un tiempo productivo alto del sistema.
La familia de Windows Server 2003 soporta clusters de servidor de hasta 8 nodos. Si uno de los nodos en un cluster no se puede usar debido a un fallo o por mantenimiento, inmediatamente otro nodo empieza a dar servicio, un proceso conocido como recuperación de fallos. Windows Server 2003 también soporta balanceo de carga de red, el cual nivela el tráfico de entrada dentro del Protocolo de Internet (IP), a través de los nodos en un cluster.
• Escalabilidad. Windows Server 2003 ofrece escalabilidad a través de "Scale-up", habilitado por multiprocesamiento simétrico (SMP) y "Scale-out", habilitado por clustering. Pruebas internas indican que, comparado con Windows 2000 Server, Windows Server 2003 da hasta un 140 por ciento de mejor desempeño en la administración de archivos y un rendimiento más significativo en varias otras características incluyendo servicio Microsoft Active Directory, servidor Web y componentes Terminal Server así como servicios de red. Windows Server 2003 abarca desde soluciones de procesador únicas hasta sistemas de 32 vías. Esto soporta procesadores tanto de 32-bits como de 64 bits.
• Fiabilidad. Los negocios han hecho crecer la tradicional red de área local ( LAN) al combinar redes internas, externas y sitios de Internet. Como resultado de esto, el aumento de seguridad en los sistemas es ahora más crítica que antes. Como parte del compromiso de Microsoft de brindar computación segura, la compañía ha revisado intensamente la familia Windows para identificar posibles fallos y debilidades. Windows Server 2003 ofrece muchas mejoras y características nuevas e importantes de seguridad incluyendo:
• El tiempo de ejecución. Esta función del software es un elemento clave de Windows Server 2003 que mejora la fiabilidad y ayuda a asegurar un entorno seguro. Esto reduce el número de fallos y huecos de seguridad causados por errores comunes de programación. Como resultado, hay menor vulnerabilidad de que ocurran ataques. El tiempo de ejecución de lenguaje común también verifica que estas aplicaciones puedan correr sin errores y chequea permisos de seguridad válidos, asegurando que el código realice solamente las operaciones correspondientes.
• Internet Information Services 6.0. Para incrementar la seguridad del servidor Web, Internet Information Services (IIS) 6.0 está configurado para una máxima seguridad - la instalación por defecto está "asegurada". Características de seguridad avanzadas en IIS 6.0 incluyen: servicios de criptografía selectiva, advanced digest authentication, y acceso configurable de control de procesos. Estas son algunas de las muchas características de seguridad en IIS 6.0 que le permiten llevar a cabo negocios con seguridad en la Web.
Productivo
En numerosas áreas, Windows Server 2003 tiene capacidades que pueden hacer que su organización y empleados sean más productivos, como:
• Servicios de impresión y archivos. En el corazón de cualquier organización TI, la habilidad que se tenga de administrar eficientemente los recursos de archivo e impresión, es lo que permitirá que estos estén disponibles y seguros para los usuarios. Al aumentar las redes en tamaño con más usuarios localizados en sitios, en ubicaciones remotas, o en compañías de socios, los administradores de TI enfrentan cada vez más carga pesada. La familia Windows ofrece servicios inteligentes de manejo de archivos e impresión con una funcionalidad y rendimiento elevado, permitiéndole reducir TCO.
• Active Directory. Active Directory es un servicio de directorio de la familia de Windows Server 2003. Esto almacena información acerca de objetos en la red y hace que esta información sea fácil de encontrar por los administradores y usuarios - proporcionando una organización lógica y jerárquica de información en el directorio. Windows Server 2003 trae muchas mejoras para Active Directory, haciéndolo mas versátil, fiable y económico de usar. En Windows Server 2003, Active Directory ofrece una escalabilidad y rendimiento elevado. Esto también le permite mayor flexibilidad para diseñar, implementar y administrar el directorio de su organización.
• Servicios de Administración. Mientras que la computación se ha proliferado en ordenadores de sobremesa y dispositivos portátiles, el coste real de mantenimiento de redistribuida de ordenadores personales ha aumentado significativamente. Reducir el mantenimiento día a día a través de la automatización, es la clave para reducir costes de operación. Windows Server 2003 contiene varias herramientas importantes de administración automatizada como Microsoft Software Update Services (SUS) y asistentes de configuración de servidor para ayudar a automatizar la implementación. La Administración de Políticas de Grupose hace más fácil con la nueva Consola para Administración de Políticas de Grupo (GPMC), permitiendo que más organizaciones utilicen mejor el servicio Active Directory para sacar beneficio de sus poderosas características de administración. En conclusión, las herramientas de líneas de comandos permiten que los administradores realicen la mayoría de las tareas desde la consola de comandos.
• Administración de almacenamiento. Windows Server 2003 introduce características nuevas y mejoradas herramientas para la administración del almacenamiento, haciendo que sea más fácil y más seguro manejar y dar mantenimiento a discos y volúmenes, respaldar y recuperar datos, y conectarse a una red de almacenamiento (SANs).
• Terminal Services. Terminal Services, componente de Microsoft Windows Server 2003, se construye en el modo de servidor de aplicaciones en Windows 2000 Terminal Services. Terminal Services le permite enviar aplicaciones en Windows, virtualmente a cualquier dispositivo - incluyendo a aquellos que no pueden correr Windows.
Conectado
Windows Server 2003 incluye características y mejoras nuevas para asegurarse de que su organización y usuarios permanezcan conectados:
• Servicios Web XML. IIS 6.0 es un componente importante de la familia Windows. Los administradores y desarrolladores de aplicaciones Web demandan una plataforma Web rápida que sea tanto escalable como segura. Las mejoras significativas de arquitectura en IIS abarcan un modelo de procesos nuevo que en gran medida aumenta la fiabilidad, la escalabilidad y el desempeño. IIS está instalado predeterminadamente en estado seguro (Lock down). La seguridad se incrementa debido a que el administrador del sistema habilita y deshabilita funciones del sistema de acuerdo a requerimientos de la aplicación. En conclusión, el apoyo directo de edición de XML mejora la administración.
• Comunicaciones y redes. Las comunicaciones y redes nunca han sido tan críticas para las organizaciones que enfrentan el reto de competir en el mercado global. Los empleados necesitan conectarse a la red desde cualquier lugar y cualquier dispositivo. Socios, vendedores y otros fuera de la red necesitan interactuar eficientemente con recursos clave, y la seguridad es más importante que nunca. Las nuevas características y mejoras en redes en la familia de Windows Server 2003 incrementan la versatilidad, manejabilidad y fiabilidad de infraestructura de red.
• Servicios empresariales UDDI. Windows Server 2003 incluye servicios empresariales UDDI, una infraestructura dinámica y flexible para servicios Web XML. Esta solución basada en estándares le permite a las compañías llevar a cabo sus propios servicios internos UDDI para redes de uso interno y externo. Los desarrolladores pueden encontrar y reutilizar fácil y rápidamente los servicios Web disponibles dentro de la organización. Los administradores TI pueden catalogar y administrar los recursos programables de su red. Con servicios empresariales UDDI, las compañías pueden crear e implementar aplicaciones más inteligentes y seguras.
• Servicios de Windows Media. Windows Server 2003 incluye los servicios de medios digitales más poderosos de la industria. Estos servicios son parte de la nueva versión de la plataforma de tecnologías de Microsoft Windows Media que también incluyen un nuevo reproductor de Windows Media, un codificador de Windows Media, codecs de audio y video y un paquete para desarrollo de software de Windows Media.
Mejor economía Microsoft diseñó Windows Server 2003 para ayudar a las compañías a darle valor añadido a sus negocios al mantener costes bajos. La alta fiabilidad de Windows Server 2003 ayuda a controlar costes al reducir fallos y tiempo de inactividad. Windows Server 2003 tiene la flexibilidad de escalar según la demanda.
Las herramientas poderosas de administración y configuración en Windows Server 2003 le permiten a los negocios implementar y administrar sistemas tan fácil y eficientemente como sea posible. La compatibilidad con aplicaciones heredadas y productos de otras compañías hará que las organizaciones no pierdan su inversión de infraestructura existente. Con la familia de Windows Server 2003, las organizaciones se benefician de una plataforma poderosa y robusta que ayuda a darle a los negocios valor hoy en día y en el futuro.
.NET y los Servicios Web XML
Microsoft .NET está altamente integrado en la familia de Windows Server 2003. Permite un nivel sin precedentes de integración de software al usar servicios Web XML: aplicaciones discretas, con elementos básicos que se conectan entre sí - así como con otras aplicaciones más grandes - vía Internet.
Al implantar en los productos la estructura de la plataforma de Microsoft, .NET brinda la posibilidad de crear, alojar, implementar y usar rápida y fiablemente soluciones seguras y conectadas a través de servicios Web XML. La plataforma Microsoft proporciona una serie de herramientas de desarrollo, aplicaciones cliente, servicios Web XML y de servidores necesarios para participar en este mundo conectado.
Estos servicios Web XML proporcionan componentes reciclables construidos en base a los estándares de la industria que integran capacidades de otras aplicaciones independientemente de como las aplicaciones fueron creadas, de su plataforma o sistema operativo o de los dispositivos usados para acceder a ellos.
Con servicios Web XML, los desarrolladores pueden integrar aplicaciones dentro de las empresas y a través de las fronteras de la red con socios y clientes. Este avance - abre la puerta a una colaboración federada y a relaciones de negocio a negocio y de negocio a cliente más eficiente - puede tener un impacto potencial significativo en las ganancias. Millones de otras empresas pueden usar estos componentes en varias combinaciones para producir experiencias altamente personales e inteligentes.
Otros beneficios de .NET en la familia de Windows Server 2003 para los desarrolladores de aplicaciones son:
• Aprovechar sus inversiones existentes. Las aplicaciones existentes basadas en Windows continuarán corriendo en Windows Server 2003 y pueden ser fácilmente empaquetadas como servicios Web XML.
• Escribir menos código y usar herramientas y lenguajes de programación que conozcan. Esto es posible por estar los servicios de aplicación creados en Windows Server 2003, tales como Microsoft ASP.NET, monitoreo de transacciones, mensajes en espera y acceso a datos.
• Usar monitoreo de procesos, reciclaje e instrumentación integrada para dar fiabilidad, disponibilidad y escalabilidad a sus aplicaciones.
Todos estos beneficios están en la infraestructura básica mejorada del servidor de Windows y forman la base de .NET.


Mejoras funcionales

• DIRECTORIO ACTIVO.
Destaca la nueva capacidad de renombrar dominios, la posibilidad de redefinir el esquema, de desactivar tanto atributos como definiciones de clase en el esquema, la selección múltiple de objetos sobre los cuales realizar cambios simultáneamente, y la de establecer relaciones de confianza en bosques cruzados, evitando problemas con políticas de usuarios y grupos.
El soporte de meta directorios y del inetOrgPerson permite la integración de información de identidades procedente de múltiples directorios, bases de datos y ficheros, así como la migración de objetos de un directorio LDAP al Directorio Activo. Las mejoras en la gestión de políticas de grupo, en el interfaz del usuario a través de la Microsoft Management Console (MMC), y en la conexión con oficinas remotas. En este último aspecto se ha optimizado la sincronización y replicación tanto del Directorio Activo como del Catálogo Global entre controladores de dominio, que puede ser verificada con nuevas herramientas como Health Monitor y cuya compresión puede ser ahora desactivada para disminuir la carga en la CPUa costa de consumir mayor ancho de banda en las comunicaciones.
• ADMINISTRACIÓN.
A través de la Consola de Gestión de Políticas de Grupo (GPMC) se mejora y facilita la administración, integrándose aún más con los servicios del Directorio Activo, con el consiguiente ahorrode costes. Se proporcionan herramientas y servicios de implementación más potentes, entre los que cabe citar Windows Management Instrumentation (WMI), Resultant Set of Policy (RsoP), las mejoras en los servicios de IntelliMirror y la nueva tecnología de Instalación Remota (RIS), con cuya implementación los usuarios pueden disponer de sus aplicaciones y datos sin importar desde donde se conecten a la red corporativa. Se ha potenciado la gestión a través de comandos, admitiendo scripting y facilitando la administración remota.
• SERVICIOS FILE & PRINT.
Al mejorar la infraestructura del sistema de archivos (destacando las tecnologías DFS, EFS y el nuevo soporte de tecnologías Antivirus) ahora es más fácil utilizar, asegurar y almacenar tanto archivos como otros recursos esenciales, y acceder a la información con herramientas de indexación de contenidos más rápidas. Con el Automated System Recovery (ASR) es más sencillo recuperar el sistema, hacer copias de seguridad de los ficheros y mantener la máxima disponibilidad, sin depender de la asistencia del departamento de TI. La conectividad se ve beneficiada con las características mejoradas de compartición de documentos a lo largo de toda la organización gracias al redirector WebDAV (Web Digital Authoring & Versioning). En lo que respecta a la impresión, además de contar con soporte a más de 3.800 periféricos, los servicios disponen de tecnología tolerante a fallos en cluster, aceptando tareas de otras plataformas como Macintosh, UNIX, Linux o Novell, así como Wireless LAN y Bluetooth. El monitor de estado aporta un mayor rendimiento y más información sobre la situación de los dispositivos, cuyas características (ubicación, color, velocidad, etc) se pueden publicar en el Directorio Activo para un mayor aprovechamiento de estos recursos.
• INTERNET INFORMATION SERVICES 6.0.
Totalmente rediseñado con el objetivo de mejorar la seguridad, fiabilidad y rendimiento, se instala completamente bloqueado por defecto.
Basado en una nueva arquitectura, las aplicaciones web en ejecución están aisladas una de la otra, permitiéndose la monitorización y administración proactiva de aplicaciones así como cambios de configuración en línea, reduciendo el tiempo que precisan los administradores para reiniciar servicios con el fin de mantener las aplicaciones operativas. IIS 6.0 ha demostrado su compatibilidad con miles de aplicaciones de clientes e ISVs, y opcionalmente puede ser configurado para funcionar en modo de aislamiento IIS 5.0, lo que asegura la máxima compatibilidad.
Además con el nuevo IIS 6.0 la replicación de configuraciones de servicio web en diferentes servidores se convierte en una tarea totalmente automatizada permitiendo a los administradores reducir el tiempo de implementación al mínimo.
• CLUSTERING.
Con características avanzadas de recuperación ante fallos y balanceo de carga, ofrecen la máxima disponibilidad 7x24. Integrándose en el Directorio Activo (en el que cada cluster es visto como un objeto "virtual") y con soporte tanto de 32 como de 64 bit, en Microsoft Windows Server 2003 se ha incrementado de 4 a 8 el número máximo de nodos por cluster, disponiendo así el administrador de más opciones para garantizar el servicio para las necesidades de la empresa.
Del Clustering cabe destacar la mayor facilidad de configuración (con pre-configuraciones y administración remota) y de administración de sus recursos (entre ellos el gestor de Balanceo de Carga), las métricas para análisis de disponibilidad, las capacidades mejoradas en seguridad (soporte de Kerberos, EFS e integración con Seguridad IP), de almacenamiento (con funciones específicas para redes SAN) y las destinadas a la recuperación de fallos, contribuyendo todo ello al máximo uptime.
• NETWORKING & COMUNICACIONES.
Con ayuda de la Resultant Set of Policy se puede analizar el impacto de la implementación de políticas de red y comunicaciones, simplificando así la resolución de problemas.
Mediante los servicios de Instalación Remota, las herramientas para migración de configuraciones de usuarios, el nuevo Windows Installer (con soporte de aplicaciones de 64 bit, así como de firmas digitales y CLR), los Software Update Services (SUS) para testear las actualizaciones de Windows Update antes de ser aplicadas en la organización y muchas otras nuevas características de Microsoft Windows Server 2003, se logra una mejor gestión centralizada de recursos y servicios, contribuyendo así a la reducción del TCO y el aumento de la productividad de los usuarios.
• TERMINAL SERVICES.
Permiten disponer de aplicaciones Windows e incluso de los propios escritorios Windows en prácticamente cualquier dispositivo, incluyendo aquellos que ni siquiera funcionan bajo sistemas operativos Windows. Los nuevos Terminal Services, construidos sobre la base y la experiencia de los existentes en Microsoft Windows 2000 Server, ofrecen nuevas opciones para la implementación de aplicaciones, un acceso más eficiente a los datos con conexiones de menor ancho de banda, mayor número de usuarios concurrentes, y mediante Session Directory proporciona el soporte necesario para el balanceo de carga de red (tanto el desarrollado por Microsoft como el de otras tecnologías de terceros).
Además con el nuevo Terminal Server el usuario podrá ver sus unidades y dispositivos locales en sus sesiones remotas, así como recibir audio y video en diferentes calidades a su elección. La administración de sesiones se mejora permitiendo visualizar diferentes sesiones a la vez en consola por parte del administrador e interactuar con ellas aportando valor a la sesión.
• STORAGE MANAGEMENT.
Añade nuevas y mejoradas funcionalidades para la gestión del almacenamiento, haciendo más fácil y fiable la manipulación de discos y volúmenes, copias de seguridad y procesos de restauración, así como la conexión a redes SAN (Storage Area Networks). El IFS (Intelligent File Storage) protege los datos de los usuarios, facilita el acceso a redes complejas y proporciona una arquitectura de almacenamiento flexible. Shadow Copy Restore permite a los usuarios la recuperación de versiones previas de archivos sin interrumpir su trabajo y sin necesidad de intervención administrativa. DFS (Distributed File System) permite a los administradores asignar un único name-space, proporcionando a los usuarios un único acceso virtual a elementos agrupados de forma lógica, aunque estén almacenados en diferentes localizaciones físicas. La encriptación de datos de los usuarios (EFS, Encrypting File Systems) es ahora más sencilla e incluye la encriptación offline de carpetas y archivos, siendo particularmente beneficioso para los usuarios móviles.
• WINDOWS MEDIA SERVICES.
Los Windows Media Services ofrecen nuevas oportunidades de comunicación(eLearning y broadcasting, tanto comercial como corporativo), y eliminan el buffering para clientes que acceden a contenidos ricos en elementos multimedia, con lo que se puede dar soporte al doble de los usuarios actuales con Microsoft Windows 2000 Server. A esto contribuye también el Audio Acceleration, que da prioridad, a la carta, al tráfico multimedia sobre otros flujos de datos en servidores de acceso remoto, lo que proporciona un mejor rendimiento, beneficiando especialmente a las redes de baja velocidad.
• .NET FRAMEWORK.
El .NET Framework está formado por tres elementos principales: el runtime del lenguaje común (Common Language Runtime, CLR), un conjunto jerárquico de librerías de clases unificadas, y una versión avanzada de Páginas de Servidor Activas llamada ASP+. Integrando el entorno de desarrollo de aplicaciones .NET Framework en Microsoft Windows Server 2003, los desarrolladores ya no tendrán que escribir más código para resolver tareas de "fontanería informática", centrándose exclusivamente en crear valor en los procesos de negocio. Además, los nuevos Enterprise UDDI Services permiten descubrir y reutilizar fácilmente servicios web dentro de la propia organización, ejecutándose el servicio UDDI para su uso en la intranet o la extranet, beneficiando así también a los desarrolladores.
• APPLICATION SERVICES.
Los avances en Microsoft Windows Server 2003 proporcionan numerosos beneficios para el desarrollo de aplicaciones, lo que redunda en una significativa reducción del TCO (Coste Total de Propiedad) y en un mejor rendimiento. Entre ellos destacan una integración e interoperabilidad más simplificada (con el soporte nativo de servicios Web XML, así como de los estándares UDDI, SOAP y WSDL), mejoras en la productividad (al incluir Microsoft .NET Framework, Message Queuing, COM+ y ASP .NET), una escalabilidad y eficiencia superiores (gracias a la integración de ASP .NET en IIS 6.0, al soporte asíncrono de .NET Framework y al caché inteligente de ASP .NET), una seguridad garantizada end-to-end y a una implementación y gestión mas eficientes con los servicios Windows Installer y nuevas herramientas como Fusion, que soporta el versionado de DLLs side-by-side.

miércoles, 23 de febrero de 2011

"Macintosh" & "Ubuntu Server"

Macintosh
Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.
Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.
Hay una gran variedad de puntos de vista sobre cómo fue desarrollado el Mac OS original y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto de Xerox PARC ha sido establecido por documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart también fueron significativas.

Versiones
Los primeros sistemas operativos Macintosh inicialmente consistieron en dos programas, llamados "System" y "Finder", cada uno con su propio número de versión. El System 7.5.3 fue la primera en incluir el logo Mac OS y Mac OS 7.6 fue el primero en ser llamado "Mac OS".
Antes de la introducción de los últimos sistemas basados en el microprocesador PowerPC G3, partes significativas del sistema se almacenaban en la memoria física de sólo lectura de la placa base. El propósito inicial de esto fue evitar el uso de la capacidad de almacenamiento limitada de los disquetes de apoyo al sistema, dado que los primeros computadores Macintosh no tenían disco duro. Sólo el modelo Macintosh Classic de 1991, podía ser iniciado desde la memoria ROM. Esta arquitectura también permitió una interfaz de sistema operativo totalmente gráfica en el nivel más bajo, sin la necesidad de una consola de sólo texto o el modo de comandos de línea. Los errores en tiempo de arranque, como la búsqueda de unidades de disco que no funcionaban, se comunicaron al usuario de manera gráfica, generalmente con un icono o con mensajes con el tipo de letra Chicago y un Timbre de la muerte o una serie de pitidos. Esto contrastaba con los PCs de la época, que mostraban tales mensajes con un tipo de letra mono-espaciada sobre un fondo negro, y que requerían el uso del teclado y no de un ratón, para la entrada. Para proporcionar tales detalles en un nivel bajo, el Mac OS dependía de software de la base del sistema grabado en la ROM de la placa base, lo que más tarde ayudó a garantizar que sólo los computadores de Apple o los clones bajo licencia (con el contenido de la memoria ROM protegido por derechos de autor de Apple, pudieran ejecutar el Mac OS.
El Mac OS puede ser dividido en dos familias:
 La familia Mac OS Classic, basada en el código propio de Apple Computer.
 El Sistema Operativo Mac OS X, desarrollado a partir de la familia Mac OS Classic y NeXTSTEP, el cual estaba basado en UNIX.

Classic Mac OS
El "Mac OS clásico" se caracteriza por su falta total de una línea de comandos; es un Sistema Operativo completamente gráfico. Destaca por su facilidad de uso y su multitarea cooperativa, pero fue criticado por su gestión de memoria muy limitada, la falta de memoria protegida y la susceptibilidad a los conflictos entre las "extensiones" del sistema operativo que proporcionan funcionalidades adicionales (tales como la creación de redes) o el apoyo a un determinado dispositivo. Algunas extensiones pueden no funcionar correctamente en conjunto, o sólo funcionan cuando se cargan en un orden determinado. La solución de problemas de extensiones de Mac OS podría ser un largo proceso de ensayo y error.
El Macintosh original utilizaba el Macintosh File System (MFS), un sistema de archivos plano con un solo nivel de carpetas o directorios. Este sistema fue rápidamente reemplazado en 1985 por el HFS, que tenía un verdadero sistema de árbol de directorio. Ambos sistemas de archivos son compatibles.

Mac OS X
Es lo más nuevo en la línea de sistemas operativos de Apple. Aunque oficialmente es designado como "versión 10" del Mac OS, tiene una historia en gran medida independiente de las versiones anteriores de Mac OS. Es el sucesor del Mac OS 9 y el Mac OS Classic. Se trata de un Sistema Operativo Unix, basado en el sistema operativo NeXTSTEP y el Núcleo Mach que Apple adquirió tras la compra de NeXT, al regresar su director general Steve Jobs a Apple en este momento. Mac OS X también hace uso del código base de BSD. Han existido seis liberaciones significativas de la versión de cliente, siendo la más reciente la Mac OS X 10.6, conocida como Mac OS X Snow Leopard.
Así como las versiones de cliente, Mac OS X también ha tenido seis liberaciones significativas, como una versión de servidor, llamada Mac OS X Server. El primero de ellos, Mac OS X Server 1.0, fue lanzado en versión beta en 1999. Las versiones de servidor son, en arquitectura, idénticas a las versiones de cliente, con la diferencia en la inclusión de herramientas para administración de servidores, incluyendo herramientas para la gestión de sistemas basados en Mac OS X como servidores de grupos de trabajo, servidores de correo y servidores web, entre otras herramientas. Es actualmente el sistema operativo por defecto para el hardware de servidor X serve, y como característica opcional en el Mac Mini, así como instalable en la mayoría de otros Macs. A diferencia de la versión de cliente, Mac OS X Server se puede ejecutar en una máquina virtual utilizando un software de emulación como Parallels Desktop.
Mac OS X es también la base del iOS, anteriormente conocido como el Sistema Operativo del iPhone, el iPod Touch y el IPad, así como la base para el sistema operativo utilizado en el Apple TV.



Ubuntu Server

Ubuntu es una distribución GNU/Linux basada en debían que proporciona un sistema operativo actualizado y estable para el usuario medio, con un fuerte enfoque en la facilidad de uso e instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto. Estadísticas web sugieren que el porcentaje de mercado de Ubuntu dentro de las distribuciones Linux es de aproximadamente 50%, y con una tendencia a subir como servidor web.
Está patrocinado por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu, Edubuntu y la versión de Ubuntu orientada a servidores (Ubuntu Server Edition).
Su eslogan es Linux for Human Beings (Linux para seres humanos) y su nombre proviene de la ideología sudafricana Ubuntu (humanidad hacia otros).
Cada seis meses se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.

Características
En su última versión, Ubuntu soporta oficialmente dos arquitecturas de hardware en computadoras personales y servidores: x86 y AMD64 (x86-64); siendo la versión 6.10 la última que oficialmente soportó la arquitectura PowerPC, después de lo cual es solo soportada por la comunidad. Sin embargo, extraoficialmente, Ubuntu ha sido portado a tres arquitecturas más: SPARC, IA-64 y Playstation 3.
A partir de la versión 9.04 lanzada en abril de 2009 se empezó a ofrecer soporte oficial para procesadores ARM, comúnmente usados en dispositivos móviles, PDA etc.
Al igual que la mayoría de las distribuciones basadas en GNU/Linux, Ubuntu es capaz de actualizar a la vez todas las aplicaciones instaladas en la máquina a través de repositorios.
Esta distribución está siendo traducida a más de 130 idiomas, y cada usuario es capaz de colaborar voluntariamente a esta causa, a través de Internet.

Software incluido
Posee una gran colección de aplicaciones para la configuración de todo el sistema, valiéndose principalmente de interfaces gráficas. El entorno de escritorio predeterminado de Ubuntu es GNOME y se sincroniza con sus liberaciones. Existen otras dos versiones oficiales de la distribución, una con el entorno KDE, llamada Kubuntu, y otra con el entorno Xfce, llamada Xubuntu; existen otros escritorios disponibles, que pueden ser instalados en cualquier sistema Ubuntu independientemente del entorno de escritorio instalado por defecto.
 Aplicaciones de Ubuntu: Ubuntu es conocido por su facilidad de uso y las aplicaciones orientadas al usuario final. Las principales aplicaciones que trae Ubuntu son: navegador web Mozilla Firefox, cliente de mensajería instantánea Empathy, cliente de redes sociales Gwibber, cliente para enviar y recibir correo Evolution, reproductor multimedia Totem, reproductor de música Rhythmbox, editor de vídeos PiTiVi, gestor y editor de fotosShotwell, cliente y gestor de BitTorrents Transmission, grabador de discos Brasero, suite ofimática Open Office, y el instalador central para buscar e instalar aplicaciones Centro de software de Ubuntu.
 Seguridad y accesibilidad: El sistema incluye funciones avanzadas de seguridad y entre sus políticas se encuentra el no activar, de forma predeterminada, procesos latentes al momento de instalarse. Por eso mismo, no hay un cortafuegos predeterminado, ya que no existen servicios que puedan atentar a la seguridad del sistema. Para labores o tareas administrativas en la línea de comandos incluye una herramienta llamada sudo(de las siglas en inglés de SuperUser do), con la que se evita el uso del usuario administrador. Posee accesibilidad e internacionalización, de modo que el sistema esté disponible para tanta gente como sea posible. Desde la versión 5.04, se utiliza UTF-8 como codificación de caracteres predeterminado.
No sólo se relaciona con Debian por el uso del mismo formato de paquetes .deb. También tiene uniones muy fuertes con esa comunidad, contribuyendo con cualquier cambio directa e inmediatamente, y no sólo anunciándolos. Esto sucede en los tiempos de lanzamiento. Muchos de los desarrolladores de Ubuntu son también responsables de los paquetes importantes dentro de la distribución Debian.
Para centrarse en solucionar rápidamente los bugs, conflictos de paquetes, etc. se decidió eliminar ciertos paquetes del componente main, ya que no son populares o simplemente se escogieron de forma arbitraria por gusto o sus bases de apoyo al software libre. Por tales motivos inicialmente KDE no se encontraba con más soporte de lo que entregaban los mantenedores de Debian en sus repositorios, razón por la que se sumó la comunidad de KDE creando la distribución GNU/Linux Kubuntu.

Variantes
Existen diversas variantes de Ubuntu disponibles, las cuales poseen lanzamientos simultáneos con Ubuntu. Las más significativas son:
 Kubuntu, que utiliza KDE en vez de GNOME.
 Edubuntu, diseñado para entornos escolares (que a partir de la versión 8.04 es un paquete agregado dejando de existir como distribución aparte).
 Xubuntu, el cual utiliza el entorno de escritorio Xfce.
 Ubuntu Netbook Edition, creada para las máquinas netbook.
 Kubuntu Netbook Edition, igualmente creada para máquinas netbook con interfaz KDE
 Ubuntu Studio, diseñada para el trabajo con multimedia, aunque no es un proyecto reconocido oficialmente por Ubuntu. Otra variante similar es ArtistX.
 Lubuntu, es una versión no oficial de Ubuntu que utiliza por defecto el entorno de escritorio LXDE
 Tiflobuntu, es una versión de Ubuntu para personas ciegas y con visión reducida. Funciona mediante línea braille.
Edubuntu, Kubuntu y Xubuntu son proyectos oficiales de la Fundación Ubuntu.
Además, Kubuntu también se encuentra incluido dentro del programa ShipIt: a partir de la versión 8.04, Edubuntu ya no se distribuye de esta forma, en su lugar se puede descargar la imagen o comprar una copia del sistema.

martes, 22 de febrero de 2011

Unix

UNIX

Es un sistema operativo multitarea y es multiusuario que trabaja y funciona de manera similar a Linux.
Funcionamiento básico de UNIX
Dado que el sistema UNIX es un sistema operativo modular, no podemos contener en un solo documento el cómo funciona, por lo anterior, subdividimos este tema en los siguientes:
• Kernel (núcleo del sistema operativo)
• Administración de archivos y directorios
• Manejo de archivos de información
• Manejo del Procesador
• Manejo de memoria
• Manejo de entradas y salidas
• Lenguaje de control del sistema operativo
KERNEL
El núcleo del sistema operativo Unix (llamado Kernel) es un programa escrito casi en su totalidad en lenguaje C.
El Kernel opera como asignador de recursos para cualquier proceso que necesite hacer uso de las facilidades de cómputo. Es el componente central de Unix y tiene las siguientes funciones:
• Creación de procesos, asignación de tiempos de atención y sincronización.
• Asignación de la atención del procesador a los procesos que lo requieren.
• Administración de espacio en el sistema de archivos, que incluye: acceso, protección y administración de usuarios; comunicación entre usuarios v entre procesos, y manipulación de E/S y administración de periféricos.
• Supervisión de la transmisión de datos entre la memoria principal y los dispositivos periféricos.

El Kernel reside siempre en la memoria central y tiene el control sobre la computadora. El Kernel consta de dos artes principales: la sección de control de procesos y la de control de dispositivos. La primera asigna recursos, programas, procesos y atiende sus requerimientos de servicio; la segunda, supervisa la transferencia de datos entre la memoria principal y los dispositivos periféricos.
Cuando se inicia la operación de la computadora, debe cargarse en la memoria una copia del núcleo, que reside en e] disco magnético (operación denominada bootstrap). Para ello, se deben inicializar algunas interfaces básicas de hardware; entre ellas, el reloj que proporciona interrupciones periódicas. El Kernel también prepara algunas estructuras de datos que abarcan una sección de almacenamiento temporal para transferencia de información entre terminales y procesos, una sección para almacenamiento de descriptores de archivos y una variable que indica la cantidad de memoria principal. El Kernel inicializa un proceso especial, llamado proceso 0. En general, los procesos se crean mediante una llamada a una rutina del sistema (fork), que funciona por un mecanismo de duplicación de procesos. Sin embargo, esto no es suficiente para crear el primero de ellos, por lo que el Kernel asigna una estructura de datos y establece apuntadores a una sección especial de la memoria, llamada tabla de procesos, que contendrá los descriptores de cada uno de los procesos existentes en el sistema.
Después de haber creado el proceso 0, se hace una copia del mismo, con lo que se crea el proceso 1; éste muy pronto se encargará de "dar vida" al sistema completo, mediante la activación de otros procesos que también forman parte del núcleo. Es decir, se inicia una cadena de activaciones de procesos, entre los cuales destaca el conocido como despachador, o scheduler, que es el responsable de decidir cuál proceso se ejecutará y cuáles van a entrar o salir de la memoria central. A partir de ese momento se conoce el número 1 como proceso de inicialización del sistema, init.
A partir de ese momento el responsable de atender al usuario en esa terminal es el intérprete Shell. Cuando se desea terminar la sesión hay que desconectarse de Shell (y, por lo tanto, de Unix), mediante una secuencia especial de teclas (usualmente. < CTL > - D). A partir de ese momento la terminal queda disponible para atender a un nuevo usuario.
ADMINISTRACIÓN DE ARCHIVOS
El sistema de archivos de Unix; está basado en un modelo arborescente y recursivo, en el cual los nodos pueden ser tanto archivos como directorios, y estos últimos pueden contener a su vez directorios o subdirectorios. Debido a esta filosofía, se maneja al sistema con muy pocas órdenes, que permiten una gran gama de posibilidades. Todo archivo de Unix está controlado por múltiples niveles de protección, que especifican los permisos de acceso al mismo.
La raíz del sistema de archivos (conocida como root ) se denota con el símbolo "/", y de ahí se desprende un conjunto de directorios que contienen todos los archivos del sistema de cómputo. Cada directorio, a su vez, funciona como la sub raíz de un nuevo árbol que depende de él y que también puede estar formado por directorios o subdirectorios y archivos. Un archivo siempre ocupará el nivel más bajo dentro del árbol, porque de un archivo no pueden depender otros; si así fuera, sería un directorio. Es decir, los archivos son como las hojas del árbol.
Se define en forma unívoca el nombre de todo archivo (o directorio) mediante lo que se conoce como su trayectoria (path name): es decir, el conjunto completo de directorios, a partir de root (/), por los que hay que pasar para poder llegar al directorio o archivo deseado. Cada nombre se separa de los otros con el símbolo /, aunque tan sólo el primero de ellos se refiere a la raíz.
Unix incluye, además, múltiples esquemas para crear, editar y procesar documentos. Existen varios tipos de editores, formadores de textos, microprocesadores para textos, formadores de tablas, preprocesadores de expresiones matemáticas y un gran número de ayudas y utilerías diversas, que se mencionan más adelante.
A continuación se describe el modo de funcionamiento de Unix, con base en un modelo de estudio de sistemas operativos que lo divide en "capas" jerárquicas para su mejor comprensión.
MANEJO DE ARCHIVOS Y DE INFORMACIÓN
Como ya se describió, la estructura básica del sistema de archivos es jerárquica, lo que significa que los archivos están almacenados en varios niveles. Se puede tener acceso a cualquier archivo mediante su trayectoria, que especifica su posición absoluta en la jerarquía, y los usuarios pueden cambiar su directorio actual a la posición deseada. Existe también un mecanismo de protección para evitar accesos no autorizados. Los directorios contienen información para cada archivo, que consiste en su nombre y en un número que el Kernel utiliza para manejar la estructura interna del sistema de archivos, conocido como el nodo-i. Hay un nodo-i para cada archivo, que contiene información de su directorio en el disco, su longitud, los modos y las fechas de acceso, el autor, etc. Existe, además, una tabla de descriptores de archivo, que es una estructura de datos residente en el disco magnético, a la que se tiene acceso mediante el sistema mencionado de E/S por bloques.
Las operaciones de E/S en archivos se llevan a cabo con la ayuda de la correspondiente entrada del nodo-i en la tabla de archivos del sistema. El usuario normalmente desconoce los nodos-i porque las referencias se hacen por el nombre simbólico de la trayectoria. Los procesos emplean internamente funciones primitivas (llamadas al sistema) para tener acceso a los archivos; las más comunes son open, creat, read, write, seek, close y unlink, aunque sólo son empleadas por los programadores, no por los usuarios finales del sistema.
Las ventajas de tratar a los dispositivos de E/S en forma similar a los archivos normales son múltiples: un archivo y un dispositivo de E/S se tornan muy parecidos; los nombres de los archivos y de los dispositivos tienen la misma sintaxis y significado, así que a un programa que espera un nombre de archivo como parámetro puede dársele un nombre de dispositivo (con esto se logra interacción rápida y fácil entre procesos de alto nivel).
* Otra característica de Unix es que no requiere que el conjunto de sistemas de archivos resida en un mismo dispositivo.
EI control de las impresoras de una computadora que funciona con el sistema operativo Unix consiste en un subsistema (SPOOL) que se encarga de coordinar los pedidos de impresión de múltiples usuarios. Existe un proceso de Kernel que en forma periódica revise las colas de servicio de las impresoras para detectar la existencia de pedidos e iniciar entonces las tareas de impresión. Este tipo de procesos, que son activados en forma periódica por el núcleo del sistema operativo, reciben en Unix el nombre de daemons (duendes), tal vez porque se despiertan y aparecen sin previo aviso. Otros se encargan de activar procesos en tiempos previamente determinados por el usuario, o de escribir periódicamente los contenidos de los buffers de memoria en el disco magnético.
MANEJO DE MEMORIA
Dependiendo de la computadora en la que se ejecute, Unix utiliza dos técnicas de manejo de memoria: swapping y memoria virtual.
Lo estándar en Unix es un sistema de intercambio de segmentos de un proceso entre memoria principal y memoria secundaria, llamado swapping lo que significa que se debe mover la imagen de un proceso al disco si éste excede la capacidad de la memoria principal, y copiar el proceso completo a memoria secundaria. Es decir, durante su ejecución, los procesos son cambiados de y hacia memoria secundaria conforme se requiera.
Está claro que el proceso que se encarga de los intercambios entre memoria y disco (llamado swapper) debe ser especial y jamás podrá perder su posición privilegiada en la memoria central. El Kernel se encarga de que nadie intente siquiera interrumpir este proceso, del cual dependen todos los demás. Este es el proceso 0 mencionado antes. Cuando se decide traer a la memoria principal un proceso en estado de "listo para ejecutar", se le asigna memoria y se copian allí sus segmentos. Entonces, el proceso cargado compite por el procesador con todos los demás procesos cargados. Si no hay suficiente memoria, el proceso de intercambio examine la tabla de procesos para determinar cuál puede ser interrumpido y llevado al disco.
Hay una pregunta que surge entonces es ¿cuál de los posibles procesos que están cargados será desactivado y cambiado a memoria secundaria? Los procesos que se eligen primero son aquellos que están esperando operaciones lentas (E/S), o que llevan cierto tiempo sin haberse movido al disco. La idea es tratar de repartir en forma equitativa las oportunidades de ejecución entre todos los procesos, tomando en cuenta sus historias recientes y sus patrones de ejecución.
Un sistema de paginación por demanda ofrece muchas ventajas en cuanto a flexibilidad y agilidad en la atención concurrente de múltiples procesos y proporciona, además, memoria virtual, es decir, la capacidad de trabajar con procesos mayores que el de la memoria central. Estos esquemas son bastante complejos y requieren del apoyo de hardware especializado.
MANEJO DE ENTRADAS Y SALIDAS
El sistema de entrada/salida se divide en dos sistemas complementarios: el estructurado por bloques y el estructurado por caracteres. El primero se usa para manejar cintas y discos magnéticos, y emplea bloques de tamaño fijo (512 o 1024 bytes) para leer o escribir. El segundo se utiliza para atender a las terminales, líneas de comunicación e impresoras, y funciona byte por byte.
En general, el sistema Unix emplea programas especiales (escritos en C) conocidos como manejadores (drivers) para atender a cada familia de dispositivos de E/S. Los procesos se comunican con los dispositivos mediante llamadas a su manejador. Además, desde el punto de vista de los procesos, los manejadores aparecen como si fueran archivos en los que se lee o escribe; con esto se logra gran homogeneidad y elegancia en el diseño.
Cada dispositivo se estructura internamente mediante descriptores llamados número mayor, número menor y clase (de bloque o de caracteres). Para cada clase hay un conjunto de entradas, en una tabla, que aporta a los manejadores de los dispositivos. El número mayor se usa para asignar manejador, correspondiente a una familia de dispositivos; la menor pasa al manejador como un argumento, y éste lo emplea para tener acceso a uno de varios dispositivos físicos semejantes.
Las rutinas que el sistema emplea para ejecutar operaciones de E/S están diseñadas para eliminar las diferencias entre los dispositivos y los tipos de acceso. No existe distinción entre acceso aleatorio y secuencial, ni hay un tamaño de registro lógico impuesto por el sistema. El tamaño de un archivo ordinario está determinado por el número de bytes escritos en él; no es necesario predeterminar el tamaño de un archivo.
El sistema mantiene una lista de áreas de almacenamiento temporal (buffers), asignadas a los dispositivos de bloques. El Kernel usa estos buffers con el objeto de reducir el tráfico de E/S. Cuando un programa solicita una transferencia, se busca primero en los buffers internos para ver si el bloque que se requiere ya se encuentra en la memoria principal (como resultado de una operación de lectura anterior). Si es así, entonces no será necesario realizar la operación física de entrada o salida.
Existe todo un mecanismo de manipulación interna de buffers (y otro de manejo de listas de bytes), necesario para controlar el flujo de datos entre los dispositivos de bloques (y de caracteres) y los programas que los requieren.
Por último, y debido a que los manejadores de los dispositivos son programas escritos en lenguaje C, es relativamente fácil reconfigurar el sistema para ampliar o eliminar dispositivos de E/S en la computadora, así como para incluir tipos nuevos.
LENGUAJE DE CONTROL DEL SISTEMA OPERATIVO
Entre los rasgos distintivos de Unix está el lenguaje de control que emplea, llamado Shell. Es importante analizar dos funciones más de Shell, llamadas redireccionamiento e Interconexión.
Asociado con cada proceso hay un conjunto de descriptores de archivo numerados 0, I y 2, que se utilizan para todas las transacciones entre los procesos y el sistema operativo. El descriptor de archivo 0 se conoce como la entrada estándar; el descriptor de archivo 1, como la salida estándar, y el descriptor 2, como el error estándar. En general, todos están asociados con la terminal de vídeo, pero, debido a que inicialmente son establecidos por Shell, es posible reasignarlos.
Una parte de la orden que comience con el símbolo? se considera como el nombre del archivo que será abierto por Shell y que se asociará con la entrada estándar; en su ausencia, la entrada estándar se asigna a la terminal. En forma similar, un archivo cuyo nombre está precedido por el símbolo > recibe la salida estándar de las operaciones.
CARACTERISTICAS DE UNIX
Características Generales:
• Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina.
• Posee las siguientes características:
- Es un sistema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel: C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
• El sistema se basa en un Núcleo llamado Kernel, que reside permanentemente en la memoria, y que atiende a todas las llamadas del sistema, administra el acceso a los archivos y el inicio o la suspensión de las tareas de los usuarios.
• La comunicación con el sistema UNIX se da mediante un programa de control llamado SHELL. Este es un lenguaje de control, un intérprete, y un lenguaje de programación, cuyas características lo hacen sumamente flexible para las tareas de un centro de cómputo. Como lenguaje de programación abarca los siguientes aspectos:
- Ofrece las estructuras de control normales: secuenciación, iteración condicional, selección y otras.
- Paso de parámetros.
- Sustitución textual de variables y Cadenas.
- Comunicación bidireccional entre órdenes de shell.
• El shell permite modificar en forma dinámica las características con que se ejecutan los programas en UNIX:
• Las entradas y salidas pueden ser redireccionadas o redirigidas hacia archivos, procesos y dispositivos;
• Es posible interconectar procesos entre sí.
• Diferentes usuarios pueden "ver" versiones distintas del sistema operativo debido a la capacidad del shell para configurar diversos ambientes de ejecución. Por ejemplo, se puede hacer que un usuario entre directamente a su sección, ejecute un programa en particular y salga automáticamente del sistema al terminar de usarlo.

REQUERIMIENTOS DE UNIX
REQUERIMIENTOS TECNOLÓGICOS (HW)
Antes de que se precipite e instale el software, tiene que asegurarse de los requerimientos y limitaciones de hardware.
Tenga en cuenta que fue desarrollado por sus usuarios. Esto significa, en la mayoría de las ocasiones, que el hardware soportado por él es únicamente aquél al que usuarios y desarrolladores tienen realmente acceso. Según van apareciendo, se van soportando la mayor parte del hardware y los periféricos populares para sistemas 80386/80486 (de hecho, soporta más hardware que algunas implementaciones comerciales de UNIX). Sin embargo, aún no son reconocidos algunos de los periféricos más oscuros.
Otro inconveniente en el soporte de hardware es que muchas compañías han decidido conservar las especificaciones del interfaz de su hardware en propiedad. Como consecuencia de esto, los desarrolladores voluntarios simplemente no pueden escribir controladores (drivers) para esos periféricos (y si pudieran, tales controladores serían propiedad de la compañía dueña del interfaz, lo cual violaría la GPL). Las compañías que mantienen interfaces en propiedad, escriben sus propios controladores para sistemas operativos como MS-DOS y Microsoft Windows; el usuario final (es decir, usted) no necesita saber nada del interfaz.
En algunos casos, los programadores han intentado escribir controladores "clonados" basándose en supuestos acerca del interfaz. En otras ocasiones, los desarrolladores trabajarán con la compañía en cuestión e intentarán obtener información del interfaz del periférico con un nivel de éxito que puede variar.
En las siguientes secciones, trataremos de resumir los requerimientos hardware.
Aclaración: Gran parte del soporte para hardware para está actualmente en fase de desarrollo. Algunas distribuciones puede que soporten, o no, estas características experimentales. Esta sección presenta en primer lugar el hardware que ya lleva cierto tiempo soportado y del que se sabe de su estabilidad.
En las subsunciones siguientes se tratara cada punto del hardware correspondiente para dicho soporte, enumerando cada componente del ordenador:
• Requisitos de Placa Base y de CPU
• Requisitos de memoria
• Requisitos de la controladora de disco duro
• Requisitos de espacio en disco
• Requisitos de monitor y adaptador de vídeo
• Hardware diverso
• Ratones y otros dispositivos apuntadores
• Unidades de CD-ROM
• Unidades de cinta
• Impresoras
• Módems
• Tarjetas Ethernet

VENTAJAS Y DESVENTAJAS DE UNIX


El sistema operativo UNIX es un sistema poderoso y confiable, puede trabajar en diferentes plataformas, maneja la protección a nivel archivo y directorio sin la necesidad e estar tecleando contraseñas, se puede restringir el acceso a ciertos niveles dentro del árbol jerárquico de directorios.

El manejo y la manipulación de procesos es mucho más amplio a comparación de otros sistemas operativos.

Muchos usuarios pueden ingresar al sistema y ser atendidos por diferentes procesos además de tener ciertos permisos diferentes a otros usuario conectados, esto hace que el control de procesos y de información este más controlada.

El problema con el sistema UNIX, es su complejidad en un inicio, ya que no es muy amigable y da por hecho de que el usuario ya conoce lo que es un sistema operativo.

Si la mayoría de los usuarios de computadora empezaran a utilizar el sistema operativo UNIX, pensarían que el manejo de las computadoras es muy complicado y las tomarían como un castigo y no como una herramienta.

Para que UNIX sea un poco mas amigable existen visualizadores gráficos que hacen que el manejo de ciertas tareas administrativas sea muy parecido a Windows.

Otra ventaja es la de NO TENER VIRUS. Esto se debe a su diseño.

Un virus para actuar requiere 2 requisitos:

• Poder ejecutarse.

• Poder escribir en otros archivos.

Estos 2 requisitos se cumplen por default en Windows.

En UNIX el primero se evita por hecho de que un programa solo se puede ejecutar si tiene activado el permiso de ejecución. Este permiso NO se enciende solo, hay que encenderlo explícitamente por parte del usuario.

El segundo se evita por el permiso de escritura. Un virus de actuar solo podría a lo más dañar los archivos del usuario dueño de la cuenta donde se ejecutase el virus. No podría alojarse en cualquier parte del disco.
VENTAJAS
• PRECIO: Podemos descargarlo gratuitamente desde internet o comprarlo a un precio accesible
• REQUERIMIENTOS: Funciona exclusivamente en modo de texto sin la necesidad de cargar un entorno grafica y puede ejecutarse en cualquier maquina.
• ESTABILIDAD: A tener su núcleo basado en Unix, enreda esa estabilidad que siempre ha caracterizado a los sistemas Unix.
• SEGURIDAD: A nivel de servidor podemos encontrar que la seguridad del Unix frente a otros servidores del mercado es mucho mayor.
• COMPATIBILIDAD: Reconoce la mayoría de otros sistemas operativos en una red.
• MULTITAREA REAL: Ejecuta varias aplicaciones y procesos simultáneamente.
• VELOSIDAD: Su entorno grafico para ejecutar servicios o aplicaciones hacen que su velocidad sea muy superior a los actuales sistemas operativos.
• CODIGO FUENTE: Es posible modificarlo y adaptarlos a nuestras necesidades libremente.
• ENTORNO DE PROGRAMACION: Se puede programar para otro sistema operativo.
• CRECIMIENTO: Gracias a la licencia GNU, el código abierto, y la gran comunidad de miles de programadores es los más rápidos que existen en la actualidad.
DESVENTAJAS
• SOPORTE: Algunos Linux no cuentan con empresas que lo respalden, por lo cual no existe un soporte sólido como el de otros sistemas operativos.
• SIMPLICIDAD: Gracias al entorno de ventanas, sus escritorios y las aplicaciones diseñadas específicamente, para el cada día resulta más sencillo su integración y uso.
• SOFWARE: A veces es difícil encontrar una aplicación determinada, y lo más importante, es que no todas las aplicaciones esta en castellano.
• HARDWARE: Actualmente Linux soporta un máximo de 16 procesadores simultáneamente contra los 64 procesadores de otros sistemas operativos.

lunes, 21 de febrero de 2011

Novell - Windows NT

Novell
Novell Netware es un Sistema operativo de red. Es una de las plataformas de servicio más fiable para ofrecer acceso seguro y continuado a la red y los recursos de información, sobre todo en cuanto a servidores de archivos. Aunque el producto Windows de Microsoft nunca soportó una comparación con Netware, el retiro en 1995 de Ray Noorda junto al escaso marketing de Novell hizo que el producto perdiera mercado, aunque no vigencia por lo que se ha anunciado soporte sobre este sistema operativo hasta el año 2015, por lo menos.
Versiones
 2.1x requería procesador 80286. Podía necesitar más de 24 horas para formatear 1 disco de 80 MB.
 386 Apareció para sacar el máximo rendimiento a los procesadores 80386 de 32 bits. Pronto dio paso a las siguientes versiones.
 4.xx,(1993) la primera versión donde aparece el sistema el servicio de directorio [NDS] (inicialmente Netware Directory Services, más tarde Novell Directory Services y actualmente eDirectory). Versión 4.1.1 en 1996. Una edición del 4.1.1 con soporte TCP/IP y servidor Web fue comercializada con el nombre IntranetWare
 5 (1998) cambio de IPX/SPX a TCP/IP (aunque sigue soportado IPX),Máquina virtual Java, nuevo sistema de ficheros (NSS) y swap de memoria sobre disco duro, soporte de SAN; y Cluster Service. Versión 5.1 el año 2000
 6 (2001), incluye Servicios basados en Internet, tales como iPrint, iFolder, eGuide, Virtual Office, etc.
 6.5 (2003) integra aplicaciones procedentes del mundo opensource como PHP, MySQL, OpenSSH, shell Bash ... También incluye servidor de aplicaciones compatible Java J2EE 1.3, soporteiSCSI...
 En 2005 fue lanzado Novell Open Enterprise Server (OES 1) como sucesor de Netware.Es un conjunto de servicios disponibles tanto sobre núcleo Netware (llamado OES-Netware con núcleo Netware 6.5 SP3) como núcleo Linux (OES-Linux sobre SLES, SuSE Linux Enterprise Server 9 SP1)
 OES 2 fue lanzado en 2007 incluye Netware 6.5 SP7 y SLES 10

Requerimientos
• PC basada en una 386 o superior.
• 4Mb de RAM.
• 50Mb de espacio en Disco Duro.
NetWare, Versión 4.0.
NetWare 4.0 ofrece la conexión simplificada de múltiples servidores, la capacidad de compartir recursos en la red y la administración centralizada en un mismo producto. La arquitectura de NetWare 4.0, es similar a la de la versión 3.11, como se mostró en la Figura 1.5, pero se han corregido y aumentado sus capacidades.
NetWare 4.0 no es para todo el mundo. Determinar si en realidad se necesita un NOS tan potente depende del tamaño, la configuración y la complejidad de la LAN que se quiera formar. Algunas de las características nuevas más atractivas son el NetWare Directory Services (NDS), la compresión de archivos, la sub asignación de bloques, la distribución de archivos y la administración basada en Microsoft Windows.

Windows NT
Windows NT es una familia de sistemas operativos producidos por Microsoft, de la cual la primera versión fue publicada en julio de 1993.
Previamente a la aparición del famoso Windows 95 la empresa Microsoft concibió una nueva línea de sistemas operativos orientados a estaciones de trabajo y servidores de red. Un sistema operativo con interfaz gráfica propia, estable y con características similares a los sistemas de red UNIX. Las letras NT provienen de la designación del producto como "Nueva Tecnología" (New Technology).
Las versiones publicadas de este sistema son: 3.1, 3.5, 3.51 y 4.0. Además, Windows NT se distribuía en dos versiones, dependiendo de la utilidad que se le fuera a dar: Workstation para ser utilizado como estación de trabajo y Server para ser utilizado como servidor.

Arquitectura
La familia de los sistemas operativos Windows NT de Microsoft está constituida por versiones como Windows 7, Vista, XP, Windows Server 2003,Windows 2000 y Windows NT. Todos tienen multitarea apropiada y son sistemas operativos que han sido diseñados para trabajar tanto con computadoras con un solo procesador como con múltiples procesadores que en inglés es el Symmetrical Multi Processor o SMP.
Para procesar las peticiones de entrada/salida (en inglés Input/Output, I/O) acude a una dirección de paquetes de E/S que utiliza peticiones (IRPs) y E/S asíncrona. A partir de Windows 2000 Advanced Server, Microsoft comenzó a desarrollar sistemas operativos que soportaban 64-bits. Antes sus sistemas operativos estaban basados en un modelo de 32-bits.
La arquitectura de Windows NT es altamente modular y se basa en dos capas principales:
 Modo usuario: Cuyos programas y subsistemas están limitados a los recursos del sistema a los que tienen acceso.
 Modo núcleo: Tiene acceso total a la memoria del sistema y los dispositivos externos. Los núcleos de los sistemas operativos de esta línea son todos conocidos como núcleos híbridos, aunque hay que aclarar que este término está en discusión ya que este núcleo es esencialmente un núcleo monolítico que está estructurado al estilo de un micro núcleo. La arquitectura dentro del modo núcleo1 se compone de lo siguiente:
1. Un núcleo híbrido.
2. Una capa de abstracción de hardware (en inglés Hardware Abstraction Layer o HAL).
3. Controladores o también llamados drivers.
4. Executive: Sobre el cual son implementados todos los servicios de alto nivel.
5. Librerías dinámicas para su correcto funcionamiento, como ntoskrnl.exe
El modo núcleo de la línea de Windows NT está compuesto por subsistemas capaces de pasar peticiones de E/S a los controladores apropiados usando el gestor de E/S. Dos subsistemas crean la capa del modo usuario de Windows 2000: el subsistema de Entorno (ejecuta aplicaciones escritas para distintos tipos de sistemas operativos), y el subsistema Integral (maneja funciones específicas de sistema de parte del subsistema de Entorno). El modo núcleo en Windows 2000 tiene acceso total al hardware y a los recursos del sistema de la computadora. El modo núcleo impide a los servicios del modo usuario y las aplicaciones acceder a áreas críticas del sistema operativo a las que no deberían tener acceso.
El Executive se relaciona con todos los subsistemas del modo usuario. Se ocupa de la entrada/salida, la gestión de objetos, la seguridad y la gestión de procesos. El núcleo se sitúa entre la capa de abstracción de hardware y el Executive para proporcionar sincronización multiprocesador, hilos y programación y envío de interrupciones, y envío de excepciones.
El núcleo también es responsable de la inicialización de los controladores de dispositivos al arrancar. Hay tres niveles de controladores en el modo núcleo: controladores de alto nivel, controladores intermedios y controladores de bajo nivel. El modelo de controladores de Windows (en inglés Windows Driver Model, WDM) se encuentra en la capa intermedia y fue diseñado principalmente para mantener la compatibilidad en binario y en código fuente entre Windows 98 y Windows 2000. Los controladores de más bajo nivel también son un legado de los controladores de dispositivos de Windows NT que controlan directamente un dispositivo o puede ser un bus hardware PnP.

martes, 5 de octubre de 2010

Mantenimiento del CPU.

La tierra y el polvillo inevitables siempre están impregnando nuestro ordenador y penetrando en lugares que provocan más daño que acumulación de peso. El disipador y el cooler del microprocesador son los elementos claves a mantener siempre limpios para evitar cuelgues inesperados y roturas más inesperadas aún. Por eso, hete aquí una guía de limpieza zen para mantener el ordenador siempre limpio.


¿Cuántas veces hemos escuchado por allí que la gente tiene problemas con su ordenador y que el mismo hace cosas extrañas y se bloquea reiteradamente sin razón aparente? Otras tantas veces, creemos que el sistema operativo se ha dañado y formateamos el disco duro una y otra vez sin resolver su problema. Muy pocos logran creer y aceptar que su ordenador tiene barro y polvo en cantidades suficientes como para armar un ladrillo y que, saber quitarlo, manteniéndolo limpio, será la solución a muchos inconvenientes hasta hoy incomprensibles, y que aparecen en el momento menos esperado.

Te presentamos en la siguiente imagen una vista panorámica de lo que podría ser un terrario y, sin embargo, es un mínimo sector del motherboard clásico de cualquier ordenador. En la imagen se nota claramente el microprocesador en la zona central. A la izquierda hay un componente importante, por sus dimensiones y cantidad de pines, que se encuentra sumergido en gran parte bajo tierra. A la derecha tierra, abajo tierra, tierra y más tierra.
Esa imagen es luego de haber retirado el disipador de calor de aluminio que posee el corazón del ordenador. Junto a él, se encuentra siempre adosado un ventilador – soplador – refrigerador que, en el argot de éstas máquinas, se conoce cómo COOLER. Este soplador, por compartir el conjunto compuesto por Microprocesador- Disipador – Cooler, no está exento de llenarse también de tierra.
Lo que termina sucediendo siempre es que el disipador se obstruye con polvo y mugre dificultado la tarea de enfriado y/o refrigeración que debe brindarle el mencionado soplador. Mientras que, a su vez, éste último también se impregna con suciedad frenándose (girando más lento) y, en el peor de los casos, deteniéndose por completo.

El resultado es sencillo de analizar. La temperatura de funcionamiento del microprocesador se eleva a valores anormales a la vez que la máquina comienza con comportamientos erráticos y extraños, mientras nosotros pasamos de creer que se trata de un virus o fallas en el sistema operativo, por lo que terminamos formateando el disco duro y reinstalando todo nuestro arsenal de programas nuevamente. Eso, o lo que es peor aún, mucha gente termina con su ordenador en el servicio técnico, donde deben descargar una buena cantidad de euros para solucionar un problema que podemos anticipar nosotros mismos, con lo que se llama Mantenimiento Preventivo.

Comenzando el desarme total
Antes de comenzar, debes saber que la tarea que vamos a emprender es para hacerla con un tiempo mínimo de una a dos horas y que debes estar consciente de no ir más allá de lo que aquí se indique para prevenir roturas indeseadas o fallos peores de los que ya existen.

Todo listo para comenzar


Primero nos haremos con las herramientas a usar: una aspiradora, un par de atornilladores, grasa fina para mecanismos electrónicos, líquidos limpiadores, un marcador indeleble y una de las cosas más importantes: Grasa Siliconada Disipadora de Calor. Sin ella, no intentes siquiera iniciar el trabajo. Los otros componentes de relevancia son el tiempo, la confianza en ti mismo, la prolijidad y el orden, por sobre todas las cosas. Una vez que tengamos presto ése combo de herramientas estaremos listos para comenzar.

Primero debes desconectar todos los cables que llegan al panel trasero del ordenador y, si es necesario, colocarle etiquetas o cintas adhesivas en los mismos y en los lugares de destino. Esto es para no olvidar de dónde has extraído alguna de las fichas al finalizar el trabajo y debas reconectar todo nuevamente. De todas formas, la mayoría ya están identificadas por colores y formas distintas, pero si te sientes más seguro marcando todo o haciendo un “mini – esquema” de conexiones, pues hazlo.

Destapando el gabinete


La limpieza ha comenzado
Puedes comenzar limpiando exteriormente la unidad con géneros limpios y la aspiradora si es necesario. No utilices solventes ni lavandinas, sino los clásicos líquidos desengrasantes que se suelen conocer como “limpiavidrios”. Con esto se evitarán manchas indeseadas e irrecuperables en el gabinete. Éste consejo se debe aplicar cada vez que se desee limpiar de grasa un artículo electrónico en sus partes plásticas o en frentes de gabinetes que continuamente están tocándose. Ganarás no sólo en estética, sino también en higiene.

Ahora gira el gabinete y, luego de ubicar los tornillos de la/s tapa/s del mismo, retíralos para comenzar a trabajar en el interior. La posición y cantidad de los mismos varía de un modelo a otro de gabinete. El mostrado en las imágenes es uno entre tantos, pero seguramente con calma y detenimiento te darás cuenta cuáles son los que se deben quitar para proceder a abrir la unidad. Quita las tapas a ambos lados y tómate tu tiempo para observar lo que allí adentro encontrarás (además de mucha tierra y suciedad, claro). Identificarás rápidamente muchos cables de predominancia de color rojo, amarillo y negro, más otros colores los cuales salen todos desde una caja metálica individual que es la fuente de alimentación del ordenador y se dispersan hacia todos los elementos que componen el mismo.



No te desesperes ni asustes. Todos van a un determinado destino y utilizan para ello conectores muy específicos y distintos entre sí. Aquí vuelve la recomendación anterior. Observar, evaluar, armar tus propias ayudas de memoria, escribir con un marcador indeleble sobre los conectores o cables y hasta sobre las unidades de donde quitas los mismos. El siguiente paso será retirar todo el hardware de dentro del gabinete. Sí, todo. A esta altura ya habrás identificado a la unidad Floppy (si todavía tienes una), a la Lecto-Grabadora de DVD o CD, los discos duros y a cualquier otra unidad que se halle montada mecánicamente en el gabinete.



Puedes marcar también de dónde quitas los tornillos. Hazlo y nos lo agradecerás. Si tu máquina posee extractores adicionales en el resto de su integridad, quítalos también. No dejes de hacerlo ya que el trabajo sobre estos dispositivos es el alma y espíritu del trabajo que estás realizando. Una buena idea es conseguir pequeños frascos para allí ir colocando los tornillos que vayas sacando y dividiéndolos por su forma, ubicación o espacio temporal dentro del trabajo.




No te alarmes a medida que vayas desarmando y viendo los estragos que es capaz de provocar el imperceptible polvo que convive en nuestro ámbito, que respiramos continuamente y que, de manera invisible y silenciosa, ataca todo a su paso. Que sirva para que tomes conciencia.

El propósito de éste artículo es ése. Que tomes conciencia de lo que periódicamente debes hacer para mantener bien cuidado tu ordenador así como seguramente lavarás tus ropas o tu coche habitualmente.

Para desconectar el motherboard (la placa madre) de la fuente de alimentación, encontrarás un gran conector con muchos colores, que posee una traba plástica que deberás apretar para retirarlo de su encastre con facilidad. Si no lo haces y tiras simplemente de él, puedes romper la placa. Ten cuidado y guíate por las imágenes que te adjuntamos. Los modelos actuales de placas pueden traer dos conectores, los cuales poseen el mismo principio de trabas. El segundo es más pequeño y con cables amarillos y negros. Otros conectores que vienen hacia la paca principal suelen ya estar indicados con serigrafía, de modo tal que nos hará mucho más sencillo el trabajo. La correspondencia con la indicación en los mismos se verá reflejada en las inscripciones que se ven en la placa principal.


Detengámonos aquí. Trata de no retirar, ni desconectar los cables planos o anchos que encontrarás y que conectan el motherboard a los discos duros. Puedes hacerles inscripciones de identificación en el destino según tu entendimiento, pero trata de no quitarlos del motherboard. El motivo por el que decimos esto es porque el sistema ya tiene guardado, en su protocolo de funcionamiento o arranque, una información básica denominada Setup que reconoce y recuerda en cada puesta en marcha dicho orden de conexiones. Si los mismos se alteran, al momento de reiniciar la actividad el equipo puede directamente no arrancar.

Dicho de nuevo: No quites los cables planos del motherboard y, si lo haces, asegúrate de marcar bien de dónde lo haces como así también el destino y origen de dichas conexiones. No te asustes que no romperás nada. Simplemente la máquina tal vez no arranque de forma correcta y normal hasta que encuentres el motivo de la falla (que puede llevarte horas).

Luego quitamos los tornillos que soportan la fuente de alimentación y la retiramos cuidadosamente. Hacemos lo mismo con el motherboard y también lo retiramos. Luego de esto habremos terminado y vaciado por completo nuestro gabinete, que lucirá con un aspecto similar al siguiente.

Limpia de manera meticulosa con un pincel y la aspiradora todo el polvillo que puedas llegar a encontrar depositado en el gabinete, hasta en sus escondrijos más recónditos. Realiza un trabajo prolijo y a conciencia, es tu ordenador y cuanto más limpio y cuidado esté todo, mayor seguridad de funcionamiento tendrá en el tiempo.



Derribando Mitos – Extracción de la Memoria RAM
Existe mucha mitología acerca de la relación entre la electricidad estática del cuerpo humano y los delicados componentes electrónicos de un ordenador. Derriba ése mito. Toca una ventana metálica, una puerta de similares características, o directamente toca el piso con tus manos (excepto que sea de madera) y ya será suficiente. Habrás descargado a tierra toda la energía estática acumulada en tu cuerpo, si es que la tuvieras, ya que la misma depende de la combinación de muchos factores que no suelen darse a menudo.

Es deber del fabricante advertir al usuario de la posibilidad de la estática, pero no significa ello que siempre serás un generador eléctrico móvil que destruirá toda la electrónica a tu paso. No magnifiques el asunto, toca cada cierto intervalo regular de tiempo alguna estructura metálica adosada al mobiliario mientras estés realizando el trabajo y ya está, no te preocupes por el resto.


Vuelca las trabas plásticas para quitar la RAM

Coloca la placa principal sobre la superficie donde trabajarás y procede a retirar el/los bancos de memoria RAM del mismo. Para éste propósito sólo debes retirar hacia fuera las trabas plásticas que los sostienen y el mismo sistema mecánico las empujará hacia arriba para que puedas retirarlas con total comodidad. Observa la indicación en la imagen.

No te preocupes por la posición u orientación con que los extraes. Tanto el banco de memoria cómo su correspondiente zócalo, poseen guías que impedirán colocarlas de otra forma que no sea la correcta. Luego de quitar la RAM, limpia los contactos dorados que se insertan en el zócalo de la placa principal con una simple goma de borrar.



Nunca utilices abrasivos, lijas, ni ningún material que no sea goma de borrar para limpiar contactos eléctricos. Mucho menos aún los que poseen un baño de oro cómo tienen los bancos de memorias entre otras cosas. Recuerda siempre eso. Nunca limpies un contacto o terminal eléctrico con otra cosa que no sea goma de borrar.
No debes limar, no debes lijar, ni utilizar ningún líquido abrasivo, sólo goma de borrar. Son muy pocos los micrones de espesor que posee la capa del contacto cómo para eliminarla con una lima o lija. Esa delgada capa está para preservar el contacto de la oxidación y para garantizar el buen contacto eléctrico. No debes cometer la torpeza de quitarla. Si conoces a alguien que utiliza otros métodos, enséñale el secreto de la goma de borrar.

Quitando la tierra y el barro
Ahora procederemos a quitar el disipador del microprocesador y su correspondiente cooler. No existe una universalidad de formatos y modelos, por lo que puede darse el caso que el tuyo sea muy distinto al del ejemplo, pero con las imágenes esperamos ayudarte a comprender en qué consiste el trabajo a realizar.

Al igual que antes, tómate tu tiempo para observar detenidamente la mecánica que envuelve al anclaje. Siempre serán trabas plásticas a presión, giratorias, volcables, por extracción o presión y/o cualquier otro método que podrás ejecutar con sólo analizar criteriosamente el montaje mecánico en el que trabajarás. En nuestro caso, son trabas plásticas giratorias que traen en relieve el sentido de giro que debemos proporcionar para removerlas.


Analiza el montaje para una extracción correcta.


Una vez destrabado el sistema quitaremos el conjunto “disipador – cooler” para encontrarnos con la dantesca escena de la tierra y el barro producto de la grasa siliconada disipadora de calor que se coloca como nexo térmico. Esta grasa se introduce para lograr la máxima transferencia de calor desde el microprocesador hacia el disipador y desde allí, ayudado por el cooler, hacia el exterior. Lo descripto es lo que se ve en la primera imagen del artículo.

Separa el cooler del disipador y limpia éste último lo más que te sea posible.
Recuerda: no uses lijas, ni limas. Por tratarse de metal (aluminio, a veces cobre o la conjunción de ambos) puedes utilizar algún tipo de solvente para mejorar el trabajo. Sino, con un buen pincel y la aspiradora, quita todo el polvo y con un género higiénico limpia y quita la grasa siliconada que el mismo pudiera tener en todas sus aletas de refrigeración. Este será un trabajo que requerirá paciencia y esmero para lograr un buen resultado y una limpieza efectiva.


Separa el cooler del disipador con cuidado.


Habrás notado, hasta aquí, que en ningún momento se menciona la posibilidad de quitar el microprocesador de su zócalo. No lo haremos en absoluto ya que allí donde él se encuentra alojado, posee sus conexiones correctamente funcionales y el mismo está asegurado físicamente en su zócalo con fuertes ganchos de soporte.


La parte superior del microprocesador debe quedar limpia.

Quita la grasa y el barro con un género limpio sin hacer demasiada presión sobre el microprocesador, sólo la necesaria y, ahora sí, aspira todo el polvo de la placa con la ayuda de un suave pincel.

Puedes tomarte el tiempo necesario para éste trabajo, observando cada cosa, cada componente, haciéndolo con agrado y con la satisfacción de hacerlo tú mismo. Descubre circuitos integrados, bobinas, resistencias, capacitores, aprovecha a fotografiar tu trabajo si puedes disfrutando el momento y ponle todo el respeto y esmero que el mismo amerita. Absorbe todos los aprendizajes que puedas de él, no lo tomes cómo una obligación desde el inicio porque estarás más propenso a fallar que a tener éxito en la tarea que estás realizando.

Al rescate del Cooler
Una vez que la placa principal está tan limpia como cuando era nueva, nos dedicaremos a los elementos vitales para el funcionamiento de los actuales sistemas a las temperaturas adecuadas. Los coolers, sopladores o ventiladores, cómo ya hemos expresado antes. Algunos nos brindan la posibilidad de ser desarmados para su limpieza y mantenimiento mientras que otros no. Debemos estar muy atentos a esta posibilidad para así lograr un trabajo óptimo.


De todas formas, antes que nada, los limpiaremos con el pincel y la aspiradora lo mejor que se pueda, ya que contendrán adosada a su superficie un tizne y un polvillo muy espeso que todo lo ensucia y entorpece su manipulación para una inspección ocular correcta. Cuando ya estén limpios externamente, levanta con cuidado (porque deberás reutilizarla) la etiqueta autoadhesiva que trae la marca y otros datos. Si el soplador se puede desarmar descubrirás una arandela plástica removible que sirve para mantener al eje en su posición. Ayudándote con pequeños destornilladores y/o alfileres, retírala con especial cuidado de que la misma no salte y se extravíe. Pon especial atención a éste procedimiento. Estando dicha arandela de sujeción a resguardo, separa el cuerpo móvil del fijo, tal como muestra la imagen.

La tierra además de impregnarse en todo el interior del motor, se mezcla con la grasa que el fabricante coloca dentro del mismo para lubricar el giro, formando un barro pegajoso que, además de ser abrasivo, provoca el endurecimiento del eje del motor terminando en un freno del mismo y a veces con una detención total. Y como dijimos al comienzo, ésta es la madre de todos los extraños problemas de funcionamiento del ordenador.


Limpia bien el eje y lubrícalo.


Aspira nuevamente ambas secciones y limpia internamente con un género la parte móvil también en su interior. Lo negro que descubres bajo la tierra y pegado a la pared en la periferia, es una goma con propiedades magnéticas que hace las veces de imán permanente en el motor. Lava con solvente el eje metálico central y luego ponle una muy pequeña capa de grasa para mecanismos. ¿Has leído bien? Muy pequeña cantidad. La suficiente para garantizar un giro lubricado. Si no tienes ningún tipo de grasa especial utiliza vaselina sólida.


Ayúdate con un género para limpiar el buje.


Ahora, en la parte fija del motor o estator limpia atravesando un género, el buje de bronce donde se inserta el eje metálico que terminamos de lubricar y engrasar. Si fuese necesario humedécelo con solvente para que se quite toda la grasa pegada en su interior.

Cuando culmine éste acto de limpieza con la prolijidad que traes hasta ahora, inserta la parte móvil en el estator verificando una libre rotación de los álabes, coloca la arandela plástica de sujeción, la tapa autoadhesiva que lo protege de la entrada de tierra, y ya habremos terminado el mantenimiento preventivo al cooler.

Si el cooler no puede desarmarse como lo explicado, al menos verifica su libre giro. Aspíralo con cuidado pasándole un suave pincel por toda su integridad, limpia bien sus álabes y, si tienes acceso visual al eje aunque no puedas desarmarlo, aplica con cuidado un poco de lubricante en aerosol cómo puede ser WD40. Con eso será suficiente para mantenerlo protegido hasta la próxima intervención.

Armado final


Comenzamos la fase final: El armado


Ahora emprenderemos el camino recorrido a la inversa, ensamblando todo lo que hemos quitado para su limpieza y manutención. Lo primero será armar el conjunto “cooler – disipador” y buscar la orientación que traía originalmente para que nos permita una conexión práctica y cómoda del mismo a la placa principal.


Distribuímos una capa unifirme de Grasa Siliconada sobre el microprocesador.


Antes de insertar dicho conjunto en la placa principal, verteremos sobre la parte superior del microprocesador una cantidad de Grasa Siliconada Disipadora de Calor que resulte en una capa de uno a dos milímetros de espesor. Esta grasa la podemos comprar en cualquier tienda de productos electrónicos para técnicos y viene en presentación de frasco o de jeringa según el uso que se le vaya a dar.

Debes tomar la especial precaución de inspeccionar visualmente muy bien la zona y que la misma esté libre de elementos que puedan entorpecer el efectivo contacto físico entre la parte superior del microprocesador y el disipador de calor.


Colocamos la RAM observando la guía.

Inserta los encastres plásticos que posee el conjunto “disipador – cooler” y asegúralos mecánicamente al motherboard con las trabas giratorias que antes habíamos quitado. Realiza una inspección visual por cualquier resquicio que quede libre para verificar el asiento óptimo del disipador sobre el microprocesador.
Debes poner todos tus sentidos en ésta parte del trabajo ya que un mal posicionamiento de éste conjunto deriva inevitablemente en un mal funcionamiento del sistema. Colocaremos ahora el banco de memoria RAM en su zócalo, prestando atención a su posición correcta según la muesca cómo indica la imagen.

Finalmente, estamos en condiciones de colocar nuestro motherboard dentro del gabinete y reconectar nuevamente todo el sistema. Una mención especial le cabe a que debes respetar los tipos de rosca de los tornillos que has retirado de cada lugar específico durante el desarme, y no debes dejar de observar que todos los tornillos que sujetan el motherboard llevan una arandela aislante para evitar cortocircuitos y para garantizar un montaje seguro del mismo.

Seguiremos las indicaciones que habremos anotado, haremos coincidir los conectores marcados en cada lugar específico e instalaremos los sopladores adicionales que también hemos limpiado y quitado del gabinete. No te olvides de colocar siempre los mismos como extractores con circulación de flujo de aire hacia el exterior de acuerdo a las indicaciones que traen en relieve en su exterior.