Sie sind auf Seite 1von 70

Instituto Superior Politcnico Jos Antonio Echeverra (CUJAE)

Departamento de Telecomunicaciones y Telemtica

Reestructuracin del centro de datos de la Presidencia de la corporacin Cuba Ron S.A, Sede 44.

Presentado por: Irving Leonard Prez de Alejo Tutor: Ing. Carlos A. Gmez Brizuela Ing. Lilia Rosa Garca

a mi familia...

Agradecimientos
A mi familia, a mis amigos, de Cuba Ron y todas partes, a mis tutores que supieron sobre-llevarme y no mandarme... GRACIAS.

Declaracin de autora
Irving Leonard Prez de Alejo, autor de la tesis titulada Reestructuracin del centro de datos de la Presidencia de la Corporacin Cuba Ron S.A., Sede 44, realizada en el ao 2011 en el Instituto Superior Politcnico Jos Antonio Echeverra (ISPJAE), autoriza al Departamento de Telecomunicaciones y Telemtica a que utilice con la debida referencia a su autor, la presente tesis.

Resumen
Se realiz un estudio de la estructura y funcionamiento de la empresa identificando sus necesidades. Se analiz el estado original del centro de procesamiento de datos (CPD) y se concluy que no satisfaca los requerimientos de la empresa. Se estudi el estado del arte en las tecnologas asociadas con el CPD y se seleccionaron las que se consideraron costo-efectivas. Se expuso la implementacin efectuada y se concluy que aunque el diseo lograba los parmetros requeridos, la escasez de recursos limit su efectividad.

Abstract
A study was made about the business' structure and functionality and identified it needs. The original datacenter state was analyzed and arrived to the conclusion that it doesn't satisfied the business' requirements. Another study was made about the state of the art associated with the technologies referring to datacenters and the most cost-effective were selected. The real implementation was exposed and arrived to the conclusion that the design satisfied the requirements but its effectivity was limited by the lack of resources.

ndice de contenido
Agradecimientos............................................................................................................................... 3 Declaracin de autora..................................................................................................................... 4 Resumen.......................................................................................................................................... 5 Introduccin...................................................................................................................................... 9 Captulo 1 : Caracterizacin de la Sede 44 de la corporacin Cuba Ron S.A................................11 1.1 Introduccin....................................................................................................... 11 1.2 Corporacin Cuba Ron S.A (Presidencia, Sede 44).............................................11 1.2.1 La Presidencia.............................................................................................................13 1.2.2 Caracterizacin de la sede 44.....................................................................................13 1.3 Necesidades TICs de la sede 44........................................................................15 1.4 Red corporativa de la Corporacin Cuba Ron S.A..............................................16 1.5 Principales parmetros de un centro de datos..................................................17 1.5.1 Flexibilidad.................................................................................................................. 18 1.5.2 Escalabilidad............................................................................................................... 19 1.5.3 Disponibilidad..............................................................................................................20 1.5.4 Seguridad....................................................................................................................21 1.6 Estado inicial del equipamiento y las aplicaciones en el CPD de la Sede 44.....22 1.6.1 Servidores...................................................................................................................22 1.6.2 Almacenamiento.......................................................................................................... 24 1.6.3 Red............................................................................................................................. 25 1.6.4 Gestin........................................................................................................................ 26 1.7 Presupuesto para la reestructuracin................................................................27 1.8 Conclusiones..................................................................................................... 27 Captulo 2 : Tendencias y tecnologas actuales.............................................................................28 2.1 Introduccin....................................................................................................... 28 2.2 Procesamiento................................................................................................... 28 2.2.1 Servidores discretos....................................................................................................28 2.2.2 Clster de alta disponibilidad.......................................................................................30 2.2.3 Clster de balanceo de carga......................................................................................31 2.2.4 Virtualizacin............................................................................................................... 32 2.2.5 Supercomputadora......................................................................................................35 2.2.6 Mainframe................................................................................................................... 36 2.2.7 Grid Computing........................................................................................................... 36 2.3 Almacenamiento................................................................................................ 37 2.3.1 Redundancia local de datos........................................................................................38 2.3.2 Volmenes.................................................................................................................. 41 2.3.3 Volmenes compartidos..............................................................................................42 2.3.4 Sistemas de archivos de disco compartido..................................................................44 2.3.5 Almacenamiento integrado..........................................................................................45 2.3.6 Mecanismos para la disponibilidad ante catstrofes....................................................45 2.4 Red.................................................................................................................... 46 2.5 Computacin en la Nube y Servidor Privado Virtual..........................................47 2.6 Seleccin de las tecnologas ............................................................................. 48 2.6.1 Virtualizacin............................................................................................................... 49 2.6.2 Alta disponibilidad........................................................................................................51 2.6.3 Almacenamiento.......................................................................................................... 51 2.6.4 Especificaciones de la Red de Datos..........................................................................52 2.7 Aspectos de la infraestructura...........................................................................53 2.8 Conclusiones..................................................................................................... 54 Captulo 3 : Solucin propuesta....................................................................................................55 3.1 Introduccin....................................................................................................... 55 3.2 Arquitectura de Servidores................................................................................ 55 3.3 Arquitectura de Almacenamiento......................................................................56 3.4 Arquitectura de Virtualizacin........................................................................... 58

3.5 Arquitectura de Red........................................................................................... 60 3.6 Arquitectura de Gestin..................................................................................... 63 3.7 Conclusiones..................................................................................................... 64 Conclusiones.................................................................................................................................. 65 Recomendaciones.......................................................................................................................... 66 Bibliografa..................................................................................................................................... 67 Anexos........................................................................................................................................... 68

Introduccin
En la era de la informacin y las comunicaciones la mayora de las organizaciones soportan sus principales procesos en infraestructuras tecnolgicas. Parte medular de estas infraestructuras lo constituye el centro de procesamiento de datos (CPD), lugar donde se ejecutan las aplicaciones empresariales utilizadas en los procesos productivos. En el CPD se encuentran los equipos necesarios para el procesamiento, almacenamiento y transmisin de la informacin y en cuyo diseo deben tenerse en cuenta parmetros tales como: flexibilidad, escalabilidad, disponibilidad y seguridad. En la Corporacin Cuba Ron S.A. existe un esquema de CPDs distribuidos e independientes entre las diferentes dependencias que la conforman. El CPD perteneciente a la Sede 44 de la Presidencia debe brindarle a la misma los servicios de mensajera, almacenamiento compartido, plataformas web, etc. para un promedio de 40 usuarios. Lo anterior indica que este centro le brinda servicios a una pequea empresa, soportando una modesta carga de trabajo, aunque representa un punto vital para las actividades de la empresa. El estado actual de dicho CPD no cumple con los principios de diseo y despliegue bsicos de un centro de datos, no haciendo por tanto un uso ptimo de los recursos. Presenta problemas de disponibilidad y seguridad porque la informacin y el acceso a la misma no estn debidamente respaldadas y aseguradas, resultando entonces un ambiente no confiable. Las aplicaciones que ya se encuentran desplegadas no tienen la redundancia requerida por lo que estn propensas, ante un fallo, a sufrir problemas de disponibilidad y grandes prdidas de informacin. Dada la situacin problemtica el problema a resolver en el presente trabajo es el diseo y funcionamiento deficiente del centro de datos de la Sede 44 de la Presidencia de la Corporacin de Cuba Ron S.A. que resulta en un centro poco confiable. El objeto de estudio para poderle dar la solucin al problema es la arquitectura y funcionamiento de los Centros de Procesamiento de Datos (CPDs) y como campo de accin est el diseo y despliegue de CPDs para Pequeas y Medianas Empresas (PyMEs). El objetivo general del trabajo es el diseo y despliegue de una solucin para el

centro de procesamiento de datos de la Sede 44 en la Presidencia de la Corporacin Cuba Ron S.A., capaz de brindar los niveles de seguridad, flexibilidad, escalabilidad y disponibilidad que se requieren. Como objetivos especficos se proponen utilizar software libre donde sea posible persiguiendo la independencia tecnolgica y utilizar hardware comn para mantener bajos costos. Las tareas a cumplir para darle cumplimiento al objetivo planteado son: 1. Determinar las necesidades en cuanto a Tecnologas de la Informtica y las Comunicaciones (TICs) se refiere en la sede, las proyecciones futuras y los recursos disponibles para satisfacer estas. 2. 3. Analizar la situacin actual del CPD que soporta los servicios de la sede. Buscar informacin actualizada y estudiar acerca del diseo y despliegue de CPDs. 4. Seleccionar la tecnologa a utilizar para dar solucin a los problemas encontrados. 5. Proponer un diseo que cumpla con los niveles bsicos de flexibilidad, escalabilidad y disponibilidad. Para abarcar este trabajo el documento se divide en tres captulos: El primer captulo est dedicado a la descripcin de la corporacin, sus dependencias y la sede 44, as como el anlisis de sus necesidades en cuanto a las TICs se refiere. Se valora adems el estado actual del centro as como las capacidades de mejoras y expansin. En el segundo captulo se describen y analizan las tecnologas conocidas para la implementacin de un CPD, en todos los aspectos que este requiere. Luego se decide el conjunto de tecnologas a usar en la solucin propuesta, segn los requerimientos y particularidades del centro en cuestin. En el tercer captulo se exponen las decisiones especficas, muchas seguridad,

condicionadas por polticas internas, de las implementaciones y esquemas a utilizar.

Captulo 1 :

Caracterizacin de la Sede 44 de la

corporacin Cuba Ron S.A.


1.1 Introduccin

Las necesidades TICs de una empresa estn dadas generalmente por la actividad que esta realiza; as mismo las posibles soluciones estarn dadas por la importancia que la informatizacin y automatizacin tengan en el proceso productivo y las posibilidades econmicas que tenga dicha empresa para su implementacin. La distribucin de las funciones tambin juega un papel clave a la hora del diseo, siendo muy importante la especificacin de las responsabilidades de cada entidad. El presente captulo pretende hacer una descripcin de la corporacin, sus dependencias y las necesidades que son motivo del presente trabajo.

1.2

Corporacin Cuba Ron S.A (Presidencia, Sede 44)

La Corporacin Cuba Ron S.A. es la organizacin que se ha erigido como productor de grandes marcas de ron en Cuba, depositaria de las ms fieles tradiciones de la cultura ronera cubana, como parte enriquecedora e inseparable de la cultura nacional. Posee las principales y ms antiguas fbricas del pas y cuenta con un equipo de maestros roneros altamente calificados que han sabido hacer suyo el legado trasmitido de generacin en generacin. Constituida en Noviembre de 1993, es la organizacin llamada a unificar de modo armnico las principales y ms tradicionales fbricas de ron cubano, en una estructura empresarial fuerte y nica, con la agilidad necesaria para responder a los requerimientos y retos del comercio mundial actual. Su misin consiste en tener una cartera de productos para la exportacin y el mercado interno en divisas, competitivo y diversificado segn los requisitos del cliente. La visin que persigue, integrada al sistema de perfeccionamiento empresarial, es participar en el proceso de recuperacin de la economa cubana, desplegando sus reservas de eficiencia en una estrategia empresarial, dirigida a diversificar en su objeto social.

Figura 1.1: Estructura de la Corporacin Cuba Ron S.A. La estructura de la corporacin, encabezada por una presidencia, es la que se muestra en la figura 1.1.

Figura 1.2: Distribucin geogrfica Cuba Ron S.A. La produccin de ron est agrupada en cuatro establecimientos principales

como puede apreciarse en la figura 1.2: Santa Cruz, Crdenas, Central y Santiago de Cuba.

1.2.1
actividades

La Presidencia
de la corporacin. Establece las estrategias, polticas y

La Presidencia tiene como funcin fundamental la regulacin de todas las reglamentos a seguir por las entidades que conforman el sistema corporativo. Adems controla la implementacin de las disposiciones en todas sus dependencias, realizando contactos y visitas de control. Por otra parte se ocupa de la ejecucin de las importaciones y exportaciones siendo un eslabn muy importante dentro de la lnea comercial. Desarrolla adems la actividad de mercadeo, sobre todo mediante soporte digital. Este rgano se encuentra geogrficamente distribuido, existiendo una Sede 200 (o Sede I) situada en calle 200 y avenida 17, reparto Atabey; y otra Sede 44 (o Sede II) en calle 44 y avenida 3ra, reparto Miramar, ambas en el municipio capitalino de Playa.

1.2.2

Caracterizacin de la sede 44

En la Sede 44 se encuentran algunas de las estructuras que conforman la presidencia que incluyen la Direccin de Mercado, la Direccin de Compras, el Puesto de Direccin, la Direccin de Informtica y Automatizacin, el Grupo de Transporte, los Apoderados, el Grupo de Perfeccionamiento Empresarial y la Direccin de Fuerza de Trabajo. La Direccin de Mercado tiene la responsabilidad de garantizar que se comercialicen los productos en el mercado externo de los rones marcas Santiago de Cuba, Cubay, Arecha y Legendario. Entre otras tareas, orienta y controla la Gestin de Mercadotecnia a nivel corporativo, colabora con la alta direccin en la evaluacin general de las oportunidades del mercado, asesora a las diversas Unidades Empresariales de Base (UEBs) productoras y comercializadoras de la corporacin en cuanto a la funcin de mercadotecnia y promueve la filosofa de la mercadotecnia al resto de las reas de organizacin y control. La Direccin de Compras desempea un papel fundamental en el quehacer de

la corporacin, pues tiene la responsabilidad de garantizar los insumos necesarios destinados a la produccin y por consiguiente a las de la industria, adems importa materias primas para otras entidades cubanas que utilizan iguales o similares suministros. El Puesto de Direccin es un colectivo clave que trabaja las 24 horas del da con el objetivo de mantener un flujo informativo actualizado sobre todo lo que acontece en la corporacin relacionado con la produccin, ventas, exportaciones, servicios, operaciones especiales, transportaciones especficas, todo lo referente a los planes de defensa civil y las informaciones establecidas ante la aparicin de eventos meteorolgicos o microbiolgicos, hechos extraordinarios que pudieran ocurrir y cualquier situacin de excepcin que se produzca en alguna de las entidades que integran la organizacin. Este grupo facilita la toma de decisiones ya que no solo recepciona la informacin sino que tambin la analiza y hace sugerencias. La Direccin de Informtica y Automtica organiza racionalmente el sistema de informacin a implantar en el sistema corporativo y elabora los reglamentos y polticas de informacin y automatizacin. Garantiza tambin la certificacin de los sistemas y asume el soporte de los usuarios y servicios en la presidencia. El Grupo de Transporte, perteneciente a la Direccin de Logstica funciona para garantizar la disponibilidad tcnica de los medios de transporte y ejecutar las transportaciones de los insumos, materias secas y productos terminados. Controla ademas los relacionado con el tema del combustible. Los Apoderados garantizan los trmites aduanales y otros en general que incluyen la nacionalizacin de las materias primas, materiales y otros con destino a las industrias del sistema, as como a terceros. Garantizan tambin los trmites que permitan la exportacin del producto terminado. El Grupo de Perfeccionamiento Empresarial supervisa la aplicacin de las polticas, principios y procedimientos generales en el desarrollo del proceso de Perfeccionamiento Empresarial y realiza controles peridicos a las entidades con el objetivo de detectar los problemas que afectan el desarrollo del proceso. Planifica tambin la actividad de comunicacin empresarial de la corporacin como herramienta de gestin para el cambio y el mejoramiento en la empresa. La Direccin de Fuerza de Trabajo conforma, en ocasiones de conjunto con

otras estructuras, los reglamentos y disposiciones laborales relacionadas con las plazas, regmenes de trabajo, capacitacin, estimulacin, seguridad y salud en el trabajo, aprovechamiento de la jornada laboral, etc. As mismo definen la poltica salarial y estudian la relacin costo-beneficio de los diferentes sistemas salariales.

1.3

Necesidades TICs de la sede 44.

Existen proyectos y aplicaciones ya desarrolladas para la automatizacin y/o agilizacin de los procesos de la empresa. No obstante no ha sido posible explotar esta capacidad al mximo en la sede 44 dada la poca disponibilidad y seguridad de la infraestructura y los servicios que se soportan en el CPD de esta. La Direccin de Mercado requiere informacin actualizada de las proyecciones de produccin de la corporacin, de su capacidad y del estado del mercado mundial. En este caso la disponibilidad es primordial, pues ante un cliente la incapacidad de acceso a los datos genera desconfianza que puede llegar a la prdida del negocio. La Direccin de Compras requiere un flujo actualizado de las necesidades de la corporacin. El fallo en este intercambio puede detener completamente la produccin, siendo la actividad de esta direccin el principio de la lnea de produccin. El Puesto de Direccin necesita acceso en tiempo real y todo el tiempo a los datos operativos de la corporacin por lo que la disponibilidad es una caracterstica crtica de los sistemas diseados para este. La Direccin de Informtica y Automatizacin requiere informacin actualizada de las necesidades TICs de las otras estructuras. Todas las actividades sobre soporte digital dependen de la gestin de esta direccin por lo que es cada vez ms importante el monitoreo de los requerimientos a medida que crece la informatizacin y automatizacin de los procesos. As mismo requiere una solucin escalable para ser capaz de satisfacer nuevas necesidades como tambin que sea flexible para poder redistribuir las existentes. El Grupo de Transporte trabaja con un flujo constante de informacin relacionada a las necesidades y resultados de las fbricas. Es un punto crtico

ya que es la interfaz de la lnea de produccin lo cual influye sensiblemente en la continuidad de la produccin por lo que la disponibilidad es una caracterstica esencial. El Grupo de Perfeccionamiento requiere el aseguramiento de los datos provenientes de toda la corporacin. La integridad y seguridad de estos es primordial para su funcionamiento. La Direccin de Fuerza de Trabajo requiere de una gran seguridad en los datos que maneja. El control de acceso a los datos y su integridad es de vital importancia para la gestin de esta direccin. Aunque la corporacin es una gran empresa con exportaciones en el rango de los millones de dlares anuales, la distribucin de los centros de datos, que tributa a la no existencia de uno grande y centralizado, as como la situacin econmica del pas provocan una semejanza de la sede, con un promedio de 40 usuarios, a una pequea o mediana empresa (PyME). Es por esto que el trabajo se persigue lograr una solucin enfocada a las PyME. Cada una de estas necesidades trae aparejada muy poca carga, producto de las necesidades del personal que las utiliza. No se espera un aumento de la potencia dedicada a estas necesidades a diferencia del nmero de las mismas que debe crecer.

1.4

Red corporativa de la Corporacin Cuba Ron S.A.

Las fbricas requieren que la informacin fluya por todas las dependencias para lograr una gran eficiencia en la produccin. El principal medio utilizado histricamente ha sido el telfono, la informacin se intercambia de persona a persona a travs de llamadas telefnicas. Esto tiene como desventaja el alto costo por las llamadas de larga distancia y la alta probabilidad de ocurrencia de errores humanos. Es por ello que en los ltimos aos se ha venido trabajando en la implementacin de una Red de rea Amplia (WAN, por sus siglas en ingls) corporativa que enlace todas las dependencias de la corporacin. Este proyecto tiene como principal motivacin la disminucin de gastos, al encaminar el trfico telefnico a travs de troncos de voz sobre IP (VoIP, por sus siglas en ingls) mediante la WAN, pero tambin abre todo un nuevo

espectro de posibilidades en la comunicacin interna. La red presenta una topologa de estrella, como se observa en la figura 1.3, siendo la sede 200 de la presidencia el nodo central. A este nodo se conectan otras 6 dependencias: la sede 44, la distribuidora y las fbricas de Santa Cruz, Crdenas, Central y Santiago de Cuba. La dependencia, en cuanto a servicios informticos, es casi horizontal, siendo cada entidad responsable de sus servicios al tener cada una su canal independiente a Internet (los enlaces de la distribuidora y ronera Santiago estn an en contratacin). El uso de la red corporativa es para el consumo de los servicios internos, los cuales pueden ubicarse en cualquiera de las entidades.

Figura 1.3: Red corporativa Cuba Ron S.A. Actualmente la red corporativa se encuentra en un proceso de migracin a IP/MPLS que disminuir los costos, lo cual se piensa reinvertir en aumentar los anchos de banda de los enlaces. Esto adems mejorar los tiempos de demora al cambiar a una topologa de malla.

1.5

Principales parmetros de un centro de datos

Se denomina centro de procesamiento de datos (CPD) a aquella ubicacin donde se concentran todos los recursos necesarios para el procesamiento de la informacin de una organizacin. Es una edificacin para albergar sistemas de computadoras y componentes asociados, como sistemas de telecomunicaciones y almacenamiento. De su correcto funcionamiento depende el desarrollo satisfactorio de las actividades de la empresa por lo que constituye un punto estratgico. Dada la importancia que tiene, debe cumplir con parmetros que justifiquen la responsabilidad que en este se deposita.

1.5.1

Flexibilidad

La flexibilidad se refiere a diseos que pueden adaptarse ante la ocurrencia de cambios externos. Se puede definir como la habilidad de un sistema de responder rpidamente a cambios internos o externos de forma costo-efectiva. Es poco probable que el CPD se mantenga inmutable por toda su vida, por ello se puede decir que debe existir la posibilidad de reconfigurar los recursos del centro en nuevas distribuciones. Esta reconfiguracin a su vez no debe traer aparejado grandes costos sino que se puedan hacer como valor inherente al diseo. Una tcnica desarrollada con este fin y muy utilizada en el mundo es la virtualizacin. Consiste en convertir los dispositivos fsicos, de alguna manera, en dispositivos lgicos los cuales no responden a las mismas restricciones de posicionamiento, as se pueden mover los recursos a donde sean ms necesarios. Con esto se habilita al diseo con una posibilidad para reaccionar ante cambios reconfigurando sus recursos. Esta reconfiguracin, si se automatiza, puede lograr una alta relacin costo-efectividad. La flexibilidad aporta tambin a escalabilidad ya que hace posible escalar a recursos en desuso o sub-utilizados. En el CPD de la sede 44 no era capaz de adaptarse a los cambios sin el agregado de un gran volumen de trabajo manual por parte de los operadores.

El software trabajaba directamente sobre hardware al no existir virtualizacin de ningn tipo, por lo que no contaba con la capacidad de reconfiguracin de forma costo-efectiva. Es por esto que el diseo puede calificarse como poco flexible.

1.5.2

Escalabilidad

La escalabilidad es una propiedad deseable en un sistema, red o proceso que indica la habilidad de soportar crecientes cantidades de trabajo creciendo de forma rpida y sencilla. La escalabilidad, en cuanto a la carga de trabajo se refiere, es capacidad de asimilar la variacin del nmero de usuarios, aplicaciones y/o tareas sin impactar sustancialmente en el funcionamiento normal. Durante el diseo se deben tener en cuenta las proyecciones de la empresa para el tiempo de vida de forma que se calcule dicho crecimiento y se tomen medidas para poder acomodarlo. Al culminar el ciclo de vida se deben volver a valorar las necesidades y proyecciones y hacer un nuevo diseo que se adecue a estas. En ocasiones no se logra prever un crecimiento acelerado lo que provoca que el diseo, y por consiguiente el CPD, quede obsoleto antes del tiempo previsto, o sea, que disminuya el tiempo de vida. As mismo el hardware y la plataforma de software deben ser capaces de hospedar nuevas aplicaciones acorde al crecimiento esperado. El incremento de las instancias, nmero de usuarios y equipos no debe conllevar grandes trabajos. El CPD de la Sede 44 tena un esquema fijo de aplicacin donde no resultaba natural insertar nuevas aplicaciones. Esta operacin degradaba an ms el resto de los parmetros, creando ms brechas de seguridad y comprometiendo an ms la disponibilidad. La falta de flexibilidad afectaba tambin la capacidad de crecimiento al no ser posible ocupar cierto hardware sub-utilizado con las aplicaciones que se requera desplegar. Esto demuestra que en su momento no se valor efectivamente las proyecciones de crecimiento de la estructura. Por otro lado el aumento del nmero de usuarios en las aplicaciones existentes

no causaba grandes problemas. La capacidad instalada demostr ser suficiente para el nmero de usuarios que utiliz el centro. Se puede calificar entonces el centro como un CPD poco escalable, por lo que se deben analizar las malas proyecciones que se hicieron para evitarlas en el futuro.

1.5.3

Disponibilidad

En cuanto a servicios se refiere se puede decir que cuando un sistema es capaz de ser utilizado por un cliente, un ente para el cual se dise el servicio, este est disponible. La disponibilidad se calcula como el por ciento que el servicio se encontr disponible en un perodo de tiempo. Cuando esta es mayor del 99% tiende a expresarse en cantidad de 9. La calificacin de la disponibilidad se define en dependencia de las caracterstica y necesidades de las empresa, y de las restricciones que esta tenga a la hora del diseo. Las afectaciones a la disponibilidad vienen dadas por las interrupciones. Las interrupciones programadas, como las tareas de mantenimiento, en ocasiones no se incluyen en el clculo de la disponibilidad. Las interrupciones no programadas, como las roturas, afectan grandemente el desarrollo de las actividades y de no existir un plan de contingencias, preferiblemente automatizado, o una plataforma altamente disponible, pueden registrarse largos perodos de tiempo fuera de servicio. Existe una calificacin traducible como nivel de portadora ( carrier grade) que establece una disponibilidad de 5 nueves para los servicios del CPD. En una pequea empresa esto eleva demasiado los costos a cambio de muy poca retribucin. En el centro de datos de la sede 44 no exista una plataforma altamente disponible. Los servicios no eran redundantes corriendo una sola instancia por servicio lo que provocaba que cualquier fallo relacionado con esa instancia interrumpa el servicio. El hardware no era redundante por lo que un fallo de este interrumpa varios servicios de forma simultanea.

La infraestructura no era redundante ya que se contaba con una sola fuente elctrica, la de la compaa elctrica. No se dispona de un generador de respaldo y solo se contaba con los minutos que brindaban las fuentes de potencia ininterrumpibles (UPS, por sus siglas en ingls). La climatizacin la brindaba un solo equipo por lo que un fallo de este provocaba la interrupcin de todo el centro. El plan de contingencias no estaba automatizado por lo que ante la ocurrencia de un fallo deba invertirse gran cantidad de trabajo por parte del operador. Varias de las actividades que se efectan en el centro requieren de la disponibilidad todo el tiempo, por lo que no se puede clasificar como un centro altamente disponible.

1.5.4

Seguridad
del acceso, uso, publicacin, interrupcin, modificacin,

La seguridad de la informacin significa proteger esta y los sistemas informticos inspeccin, grabacin o destruccin no autorizada. Est relacionada con la confidencialidad, integridad y disponibilidad de la informacin. De esta manera interviene tambin en la disponibilidad y correcto funcionamiento de los sistemas de computadoras. En particular no existen mtodos cientficos comnmente aceptados para la medicin de la seguridad, en cambio se implementan polticas y se refuerzan los puntos que se consideren ms importantes. En un CPD se deben proteger los equipos y los datos de posibles accesos de usuarios no autorizados. Fsicamente se logra mediante el aseguramiento con paredes, puertas y dems que sean seguras. Los mecanismos de acceso son un aspecto sensible ya que son un punto de ataque muy comn. A su vez, no existe seguridad absoluta por lo que se hacen necesario equipos de monitoreo, tales como alarmas, cmaras de seguridad, etc., que registren y controlen las actividades que ocurren en el centro. A nivel lgico el acceso se protege mediante la aplicacin de reglas de acceso, las cuales definen la compartimentacin de los recursos; los cortafuegos son otras herramientas que buscan la implementacin de estas polticas. El cifrado de los datos sensibles es una tcnica que evita la filtracin de los datos hacia

elementos no deseados y desestimula el robo de la informacin. A su vez las herramientas de deteccin de intrusos descubren a los individuos que realizan operaciones indeseadas en el centro. La integridad de los datos es otro aspecto muy importante a tener en cuenta. La replicacin local protege contra fallos, siendo posible la continuidad del negocio ante la interrupcin de disco. La replicacin remota protege los datos del centro ante una catstrofe, donde todos los medios se perdieran irremediablemente. La firma de los datos evita el cambio silencioso de estos de forma que se evita el sabotaje de los mismos. El centro de datos de la Sede 44 no cumpla con los parmetros bsicos de seguridad, siendo numerosos los fallos detectados en auditoras de este tipo. El aseguramiento fsico era muy pobre al existir una puerta cortina de plstico resguardando la entrada. El acceso se controlaba mediante un sistema de candado muy simple y vulnerable. El trfico de red de todo tipo estaba mezclado, al no existir una segmentacin apropiada de la red, lo que permita a un usuario malintencionado impersonar cualquiera de los servicios del centro. Las aplicaciones corran sin aislamiento, sobre el mismo ambiente, provocando que una brecha en una de ellas afectara a todas las que compartan ese ambiente. El acceso a las interfaces de administracin se haca mediante el vulnerable par de usuario y contrasea, disminuyendo la proteccin de autenticacin. La existencia de estas deficiencias en el CPD provoca que no se pueda calificar como un diseo seguro.

1.6

Estado inicial del equipamiento y las aplicaciones

en el CPD de la Sede 44.


Como punto de partida se hizo un estudio del estado de los servicios y aplicaciones presentes en el CPD de la sede 44 as como del software y el hardware utilizado para soportar estos. El hardware con que se contaba inclua tres computadoras, dos dispositivos de almacenamiento en red (NAS, por sus siglas en ingls) y un switch Fast Ethernet los cuales se detallan a continuacin.

1.6.1

Servidores

Las computadoras con que se contaban eran: Mquina (motherboard) ECS 945GZT-M con un procesador Intel Pentium D @3.2GHz y 768MB de RAM DDR2 llamada Ebox. Mquina Intel Desktop DG33BU con un procesador Intel Core 2 Duo E6550 (@2.33GHz) y 2GB de RAM llamada Intel Servidor profesional HP ProLiant ML150 G5 (sin modificar: procesador Intel Xeon E5205 @1.86 y 1GB de RAM RDDR2) llamado HP. El servidor Ebox corra la distribucin de Linux llamada eBox, que est basada en Ubuntu 8.04 LTS. Presenta una interfaz web de configuracin extensible modularmente, siendo un equivalente en Linux al Windows Server 2003 Standard. A travs de los mdulos se pueden habilitar servicios, luego configurables a travs de la interfaz, parecido funcionalmente al asistente Configurar mi Servidor de Windows Server 2003. Este servidor brindaba los servicios de DNS, correo electrnico, proxy HTTP, web y servidor de ficheros. El servidor Intel contaba con una versin de Windows Server 2003 sobre la que corra un servidor de directorio activo de Windows. Adems corra un servidor de baco, software contable utilizado por la corporacin, el cual tambin requiere de un gestor de base de datos Firebird que corra localmente. Se encontraba tambin un servidor Microsoft SQL Server 2005 para desarrollo, utilizado por programadores en el centro. El servidor HP no se encontraba realizando ninguna funcin. En este se encontraban el servicio de correo electrnico y proxy HTTP antes de configurarse el Ebox. En la defectacin realizada sobre los recursos de procesamiento se registraron los siguientes problemas: El sistema era poco seguro ya que los servicios, estuvieran relacionados o no, se encontraban instalados y operando sobre un mismo entorno, sin aislamiento mayor que el que le impona el SO a los procesos y usuarios. No se diferenciaban los servicios con vista pblica de los servicios internos (privados), constituyendo una gran brecha de seguridad y amenaza de ataque. Una brecha en alguno de los servicios comprometa

a los dems servicios que compartan ese entorno. Al existir una tendencia a la centralizacin de los servicios en un mismo entorno, exista poco balance en la carga de los servidores. Unos servidores se encontraban sobrecargados, mientras otros tenan muy poca carga. Los sistemas estaban instalados directamente sobre hardware

heterogneo, lo que dificultaba cualquier tipo de redistribucin de los servicios, siendo una solucin poco flexible. La sustitucin o mejora de los servidores conllevaba volver a instalar o configurar mltiples servicios. Exista poca disponibilidad de los servicios ya que cada servicio instalado era nico y no se encontraban implementadas tcnicas para redundar tanto la informacin como los servicios. Cada servicio era un punto simple de fallo: el mantenimiento o fallo de algn tipo impactaba directamente en el servicio; no existan mecanismos de recuperacin del servicio de forma automtica. Los tiempos de recuperacin ante fallos de hardware solan ser elevados pues haba que partir desde la instalacin del sistema hasta la configuracin de cada uno de los servicios. Adems no se contaba con un manual o salva de configuracin.

1.6.2

Almacenamiento

En la arquitectura de almacenamiento se contaba con discos duros conectados directamente, a travs del bus Conexin Serie de Dispositivo Avanzado (SATA, por sus siglas en ingls), a las mquinas (equipos de procesamiento). Adems existan dos dispositivos de almacenamiento en red (NAS, por sus siglas en ingls) Maxtor Shared Storage II de 500GB, los cuales solo exportaban carpetas compartidas CIFS y deban encenderse de forma manual ante un fallo elctrico. Los servidores contaban cada uno con un disco Seagate SATA de 160GB. El almacenamiento de los datos de programas y usuarios se haca local y exista un complejo esquema de salvas, el cual se realizaba de forma manual y era poco eficiente. Cada usuario deba copiar/actualizar sus datos importantes

en el servidor de ficheros (Ebox) y el administrador deba hacer una copia de esos datos y otros, puntuales, tales como las bases de datos, y enviarla a la sede 200 donde se almacenaban. Este proceso se realizaba una vez al mes por lo que los datos durante el mes estaban propensos a perderse ante un fallo del almacenamiento. Los datos de otros servicios, como los correos, los datos del dominio, etc., no se duplicaban nunca por lo que ante un fallo de almacenamiento se perderan. Los NAS se utilizaban para guardar los datos de la sede 200.

1.6.3

Red

La red, consista en una sola red Ethernet que posea una topologa de rbol. Se contaba con un switch Netgear JFS516 (Fast Ethernet de 16 puertos) en el centro de datos (en el mezanine), el cual interconectaba los servidores, un enlace al piso superior (fuerza de trabajo), un enlace ptico al 3er piso (departamento de informtica) a travs de un conversor de medios Allied Telesyn AT-MC101XL, otro enlace ptico a la otra casa a travs de otro conversor Allied Telesyn AT-MC101XL, un enlace hacia Internet a travs de un modem/encaminador Huawei Quidway y otro enlace hacia la red corporativa a travs de un modem/encaminador Huawei SmartAX MT882. Un esquema

Figura 1.4: Esquema de red original Sede 44

simplificado se puede apreciar en la figura 1.4.

La red IP coincida exactamente con la red Ethernet al no existir aislamiento de trfico ninguno. No se brindaba ningn tipo de Calidad de Servicio (QoS, por sus siglas en ingls) ya que no se distinguan los diferentes tipos de trfico. Era perfectamente posible para un usuario en cualquier punto de la red utilizar una de las direcciones pblicas contratadas por el centro ya que no se encontraban separadas las redes pblica y privada. Era posible as tambin suplantar la identidad del servidor de correo o el proxy HTTP (de cualquiera, en general), habilitando la capacidad de recolectar informacin privada de los usuarios. El uso de los recursos influa en todos los puntos de la red, siendo posible por ejemplo que trfico P2P, como el acceso a un directorio compartido por un usuario por parte de otro, imposibilitara la transmisin de correo. As mismo un usuario mal intencionado poda desplegar un ataque smurf o fraggle que provocara radiacin de difusin que podra llegar a una tormenta de difusin.

1.6.4

Gestin

Las configuraciones se hacan de forma manual, siendo el operador del CPD el ejecutor. No existan copias de la configuracin ms que la que estaba en uso, siendo complejo reutilizar las configuraciones en muchos casos y recuperarse ante los fallos. Los cambios se efectuaban igual de forma manual por parte del operador. No exista un repositorio con los cambios ya que estos solo se registraban en la memoria del operador. El desempeo se meda por apreciacin al no existir mecanismos para obtener tales mtricas. De igual forma no se contabilizaba el uso de ningn servicio de forma que no se tena referencia de su utilizacin. Los fallos se resolvan de forma puntual y eventual. No exista metodologa para la resolucin ni constancia alguna de la ocurrencia en el pasado (excepto en la memoria del operador). Exista un manual de seguridad de la empresa donde se encontraban

planteadas las polticas a seguir y medidas a tomar. La Direccin de Informtica confeccionaba el documento y lo mantena actualizado. No obstante, no existan medios para la deteccin de intrusos ms que la simple inspeccin.

1.7

Presupuesto para la reestructuracin

Para la reestructuracin se cuenta con: El hardware existente inicialmente. Algunos recursos en especies, los cuales formaron parte de compras anteriores y estn enfocados a mquinas de escritorio (discos duros, memorias DDR2, placas madres, microprocesadores). Un modesto monto de dinero para adquirir equipamiento de

conectividad ascendiente a 2000 CUC. La empresa tiene personal que se puede ocupar de resolver los problemas en la infraestructura como la seguridad fsica y la climatizacin. No se cuenta con respaldo elctrico de larga duracin (generadores disel) y es poco probable que se ejecute una inversin en ese sentido.

1.8

Conclusiones

La empresa se encuentra potenciando el uso de los modernos sistemas informticos y de comunicaciones para lo cual requiere de una infraestructura tecnolgica adecuada. Se requiere disponer de una infraestructura confiable que brinde los parmetros necesarios para esta sede. Las condiciones originales unidas a problemas en el diseo provocaban que el CPD no fuera capaz de brindar los niveles de trabajo necesarios para asumir responsablemente dichas funciones. Para que el CPD de la Sede 44 pueda soportar este nuevo volumen de carga y responsabilidad se hace imprescindible que cumpla los parmetros bsicos de funcionamiento. Esto, unido a la incapacidad del diseo original, sugiere su reestructuracin de acuerdo a los principios modernos de diseo e implementacin. Se cuenta con los recursos necesarios para llevar a la prctica un centro con semejantes prestaciones.

Captulo 2 :
2.1

Tendencias y tecnologas actuales

Introduccin

El CPD es un sistema complejo donde se realizan un gran nmero de funciones, las cuales deben ser tomadas en cuenta en el proceso de diseo. Existen estudios acerca del diseo de CPDs, donde se analizan muchos aspectos tcnicos a valorar, que aunque estn enfocados a grandes centros, su filosofa es extrapolable a centros de cualquier tamao. Existen muchas tecnologas posibles a utilizar en la implementacin de un CPD. En general se deben analizar la disposicin de la potencia de procesamiento, la distribucin del almacenamiento, el diseo e implementacin de la red de datos y los aspectos de infraestructura. Este captulo se enfoca en el estudio del estado del arte y la seleccin de la tecnologa a utilizar en el diseo.

2.2

Procesamiento

Una de las funcionalidades del CPD consiste en brindar la capacidad de procesamiento que requieren los servicios y tareas que soporta. Dicha capacidad se disea atendiendo a la necesidad de grandes picos de procesamiento, alta disponibilidad o gran seguridad y muchas veces es una combinacin de estas. A partir de esta premisa existen soluciones tecnolgicas que se han ido desarrollando paulatinamente. Estas soluciones se ven sin cambios en pocos casos, generalmente en ambientes especializados donde hay un requerimiento crucial y el resto tienen muy poca importancia en comparacin. Centros como estos pueden ser grandes CPDs en universidades o mega corporaciones, muchas veces dedicados a una actividad en especfico. Lo ms comn es encontrarlas mezcladas, en todo caso, son los bloques bsicos para el resto de las soluciones por lo que un anlisis de se hace necesario.

2.2.1

Servidores discretos

Esta es tal vez la solucin aplicada a los CPDs ms conocida y extendida. Consiste en dedicar una mquina servidor a cada aplicacin que se corre en el

centro, lo que hace que muchos CPDs se destaquen por su gran extensin. No se requiere software especializado ni configuracin especial alguna, las aplicaciones simplemente se despliegan igual que se encontraban en el entorno de desarrollo. No se necesitan herramientas especiales tampoco, pues el proceso es igual que en cualquier mquina lo que en este caso solo se dedica a una aplicacin. Es poco flexible estando el software instalado directamente sobre el hardware y no utilizar ningn tipo de virtualizacin. Los recursos de hardware que posee cada mquina son capaces de acomodar cierta carga de trabajo, por encima de ese lmite no es capaz de manejar ms trabajo. Para cargas tan grandes queda en manos de la aplicacin resolver el problema de la escalabilidad. Esto lo convierte en un diseo poco escalable. Lograr alta disponibilidad en esta configuracin es muy difcil sin mezclarlo con otro tipo de arquitectura. Las soluciones ms conocidas que surgieron para esta distribucin fueron las implementadas a nivel de aplicacin, donde el programa es el encargado de manejar los fallos y redireccionar el trfico. Por esto no se puede clasificar como altamente disponible. La instalacin de una sola aplicacin por servidor logra un aislamiento de los ambientes, porque cada aplicacin est en un ambiente separado. Una brecha de seguridad en una aplicacin no es capaz de comprometer otra aplicacin ya que en cada servidor hay solo una. Es por eso que se puede calificar como un diseo seguro. Por otro lado, el aislamiento genera mucho trabajo de administracin pues por cada aplicacin se debe atender un hardware con sus interrupciones, sistemas operativos y sus actualizaciones, monitorear las herramientas de seguridad (cortafuegos, antivirus, etc.) y la aplicacin en s. En general al escalar un sistema de este tipo aumenta la complejidad y con ello los costos de administracin asociados. El sobredimensionamiento provocado por el aislamiento conlleva la utilizacin poco ptima de los recursos de hardware, subutilizandolo y encareciendo la infraestructura de IT. Existen pocos casos, en comparacin, donde una mquina es perfecta para la aplicacin, por lo que la baja eficiencia en el uso de los recursos es una caracterstica inherente a este diseo.

Una forma de combatir esto fue unir varias aplicaciones en una misma mquina lo cual aumenta su utilizacin, pero a la vez niega el principal logro de esta arquitectura que es el aislamiento. Un ejemplo prctico de esta arquitectura lo constituye el centro de datos del Centro de Estudios de Ingeniera y Sistemas (CEIS) en la CUJAE, donde cada servicio cuenta con hardware dedicado. Un total de 13 mquinas servidores brindan la plataforma necesaria para el trabajo.

2.2.2

Clster de alta disponibilidad

Esta arquitectura se ide con la disponibilidad como principio fundamental y es bsicamente la extensin de los servidores discretos. La idea es evitar los puntos simples de fallo, los cuales son puntos en la arquitectura que al fallar provocan que el servicio deje de funcionar. Partiendo de tener una mquina servidor por cada aplicacin se agregan n nuevas mquinas que estarn en espera de un fallo, en cuyo caso entrarn a funcionar en el rol de la fallida. Es utilizada principalmente por centros crticos, los cuales basan su

funcionamiento en la disponibilidad. Fue potenciada originalmente por la rama de las telecomunicaciones donde la disponibilidad es un aspecto crucial. Por sus caractersticas los costos suelen ser altos por lo que solo se implementa en las aplicaciones que lo requieran[1]. Para que esta distribucin funcione de forma ptima se debe contar con algn tipo de almacenamiento compartido, esto asegura que al fallar una mquina los datos permanezcan accesibles y puedan ser utilizados por la que ocupar su lugar. Es poco flexible al igual que los servidores discretos al estar el software corriendo directamente sobre el hardware. El almacenamiento es ms flexible, al estar virtualizado, ya que debe accederse desde varios miembros del clster. Escala igual que los servidores discretos de forma que una aplicacin no es capaz de manejar cargas mayores que el hardware que la sostiene. Una aplicacin es capaz de soportar tantos fallos como n mquinas redundantes tenga. Como se pens en la disponibilidad desde un principio la arquitectura evita los puntos simples de fallo (dobles, triples... en dependencia de n), por lo que en ambientes donde la continuidad del negocio es lo

primordial, esta es sin dudas la mejor solucin. Se mantienen aisladas las aplicaciones, cada una corriendo en su hardware dedicado. Un ataque de negacin de servicio (DoS, por sus siglas en ingls) a los efectos del clster representa una interrupcin por lo que se realiza la migracin de los servicios hacia una de las mquinas de respaldo, en caso de persistir el ataque provocara que el clster oscile, transfiriendo el servicio entre varios nodos. Este esquema permite que los nodos entren y salgan de servicio de forma silenciosa y simple (de acuerdo al hardware disponible). El mantenimiento o la mejora de las mquinas no repercuten directamente sobre el servicio y no se necesita ser exquisito en cuanto al horario a tomar para ello. Se tienen n mquinas adicionales por aplicacin para administrar, por lo que los costos suelen ser bastante elevados. El sobredimensionamiento se dispara a medida que n es mayor. Por sus caractersticas este diseo es muy poco eficiente en cuanto al aprovechamiento de los recursos.

2.2.3

Clster de balanceo de carga

Esta solucin se enfoca en la escalabilidad y funciona creando un director de servicio y teniendo un grupo de servidores de aplicaciones. Este director (conocido tcnicamente como balanceador de carga) no corre instancia de aplicacin alguna sino que distribuye la carga de trabajo entre los servidores reales que ejecutan la aplicacin. Esta solucin es muy popular en las aplicaciones que manejan grandes volmenes de trfico como SourceForge.net o Linux.com. En algunas configuraciones de esta solucin se requiere cierto software especial para lograr que el sistema funcione, aunque principalmente el rol del balanceador solo requiere trabajo de red (tneles, traduccin de direcciones de red -NAT por sus siglas en ingls etc.). Uno de los problemas consiste en definir la carga de un nodo, su medicin y distribucin. Hay configuraciones donde el director utiliza los datos de las conexiones para realizar el balanceo, tales como la solicitudes entrantes, la demora de las respuestas, etc. En otros casos cada servidor real debe correr un programa (midleware) que se comunique con el

balanceador y le notifique acerca de su carga de trabajo lo cual es una medida ms precisa de la carga de trabajo y en estos casos es ms complicado mezclar sistemas operativos diferentes aunque posible. Es un diseo flexible donde el procesamiento y el almacenamiento estn virtualizados. El nodo director trata los servidores reales como unidades de procesamiento de forma que tiene la posibilidad de enfocar la nueva carga en cualquiera de estos. El almacenamiento correspondiente a una aplicacin es accesible a la vez por todos los servidores reales que la corran. Es escalable ya que una aplicacin es capaz de manejar cargas mayores que el hardware ms potente y hasta la suma de las capacidades de todos los servidores reales que la ejecutan. Al existir varias instancias de la misma aplicacin ejecutndose en el clster el sistema es capaz de tolerar el fallo de nodos hasta que quede solo 1 corrindola. Por esto se puede considerar un diseo altamente disponible. Este caso aumenta an ms el aislamiento de las aplicaciones ya que no solo se tiene una aplicacin por nodo sino que se tienen varias instancias de la aplicacin corriendo en hardware diferente. En caso de que una de esas instancias sea comprometida no compromete siquiera la aplicacin completa. El clster ve los ataques DoS como carga adicional y es capaz de soportarlos hasta que se agoten los recursos destinados a la aplicacin. Incurre en grandes gastos de administracin asociados a la complejidad del sistema ya que hay varias mquinas por cada aplicacin. Es posible hacer trabajos de mantenimiento en las mquinas sin que esto constituya una interrupcin del servicio. Esta solucin es poco eficiente en el uso del hardware con bajas cargas a diferencia de situaciones de mucha actividad. A medida que halla ms carga ser mayor la eficiencia.

2.2.4

Virtualizacin

La virtualizacin es una de las principales soluciones aplicadas, de alguna forma, en las empresas actuales[2]. Consiste en la distribucin lgica de los recursos de cmputo, con lo cual se crean instancias con un subconjunto de los recursos de la configuracin base. Existen varios tipos de virtualizacin, los

cuales se pueden enumerar como: La virtualizacin a nivel de sistema operativo, que se apoya en un ncleo capaz de crear diferentes espacios de memoria, con lo que puede mostrar a cada instancia virtualizada un entorno diferente. La carga adicional es muy pequea y el costo administrativo tambin (solo un ncleo corriendo a la vez). Tiene la desventaja de no poder mezclar varios tipos de sistemas operativos, bsicamente es capaz de mezclar todos los sistemas operativos que utilicen el mismo ncleo, pero solo estos. Las implementaciones comunes incluyen el ncleo de Linux y FreeBSD, no siendo posible este tipo de virtualizacin para entornos Windows. La virtualizacin completa consiste en virtualizar todo el hardware de una mquina de forma que un sistema operativo husped ( guest) lo utilice como hardware base. El principal problema consiste en que la arquitectura x86 no cumple con los parmetros necesarios para ser virtualizada de esta forma, por lo que se requieren mecanismos para lograrlo. A grandes rasgos lo que se realiza es interceptar las instrucciones problemticas y emular el procesador, accin muy costosa que provoca carga adicional. En esta variante es posible correr los ms diversos sistemas operativos simultneamente, siempre y cuando soporten la arquitectura bsica. A su vez provoca ms carga que las dems ya que el aislamiento total requiere la ejecucin al unsono de varios ncleos y demonios bsicos por lo que el aumento de requerimientos es lineal con relacin al aumento de mquinas virtuales. La virtualizacin completa asistida por hardware, hace uso de las extensiones de virtualizacin (Intel VT-x y AMD-V). Lleva la implementacin al hardware y elimina la emulacin del procesador, lo que aumenta la velocidad al eliminar este procesamiento de las colas del microprocesador. La paravirtualizacin es prcticamente una virtualizacin completa, que no virtualiza las instrucciones problemticas por lo que el ncleo husped debe estar modificado para operar en estas condiciones y tambin son necesarios controladores especiales. Con esta variante se evita cierta

carga adicional provocada por la virtualizacin completa a cambio de disminuir la compatibilidad. Se puede considerar como la evolucin de los servidores discretos por lo que suele emplearse en centros de datos de propsito general, los cuales tienen un porcentaje considerable en el mundo. Cualquiera de las configuraciones, de ser aplicables, brinda una gran flexibilidad al ser posible mover aplicaciones completas entre el hardware disponible ya que suelen ser ficheros que se copian y luego se ejecutan. Con el empaquetamiento de las aplicaciones, ya no se necesitan contemplar todos los posibles ambientes sino que se empaquetan ambientes completos, evitando mucho trabajo de compatibilidad y chequeo de errores. Por otra parte no escala al tener como mxima capacidad algo menos de la que brinda el hardware subyacente. En el otro sentido es capaz de manejar cargas ms pequeas sin incurrir en la ineficiencia al consolidar aplicaciones sobre el mismo hardware. El problema de la disponibilidad se vuelve ms grave al existir un punto de fallo que afecta a varias aplicaciones a la vez. La seguridad es prcticamente igual que en los servidores discretos ya que a los efectos de la aplicacin se encuentra en un ambiente dedicado y totalmente aislado. Una brecha dentro de una mquina virtual, en un sistema bien configurado, no afecta las otras mquinas. Un problema conocido en las implementaciones actuales lo constituye el manejo de los recursos, el hipervisor y/o sistema operativo debe ser lo suficientemente capaz de manejar los recursos compartidos y evitar que las mquinas abusen del hardware, lo cual afecta directamente a las otras. La capa de abstraccin incluye cierta carga extra en el procesamiento, por lo que se requiere un poco ms de potencia que si se implementara directamente sobre hardware real. Se logra la consolidacin del centro de datos (menos equipos) que disminuye el costo de funcionamiento. Se ha demostrado un aumento de la utilizacin del hardware de alrededor del 35% antes de virtualizar a ms del 70% luego de la virtualizacin. En grandes empresas la consolidacin aporta directamente al aumento de la capacidad de los grandes CPDs y en las pequeas se potencia

ms la disminucin de los costos. Un ejemplo prctico lo constituye el nodo del Ministerio de la Informtica y las Comunicaciones donde todos los servicios se encuentran virtualizados, utilizando virtualizacin completa, mediante la plataforma VMware vSphere.

2.2.5

Supercomputadora

Son mquinas muy grandes, con cientos de procesadores trabajando en paralelo y buses de interconexin de alta velocidad. Una variante ms asequible lo constituyen los clsters de alta velocidad de procesamiento donde estos procesadores se encuentran en mquinas comunes que se interconectan por un bus externo de alta velocidad y baja latencia. Fueron las primeras computadoras enfocadas a las grandes necesidades, pioneras de los que se conoce como supercomputing. Son utilizadas generalmente por centros de investigacin para la resolucin de grandes problemas y simulaciones. No acostumbran a usarse para brindar servicios en general, entre otros, por su gran costo. El software que corre en estos sistemas suele ser diseado expresamente para estos, ya que se requiere tomar medidas durante el diseo y programacin para explotar el gran paralelismo. Se utiliza un middleware, como la interfaz de paso de mensajes (MPI) o la mquina virtual paralela (PVM) para lograr el intercambio entre procesadores. Son sistemas ciertamente flexibles con grandes capacidades de hardware siendo muy fcil la movilidad de las aplicaciones entre los procesadores por parte del planificador. Escala en extremo para ser capaz de manejar los grandes volmenes de instrucciones y datos que procesan. Producto del gran paralelismo son altamente disponibles al existir grandes cantidades de hardware estrechamente interconectado. Son sistemas poco seguros, siendo la separacin que impone el sistema operativo la nica que existe entre las aplicaciones. Son sistemas muy complejos de gestionar por la especificidad de cada uno. Se requiere un estudio del complejo hardware para ser capaz de administrarlo.

A mediados de los aos '80 apareci una nueva clase llamada mini supercomputadora que sustitua gran parte de los microprocesadores por procesadores vectoriales y durante los '90 el desarrollo de los microprocesadores las hizo irrelevantes. En los ltimos aos se retom el concepto y muchas veces se aaden coprocesadores (normalmente GPGPUs) a las supercomputadoras para lograr an ms potencia.

2.2.6

Mainframe

Parecidas a las supercomputadoras, compartiendo mucho de su historia, pero diseadas para uso general. Centradas en las necesidades comunes y no en la gran potencia de procesamiento. El hardware es muy parecido al de las supercomputadoras, con menos unidades de procesamiento, ms capacidad de entrada/salida, redundancia, chequeo y correccin de errores. Son utilizadas para sostener la operaciones crticas en las grandes

corporaciones. Son sistemas muy flexibles que pueden correr varios sistemas operativos, generalmente variantes de Unix y permiten mquinas virtuales a varios niveles. Son mquinas diseadas para escalar siendo posible soportar grandes cargas de trabajo. Implementan continuidad de negocio ya que generalmente son utilizadas para aplicaciones cruciales donde el tiempo fuera de servicio es muy costoso o catastrfico. Muy seguras corriendo las aplicaciones en mquinas virtuales e

implementando varias tecnologas de integridad de datos.

2.2.7

Grid Computing

A grandes rasgos consiste en llevar los principios del clster de alta potencia de procesamiento a gran escala. Las grids estn compuestas por mquinas no dedicadas, heterogneas y geogrficamente dispersas, interconectadas por redes LANs, WANs o la

Internet. Se utiliza el mismo middleware del clster, generalmente PVM, para el procesamiento paralelo. Gran flexibilidad ya que trata los procesadores estn totalmente virtualizados de forma que el trabajo se puede redistribuir entre ellos. Esta pensado para escalar al lmite, al disminuir la necesidad de bajas latencias y altas velocidades es capaz de crear arreglos increblemente grandes. Dado su gran tamao y la virtualizacin son capaces de brindar altos niveles de disponibilidad. Con este acercamiento aparecen problemas de seguridad. Las relaciones de confianza que existan entre el controlador y el miembro determinarn la seguridad que posean los datos intercambiados. Entre los problemas que pueden aparecer estn el abuso del controlador de los recursos del usuario o de la existencia de miembros malintencionados que alteren los resultados. Son sistemas muy grandes y difciles de gestionar por lo que se implementan mtodos automticos para esto. Una variante muy utilizada es CPU-scavenging, cycle-scavenging, cycle stealing o shared computing que consiste en crear una grid de recursos en desuso.

2.3

Almacenamiento

El almacenamiento es otro de los servicios que debe ofrecer un CPD, que debido a la creciente informatizacin de los procesos en las empresas se ha transformado en una actividad muy sensible. A grandes rasgos se debe respaldar la informacin y los mtodos de acceso a la misma, de forma que un fallo no implique la inaccesibilidad a la informacin. Medidas deben tomarse adems ante un evento de catstrofe, donde todos los medios locales se pierden irremediablemente para lo que una copia lo ms actualizada posible se hace necesaria.

2.3.1

Redundancia local de datos

El trmino muy conocido RAID, es un acrnimo para Arreglo Redundante de

Discos Independientes. Consiste en una tecnologa para aumentar la fiabilidad a travs de la redundancia y/o las velocidades de transferencia a travs sel acceso paralelo. Utiliza la combinacin de varios discos en una unidad lgica, donde los datos se distribuyen en una de las varias formas llamadas niveles RAID. Es la tcnica de redundancia local por excelencia utilizada en el mundo. Existen niveles estandarizados que emplean bandas, reflejos, o paridad. Se nombran RAID, seguidos por un nmero de una cifra, as tenemos RAID 1, RAID 2, etc. Estos niveles requieren del uso de medios de igual tamao, en caso de utilizar discos de diferente capacidad, el tamao del disco ms pequeo ser lo que se utilizar de todos los miembros. Los niveles RAID estndares hasta el momento incluyen: RAID 0, que consiste en la creacin de bandas de bloques; los bloques se van escribiendo secuencialmente en cada miembro del arreglo, de forma que para leer o escribir una secuencia de los mismos se accede a cada disco de forma secuencial. Con esto se mejoran las velocidades y se construye un solo espacio de la suma de todos los dispositivos. En detrimento aumenta la razn de fallo del arreglo y el fallo de un disco provoca que todos los datos se pierdan. El tamao mnimo del arreglo es de 2 discos. RAID 1 utiliza discos como reflejos de otro, una lectura se puede realizar de todos los dispositivos (por lo que se puede leer de forma secuencial de todos a la vez) y la escritura debe hacerse hacia todos los dispositivos, brindando tolerancia a fallos y aumentando la velocidad de lectura. En sistemas operativos bien configurados no se ve afectacin a la velocidad de escritura (que es igual a la del disco ms lento). Tolera la prdida de discos hasta que quede 1. Solo se puede utilizar el espacio de un disco fsico ya que el resto est reservado para mantener copias. El tamao mnimo del arreglo es de 2 discos. RAID 2, RAID 3 y RAID 4 son arreglos de al menos 3 discos con paridad dedicada y bandas a diferentes niveles (bit, byte y bloque respectivamente). Se reparte el espacio en 2 discos y el 3 ro se dedica a la paridad. La velocidad de lectura mejora al igual que en el nivel 0 y la velocidad de escritura est afectada por el clculo y escritura de la

informacin de paridad, siendo el 3 er disco un cuello de botella. No son configuraciones usadas o soportadas en general. RAID 5 es muy parecido al RAID 4 pero la informacin de paridad se almacena junto a los datos, de forma que se elimina el cuello de botella del disco de paridad. El tamao mnimo del arreglo es de 3 discos y tolera el fallo de 1. El espacio equivalente a un disco est reservado para informacin de paridad, aunque distribuido entre todos los miembros. La velocidad de lectura puede afectarse por la imposibilidad de hacer lecturas secuenciales al encontrarse informacin de paridad intercalada con los datos y la velocidad de escritura se ve afectada por el clculo y escritura de la paridad en cada acceso. RAID 6 consiste en un RAID 5 extendido que utiliza 2 copias de la informacin de paridad, siendo capaz de tolerar la prdida de 2 discos. El tamao mnimo del arreglo es de 4 discos. Se utiliza para discos grandes y activos donde los tiempos de reconstruccin del arreglo suelen ser grandes, quedando el sistema vulnerable a otro fallo por demasiado tiempo. Es posible anidar estos niveles (conocido tambin como RAID hbrido), prctica bastante comn, y se utilizan entonces nmeros de ms de una cifra para denominarlos o se utiliza un signo + entre ellos, el orden de los dgitos es el orden es que es construido el arreglo y no es comn encontrar ms de dos niveles. Entre los ms utilizados estn el RAID 0+1 que consiste en un espejo de bandas, lo cual brinda mayor velocidad, pero solo es tolerante al fallo de 1 disco, o ms mientras sean de la misma banda. La mitad del espacio est reservada como reflejo. El RAID 10 por otro lado hace bandas de espejos, con lo cual se aumenta la velocidad y tolera el fallo de 1 disco, o ms mientras los discos no pertenezcan al mismo espejo. Igualmente la mitad del espacio est reservada como reflejo. El RAID 51 es un espejo de RAID 5, con lo cual se le brinda seguridad extra a los datos del arreglo. Aqu ms de la mitad del espacio est reservada para reflejo y paridad. Existen niveles no estndares, generalmente propietarios, los cuales posibilitan

configuraciones especiales. Estos niveles son poco soportados en comparacin con los estndares por lo que es muy posible incurrir en el encierro de proveedor[3]; es por esto que se deben analizar las necesidades y utilizarlo solo cuando no exista otra posible solucin. La implementacin de estos niveles puede ser a nivel de hardware o de software. Las implementaciones por software, sobre todo las que calculan paridad, hacen uso de los recursos del procesador para realizar las operaciones, disminuyendo el rendimiento del sistema. Las de hardware, suelen ser difciles de actualizar y por lo general no son compatibles entre s, por lo que es muy frecuente caer en el encierro de proveedor. Inclusive, productos de un mismo fabricante pueden tener implementaciones diferentes hacindolos incompatibles entre s. Para los niveles 0 y 1, donde no se producen clculos, las implementaciones por software suelen ser ms ventajosas. Algunos administradores de volmenes y sistemas de archivos tambin implementan algunos de estos niveles. En Linux la implementacin por excelencia suele ser el controlador md, que soporta los niveles 0, 1, 4, 5, 6 y todas las anidaciones, siendo parte de muchas de las distribuciones. En Windows se utilizan los discos dinmicos que son capaces de hacer arreglos de tipo 0, 1 y 5. Otra implementacin a destacar es DRBD, un mdulo para el ncleo de Linux que implementa RAID 1 sobre un enlace de red. En este caso uno de los discos se encuentra conectado directamente a un bus local (Conexin Serie de Dispositivo Avanzado -PATA, por sus siglas en ingls-, SATA, Interfaz de Sistema para Pequeas Computadoras -SCSI, por sus siglas en ingls-, etc.) y el otro est en otro nodo de la red. La rplica se realiza mediante mensajes a travs del enlace, siendo configurable qu tan estricto se comportar para la proteccin de los datos. Este modelo trae un nuevo grupo de problemas al existir tanta distancia (en cuanto a elementos intermedios) entre los dispositivos de almacenamiento. Es capaz de utilizar cualquier dispositivo de bloques como medio de almacenamiento y a su vez provee un dispositivo de bloques virtual.

2.3.2

Volmenes

Los volmenes son la herramienta por excelencia para la administracin y distribucin del espacio de almacenamiento disponible. El funcionamiento bsico consiste en el establecimiento de unidades bsicas llamadas extensiones (extents). En el dispositivo de almacenamiento se crean volmenes fsicos que pueden ocupar el disco completo o ser particiones, los cuales contienen un nmero de extensiones fsicas. Un grupo de volmenes es una coleccin de extensiones formada al agregar a este volmenes fsicos, constituyendo un espacio disponible. Se establecen entonces extensiones lgicas, las cuales generalmente se relacionan uno a uno con las extensiones fsicas. Estas se agrupan en volmenes lgicos, los cuales pueden utilizarse como dispositivos de bloques, creando sistemas de archivos sobre estos o utilizndolo como espacio de intercambio. Es posible tambin crear espejos, en los cuales una extensin lgica se relaciona con dos extensiones fsicas, preferiblemente en dispositivos diferentes, de forma que la misma informacin se encuentre en dos dispositivos diferentes, funcionando como RAID1. Otra funcionalidad se logra cuando se le agrega soporte copiar al escribir (COW, por sus siglas en ingls) a cada extensin lgica, llamados fotografas (snapshots), utilizando una tabla COW donde se almacena la extensin lgica antes que se escriba en esta. El sistema luego puede reconstruir la versin original del volumen lgico superponiendo la tabla sobre el volumen actual. La compaa Veritas (actualmente Symantec) posee un administrador

propietario conocido como Veritas Volume Manager (VVM o VxVM) capaz de funcionar en diferentes versiones de Unix y Windows. El sistema operativo HPUX trae una versin modificada de este como su administrador de volmenes. El Administrador de Volmenes Lgicos (LVM, por sus siglas en ingls), en la lnea 2.6 del ncleo de Linux, est implementado como un mapeador de dispositivos. Es un simple esquema para crear dispositivos de bloques virtuales y mapear su contenido a otro dispositivo de bloques. Los metadatos se

almacenan en la cabecera de todos los volmenes fsicos, por lo que cada volumen fsico cuenta con toda la informacin de su grupo de volmenes. Las herramientas de administracin trabajan en el espacio de usuario y se utilizan para manejar los mapeos y reconstruir su estado a partir de los metadatos en disco. El Administrador de Discos Lgicos (diskmgmt.msc) es una implementacin propietaria desarrollada por Microsoft y Veritas para Windows que fue introducida con el sistema operativo Windows 2000. Este distingue dispositivos de almacenamiento en bsicos y dinmicos, estando los primeros poblados de particiones y los segundos de volmenes. No es posible mezclar particiones y volmenes dentro de un mismo disco. Los metadatos, en discos que utilizan registro de arranque maestro (MBR, por sus siglas en ingls), se almacenan en un espacio de 1 MiB al final del disco y el resto del disco se convierte en una particin donde se almacenan los volmenes. En caso de que se utilice tabla de particiones GUID (GPT, por sus siglas en ingls) se crean dos particiones, una que contiene los metadatos y otra que almacena los volmenes. Es posible convertir discos bsicos en lgicos de forma muy sencilla, utilizando el administrador, no siendo un proceso sencillo el inverso. Los discos dinmicos solo son utilizables en versiones posteriores del Windows 2000, excluyendo Windows XP Home Edition y Windows Vista Home (tanto Basic como Premium). Estos discos tambin habilitan la posibilidad de utilizacin de RAID por software. Vinum es el administrador de volmenes por excelencia de FreeBSD, aunque existen versiones para otras variantes de BSD. Mezcla adems RAID por software siendo capaz de soportar esquemas RAID 0, 1 y 5.

2.3.3
ingls) y

Volmenes compartidos
consiste en alargar la distancia entre el dispositivo de

Esta tcnica es la base de las redes de almacenamiento (SAN, por sus siglas en almacenamiento y el consumidor del mismo, as como desacoplarlos. La solucin ms simple puede ser ATA sobre Ethernet (AoE, por sus siglas en ingls) la cual es un protocolo de red diseado para acceder a dispositivos conectados mediante Conexin de Dispositivo Avanzado (ATA, por sus siglas en ingls) tales como PATA o SATA a travs de una red Ethernet. Est

estandarizado en un documento de ocho pginas[4], las cuales son suficientes para explicar el encapsulamiento de los mensajes ATA en las tramas Ethernet as como los simples mtodos de control que implementa[5]. Otra posibilidad es utilizar comandos SCSI, muy comunes en ambientes de servidores. HyperSCSI es un protocolo de red para enviar y recibir estos comandos sobre una red Ethernet. No tuvo gran aceptacin por parte de los proveedores comerciales, entre otras cosas, porque no est estandarizado. Otra posibilidad es iSCSI, que es uno de los estndares ms conocidos y generalmente el punto de entrada; consiste bsicamente en transmitir comandos SCSI sobre arquitectura de Internet (TCP/IP, por sus siglas en ingls) utilizando las facilidades de la pila (stack) para el manejo del trfico[6]. Una evolucin la constituy, en su momento, la tecnologa Fibre Channel (FC) que empaquet los comando SCSI en datagramas y defini toda una pila desde capa fsica hasta red. Fibre Channel sobre TCP/IP (FCIP) es una adaptacin de Fibre Channel que utiliza tneles en redes IP para conectar tejidos ( fabrics), generalmente utilizada para conectar redes FC mediante una WAN. Diferente es iFCP que extrapola las facilidades de FC a la tecnologa IP, sustituyendo las capas desde fsico a red por la pila TCP/IP. Fibre Channel sobre Ethernet (FCoE) encapsula las tramas de FC sobre redes Ethernet; sustituye las capas FC0 y FC1 de la pila FC por Ethernet, evitando las caras interfaces FC por las comunes Ethernet a cambio de menos facilidades y confiabilidad. En comparacin, la pila Fibre Channel se dise desde el principio con el problema del almacenamiento en mente, de forma que tiene funcionalidades muy especficas de este tipo de actividad. Desde su nacimiento se persiguieron la alta velocidad y las bajas demoras, siendo generalmente tecnologa de punta y por consiguiente muy cara. La utilizacin de Ethernet para almacenamiento se ha hecho posible en los ltimos tiempos dada la evolucin de la tecnologa, con altas velocidades y menores demoras. No obstante esta se dise como una red de propsito general por lo que no provee funcionalidades requeridas por la actividad de almacenamiento, las cuales deben implementarse en capas superiores. Las soluciones que utilizan las redes TCP/IP son independientes del medio fsico, estas por lo general se utilizan para enlaces de gran distancia (donde se

deben atravesar varias redes) y aumentan la cantidad de carga no til, la latencia y la potencia de procesamiento necesaria. No obstante, la capacidad, rapidez y demoras de la red pueden definirse mediante el diseo de la red subyacente, por lo que no constituye una deficiencia en si. Comparadas con las implementaciones sobre Ethernet s estn en desventaja en cuanto a la potencia necesaria aunque son superiores en cuanto a la complejidad que pueden alcanzar.

2.3.4

Sistemas de archivos de disco compartido

Un problema del almacenamiento compartido lo constituye el sistema de archivos. Los sistemas de archivos tradicionales como Tabla de Asignacin de Archivos (FAT, por sus siglas en ingls), Sistema de Archivos Extendido (EXT, por sus siglas en ingls) y Sistemas de Archivos de Nueva Tecnologa (NTFS, por sus siglas en ingls) estn diseados para ser accedidos por un solo nodo. Cuando varios nodos tienen acceso a un mismo sistema de archivos aparecen problemas que los tradicionales no enfrentan. La principal solucin la constituye el administrador de bloqueo, el cual media el acceso evitando que la informacin se corrompa. Dentro de estos sistemas de archivos se pueden diferenciar dos tipos, los asimtricos, donde los datos se escriben directo a la SAN, pero los metadatos se dirigen a un solo nodo; y los simtricos donde cada nodo escribe tanto los datos como los metadatos a la SAN. Estos ltimos son de mayor inters para una pequea empresa ya que necesitan menos tipos de nodos (todos los nodos son iguales) por lo que es ms sencilla la redundancia. El Sistema de Archivos de Clster de Oracle versin 2 (OCFS2, por sus siglas en ingls) es un sistema de archivos de disco compartido desarrollado por la Corporacin Oracle y licenciado bajo la Licencia Pblica General de GNU (GPL, por sus siglas en ingls), disponible en el ncleo de Linux a partir de la versin 2.6.16. Esta versin incluye las funcionalidades de la Interfaz de Sistema Operativo Portable de Unix (POSIX, por sus siglas en ingls). Utiliza un administrador de bloqueo distribuido propio y simple llamado O2DLM. Tiene como limitaciones que un directorio solo puede tener 32000 subdirectorios y el tamao mximo del sistema de archivos es 16 TB[7].

Otro sistema de archivos es el Sistema de Archivos Global versin 2 (GFS2, por las siglas en ingls) desarrollado por Red Hat (anteriormente por Sistina Software) y publicados bajo la GPL. Est disponible en el ncleo de Linux a partir de la versin 2.6.19. Presenta varias mejoras en comparacin con la versin anterior, GFS, aunque el formato en disco es muy parecido. Utilizan un administrador de bloqueo llamado Administrador de Bloqueo Distribuido (DLM, por sus siglas en ingls). Tiene como limitacin que el tamao mximo del sistema de archivos es de 25 TB[8]. En general ambas soluciones implementan la mayora de las facilidades de los sistemas de archivos modernos como registro por diario, extensiones, compatibilidad POSIX, etc. Sistema de Archivos de Mquina Virtual (VMFS, por sus siglas en ingls) es el sistema de archivos de VMware usado en sus productos ESX Server y la suite VMware vSphere. Diseado para almacenar los ficheros de las mquinas virtuales, el bloqueo se realiza por fichero y crece hasta un tamao mximo de 64 TB. Est soportado solo por los productos VMware, existiendo un controlador de cdigo abierto que permite acceso de solo lectura (mantenido por Fluid Operations AG).

2.3.5

Almacenamiento integrado

Existen proveedores de almacenamiento que emplean algunas de las tecnologas expuestas y crean dispositivos que son relativamente fciles de configurar e instalar, Dichos disminuyendo dispositivos el tiempo ser necesario o para la de implementacin. pueden NAS servidores

almacenamiento que constituyen una SAN. Otra posibilidad consiste en alquilar el espacio a terceros que se dedican a proveer almacenamiento que cumpla ciertos parmetros, para lo cual utilizan las tecnologas expuestas. Aunque existe demanda para este servicio no ha podido despegar an por la sensibilidad a las demoras, las cuales aumentan demasiado con la distancia.

2.3.6

Mecanismos para la disponibilidad ante catstrofes

La proteccin contra catstrofes generalmente sugiere la existencia de un

centro igual, o de una copia ntegra de los datos del centro. Para protegerse, dichas instalaciones deben compartir el ambiente lo menos posible (diferentes regiones geogrficas, pases, continentes, etc.)[9]. Los enlaces que los unan entonces no sern los ms rpidos e inmediatos (comparados con los enlaces dentro del centro), por lo que mantener una copia actualizada puede tornarse imposible. Realizar una transferencia eficiente es la clave para poder mantener actualizado el respaldo. Una de las soluciones la constituye rsync, una aplicacin y protocolo de red que funciona en Unix, Linux y Windows y que sincroniza ficheros y directorios entre dos nodos. Minimiza la transferencia de datos mediante el uso de una codificacin delta. Adems combina la librera zlib para comprimir los envos, disminuyendo an ms el volumen de datos y funciona sobre enlaces SSH para una encriptacin de la transmisin[10]. Otra posibilidad es la Compresin Diferencial Remota (RDC, por sus siglas en ingls) que es un algoritmo de sincronizacin cliente-servidor que permite sincronizar el contenido de dos ficheros comunicando solo la diferencia entre ellos. Fue introducido con Windows Server 2003 R2 y se incluye con las versiones posteriores del sistema operativo[11].

2.4

Red

El tercero de los aspectos a considerar lo constituye la red, existen varias tecnologas que pueden ser explotadas en el entorno de un centro de datos para poder lograr los parmetros de calidad requeridos. Para los enlaces existe la unin de canales, agregacin de enlaces, trunking o teaming, siendo todos lo mismo pero con nombres diferentes en cada contexto. Consiste en unir varios enlaces fsicos (puertos) en un solo enlace lgico (tronco). El Instituto de Ingenieros Elctricos y Electrnicos (IEEE, por sus siglas en ingls) defini un estndar para este propsito nombrado 802.1AX (antiguamente 802.3ad) que utiliza tramas especiales para que los extremos negocien y administren el enlace. Con esto se logra redundancia y se protege de fallos fsicos, al fallar un puerto solo se pierde el ancho de banda que este aportaba y solo se experimenta desconexin al fallar todos los puertos del tronco. Del lado del servidor se puede utilizar el mdulo bonding del ncleo

Linux o tarjetas de red que soporten teaming en Windows. Los dispositivos de conectividad requieren de la apilacin .Consiste en la unin de varios equipos fsicos que pasan a constituir un solo equipo lgico, generalmente conmutadores de capa 2 ( switches), con la cantidad de puertos igual a la suma de todos los puertos de todos los equipos de la pila. El fallo de uno de los equipos desconecta los puertos que este aporta, el resto permanecen activos. Mezclado con la agregacin de puertos, se utiliza al menos un puerto de cada equipo para crear el tronco de forma que al fallar uno no se pierde el enlace (solo se degrada). En cuanto a la seguridad se puede utilizar el estndar IEEE 802.3q, tambin conocido como redes virtuales (VLANs, por sus siglas en ingls), que se emplea para diferenciar las redes dentro del mismo medio. Es posible consolidar varias redes sobre un mismo medio fsico sin sacrificar la seguridad que la separacin brinda y tambin se optimiza el uso del ancho de banda. Otro problema lo presentan las puertas de enlaces de las redes; cada red tiene una nica puerta de enlace por defecto configurada en sus clientes, convirtindose en un punto simple de fallo. Existen protocolos de redundancia de primer salto que resuelven este problema algunos libres y otros propietarios y que son, a saber: Hot Standby Router Protocol (HSRP), Virtual Router Redundancy Protocol (VRRP), Common Address Redundancy Protocol (CARP), Extreme Standby Router Protocol (ESRP) y Gateway Load Balancing Protocol (GLBP); en general funcionan manejando el trfico de Protocolo de Resolucin de Direcciones (ARP, por sus siglas en ingls) para que en cada momento la direccin IP de la puerta de enlace se asocie a un equipo funcional.

2.5

Computacin en la Nube y Servidor Privado Virtual

Existe la posibilidad de implementar una nube privada en el centro de datos o utilizar una nube pblica y prescindir del centro, conocido como computacin en la Nube. Esta tecnologa no plantea nada nuevo, sino que integra muchas de las tcnicas ya expuestas y presenta una interfaz de administracin y monitoreo muy til para el administrador. Combina la virtualizacin completa asistida por hardware con elementos de balance de carga y alta disponibilidad en una

solucin integrada y automatizada. La opcin de utilizar la nube pblica inclusive disminuye la necesidad de personal de administracin. Otra posibilidad consiste en prescindir de los recursos del centro de datos, comnmente mediante Servidor Privado Virtual (VPS, por sus siglas en ingls). As el centro de datos sera lgico y hospedado por un tercero, disminuyendo nuevamente gastos por concepto de administracin. Las soluciones que funcionan como alquiler tienen sus particularidades. Como toda relacin con terceros es importante el establecimiento de obligaciones y responsabilidades de la integridad, seguridad y disponibilidad de los datos durante la contratacin. Esta arquitectura tambin sugiere la existencia de un ancho de banda suficiente, seguro y altamente disponible hacia el proveedor de servicio.

2.6

Seleccin de las tecnologas

A partir de estas tcnicas generales, se pueden combinar las que respondan a los intereses de la empresa para formar as una solucin a la medida. Las supercomputadoras y la computacin grid se utilizan para problemas de mucha carga y trfico por lo que para el CPD en cuestin no tienen aplicacin, siendo posible descartarlos. Los mainframes proveen recursos de alta calidad (disponibilidad, deteccin y correccin de errores, etc.) que una pequea empresa no puede costear por lo que es posible desestimarlas. Los servidores discretos demostraron su ineficacia en la solucin que exista originalmente por lo que si no existe una situacin excepcional se pueden desestimar. La virtualizacin viene a resolver el problema de costo del an pequeo centro de datos, siendo vlida inclusive al convertirse en el gran centro de datos, por lo tanto la base de la solucin debe girar alrededor de esta. Para resolver su problema de disponibilidad se deben tomar elementos de los clsters de alta disponibilidad, creando un clster de alta disponibilidad de mquinas virtuales. Los elementos del clster de balance de carga no son requisito del CPD ni se

espera que lo sean en un futuro cercano por lo que pueden desestimarse.

2.6.1
Entre los

Virtualizacin
tipos de virtualizacin tanto la paravirtualizacin, como la

virtualizacin a nivel de sistema operativo, tienen muy poca aplicacin, por la incapacidad de correr como husped a los sistemas operativos Windows. Las soluciones que utilizan estas tecnologas no se tomarn en cuenta. Entre las soluciones de virtualizacin completa, las que requieren virtualizacin asistida por hardware no son capaces de funcionar sobre hardware comn. Est el caso extremo de VMware ESXi que requiere hardware especfico ya que solo funciona con ciertas controladoras de almacenamiento y red. Entre las opciones que por este concepto pueden obviarse se encuentran: OpenVZ FreeBSD Jail Xen VMware vSphere KVM Microsoft Hyper-V

Luego las implementaciones disponibles con virtualizacin implementada por software son VMware Server y Oracle Virtualbox. VMware Server (antiguamente GSX) es el producto de VMware Inc. destinado a servidores en las pequeas y medianas empresas. Es gratis y el soporte es comunitario. La comunidad no cuenta con el cdigo fuente por lo que no es capaz de aportar mejoras. Los desarrolladores lo descontinuaron y cesaron toda actividad relacionada con este en junio de 2011. El VMware Server corre sobre los sistemas operativos Windows y Linux y es capaz de explotar las extensiones de virtualizacin de Intel VT-x y AMD-V. Tiene diferencias, aunque pocas, entre las versiones Linux y Windows. En la versin de Linux se pueden almacenar las mquinas virtuales en directorios compartidos de Sistema de Archivo de Red (NFS, por sus siglas en ingls) y en la de Windows seran compartidos de Sistema de Archivos de Internet Comn

(CIFS, por sus siglas en ingls). Adems, la versin de Windows soporta la salva de mquinas virtuales en caliente, mediante el uso del Servicio de Fotografa de Volumen facilidad que no tiene la versin de Linux. La compaa Innotek G.m.B.h. desarroll el Virtualbox[12] como software de virtualizacin de escritorio, utilizando un sistema de negocio de software restringido, con una versin de cdigo abierto y otra propietaria que inclua soporte del Bus Serie Universal (USB, por sus siglas en ingls). La compaa fue comprada por Sun Microsistems que continu con el mismo sistema de negocio. Durante el transcurso de la versin 3 se le agreg una interfaz de soporte de Python que permita la extensin a travs de este lenguaje, y en la 3.2 se le agreg una interfaz de servicios web, para permitir la administracin remota. Adems se agreg la posibilidad de redirigir la entrada/salida de las mquinas virtuales a travs de Computacin Virtual en Red (VNC, por sus siglas en ingls) para la versin libre y de Protocolo de Escritorio Remoto (RDP, por sus siglas en ingls) para la propietaria. Otra facilidad aadida es la capacidad de importar y exportar mquinas virtuales en Formato de Virtualizacin Abierto (OVF, por las siglas en ingls) para su migracin a o desde otra plataforma (VMware, KVM, etc.). Sun fue adquirida por Oracle quien es el actual desarrollador del software. En la versin 4 se cambi el sistema fuente abierta/cerrada a una sola distribucin con posibilidad de extensiones, y las facilidades de servidor RDP y filtro USB fueron movidas a una extensin con licencia para uso solo personal o docente. Existen versiones para Linux, Windows, BSDs, Solaris y todos los sistemas para los que se quiera desarrollar una. El Oracle Virtualbox tiene la ventaja de estar empaquetado para las principales distribuciones de Linux por su naturaleza (cdigo abierto). El VMware Server no parece tener un futuro halagador al estar

descontinuado[13] y la fuente no estar en el dominio pblico por lo que se puede desestimar. Por todos estos elementos y la falta de variantes ser el Virtualbox el que se implemente en el CPD.

2.6.2

Alta disponibilidad

El Foro de Disponibilidad de Servicio (SAF, por sus siglas en ingls) es un consorcio que desarrolla, publica, educa y promueve especificaciones abiertas para sistemas altamente disponibles. Desarrolla dos especificaciones principales: la interfaz de plataforma de hardware, que abstrae el hardware del middleware de disponibilidad de servicio y los hace independientes; y la interfaz de aplicacin que estandariza la interfaz entre el middleware de alta disponibilidad del SAF y los servicios. En este caso se manejaran las mquinas virtuales como los recursos de alta disponibilidad que el clster brindara. En Linux se puede utilizar el software Pacemaker[14] (interfaz de aplicacin), empaquetado para las distribuciones ms utilizadas. Este se encarga del manejo de la informacin del clster (la unin lgica de los nodos, recursos, etc.) e interacta con la pila de virtualizacin. Heartbeat es uno de las posibles interfaces de plataforma de hardware[15], uno de los primeros tambin, y el gestor de Pacemaker. Se encuentra finalizado y no ser actualizado. La otra posibilidad la constituye openAIS/Corosync, el do que est siendo desarrollado activamente. No obstante no es aconsejable an utilizarlo en entornos de produccin. En Windows no hay implementacin conocida de las especificaciones del SAF por lo que el sistema operativo a instalar en la base deber ser una de las distribuciones de Linux utilizando Pacemaker y Heartbeat.

2.6.3

Almacenamiento

En el diseo de la solucin de almacenamiento se sugiere la aplicacin de varias tecnologas para lograr los parmetros necesarios. Se debe utilizar un arreglo RAID 1 para la particin del sistema operativo y as lograr que con el fallo de un disco no se desactive el nodo. Se utiliza DRBD para crear arreglos cclicos no coincidentes a travs del centro, los cuales se exportan mediante una de las tecnologas de volmenes compartidos, se agregan como volmenes fsicos en cada nodo y se consolidan en un solo volumen lgico sobre el cual se crea un sistema de archivos compartido.

Para no disparar los costos, los servidores de almacenamiento se fusionan con los servidores de mquinas virtuales en el mismo hardware, esto disminuye el rendimiento mximo del servidor de almacenamiento, pero aumenta la utilizacin de los equipos y evita la compra de ms hardware que muy probablemente se sub-utilizara. Esta unin mantiene el esquema de separar el almacenamiento del servidor de mquinas virtuales.

2.6.4

Especificaciones de la Red de Datos

Para las necesidades que se han venido acumulando en el centro de datos se hace imprescindible una red que opere al menos a 1 Gbps y tenga los parmetros de alta disponibilidad, flexibilidad y seguridad; lograrlos requiere la unin de varias tecnologas. El conmutador de capa 2 (switch), del cual dependen las conexiones del centro, debe ser redundante, para lo cual debe implementarse una configuracin de pila. Para completar la configuracin y evitar que el fallo de una conexin (cable, cable parche, conector, etc.) desconecte un nodo se utiliza la agregacin de enlace de forma que cada nodo tenga un enlace a cada switch. En cuanto a la seguridad, una segmentacin apropiada sera (Tabla 2.1): Red Conectividad Administracin Descripcin Red a la que se conectan las interfaces de administracin de los equipos de conectividad as como los servidores reales. Red de los administradores y equipos de administracin. nica entrada a los equipos de conectividad e interfaces de administracin en general.

AlmacenamientoPara trfico iSCSI, DRBD, etc Servicios Interna Salida Servidores virtuales que interactan con el usuario (ej: web) Trfico entre servidores virtuales, principalmente para acceder a servicios del backend (ej: base de datos) Enlace hacia Internet y/o centros secundarios

En la bibliografa se sugiere que el trfico de almacenamiento tenga un medio dedicado, de alta velocidad y baja latencia. Estos requerimientos estn muy ligados al uso de los servicios y se requiere un estudio del trfico para estimarlos. Es posible utilizar troncos Gigabit Ethernet para este propsito.

Se deben utilizar al menos dos encaminadores que soporten alguno de los protocolos de redundancia de primer salto y tambin los protocolos ya propuestos, como los IEEE 802.1AX y 802.3q. Se debe contar con cortafuegos que monitoreen cada enlace, por lo menos dos de estos, de forma que sea posible filtrar todo el trfico, para mayor seguridad. Es posible tambin que el cortafuegos se encuentre en el mismo equipo que el encaminador con lo cual solo debe duplicarse la configuracin de estos. Los enlaces de conectividad hacia la WAN/Internet deben ser al menos dos de cada tipo, preferiblemente de Proveedores de Servicio de Internet (ISPs, por sus siglas en ingls) diferentes y no dependientes, eliminando los puntos simples de fallos y evitando as que un problema en uno de los proveedores repercuta directa e irremediablemente en el CPD.

2.7

Aspectos de la infraestructura
disponibilidad y seguridad para que el CPD pueda

La infraestructura debe contar tambin con caractersticas de flexibilidad, escalabilidad, implementarlos. Se debe contar con dos tomas elctricas separadas e independientes con lo cual se evitan las interrupciones por reparacin o avera en una de ellas. En los casos de catstrofe es muy probable que ambas fallen por lo que se debe contar con una fuente local (generador disel, fuentes de energa renovable, etc.). Deben existir respaldos de batera que funcionen durante la transicin entre fuentes y soporten el tiempo suficiente. Deben instalarse dos circuitos independientes y a cada cual se conectar al menos uno de cada tipo de equipo, logrando la total redundancia elctrica. Los equipos de climatizacin deben ser igualmente redundantes, con al menos dos equipos, conectados uno a cada fuente, evitando el sobrecalentamiento al fallar uno de los equipos o la oscilacin al fallar una fuente elctrica. La forma ms sencilla de sustraer los datos, en el momento de escribir este texto, es irrumpiendo en el CPD. Estudios demuestran que no se le da la importancia que lleva al acceso fsico al centro provocando este estado. La ingeniera social suele ser un mtodo muy efectivo para lograr tales fines. El correcto confinamiento as como un sistema de acceso respetable son

necesarios para lograr un mnimo de seguridad.

2.8

Conclusiones

Se realiz un estudio del estado del arte en las tecnologas relacionadas con el CPD. A partir de ah se hizo un anlisis crtico de las facilidades y problemas que brindara su implementacin para definir una solucin. Se seleccion la virtualizacin como diseo base dada la concordancia que tiene con los problemas actuales del CPD, como la necesidad de consolidacin. Se le agregaron elementos de alta disponibilidad tomado de los clsters de este tipo logrando as un clster de alta disponibilidad de mquinas virtuales. Se seleccionaron tcnicas de almacenamiento acordes a los parmetros que requiere el CPD. Se apilaron varias tecnologas para explotar sus bondades individuales y palear sus problemas. Se propusieron tecnologas de redes para la implementacin de un esquema de red capaz de estar acorde con los parmetros requeridos sin incurrir en grandes gastos. Por ltimo se analizaron tcnicas a implementar en la infraestructura que brinden un entorno acorde a las necesidades del CPD.

Captulo 3 :
3.1

Solucin propuesta

Introduccin

Una vez estudiada y seleccionada la tecnologa a utilizar se procedi a la implementacin de la solucin (instalacin y configuracin de los dispositivos). Se expondrn los aspectos en que se analiz la implementacin estando as las arquitecturas de servidores, almacenamiento, virtualizacin y gestin.

3.2

Arquitectura de Servidores

Los trabajos en el centro comenzaron con la actualizacin del hardware, a partir de los recursos con que se contaban, se concluy con cuatro mquinas en el centro: metal-l es un servidor profesional HP ProLiant ML150 G5 (Intel Xeon E5205 @1.86, 1GB de RAM RDDR2) linkin-p DDR2. ramms-t es una mquina Intel Desktop Board DG33BU con un microprocesador Intel Core 2 Duo E6550 @2.33GHz, 8GB de memoria RAM DDR2. lacuna-c es una Dell Inspiron 530 (Intel Pentium E2160 @1.8GHz, 4GB de RAM DDR2) Se instal el sistema operativo CentOS en su versin 6 el cual, derivado de Red Hat Enterprise Linux, mantiene compatibilidad binaria con este. Se escogi por ser una distribucin de Linux con soporte a largo plazo, importante en este caso ya que los nodos no brindan servicios directamente aunque muchos dependen de este. Esta decisin alarga los ciclos de reinstalacin y disminuye el costo de administracin de la infraestructura. El soporte es comunitario, aunque existe la posibilidad de pagar la versin de Red Hat para obtener soporte profesional. Las arquitecturas, como elementos funcionales del centro, se concibieron de es una mquina (motherboard) Asus P5KPL-CM con un

microprocesador Intel Pentium 4 HT @3GHz, 4GB de memoria RAM

forma separada, lo cual brinda una mejor perspectiva de las bondades y problemas de la implementacin. Por otra parte, en la prctica tanto el almacenamiento como el procesamiento se realiza sobre el mismo hardware, evitando el sobredimensionamiento y el aumento de los costos. Es importante tener en cuenta que un problema aadido consiste en que la reestructuracin se hace sobre una plataforma en uso y detenerla puede impactar de forma sensible en los procesos de la empresa. Adems no se trata de un sistema nuevo sino de una solucin que ya existe con sus mecanismos y datos, los cuales ser necesario compatibilizar y/o migrar.

3.3

Arquitectura de Almacenamiento

A los servidores se le instalaron nuevos discos duros, que aunque no eran los que se deseaban eran los que estaban disponibles, quedando la configuracin: metal-l con 1 HDD Seagate de 320GB y otro HDD Seagate de 500GB linkin-p 2 HDDs Seagate de 320GB. metal-l 2 HDDs Seagate de 320GB lacuna-c HDD Seagate de 500GB y 1 HDD Seagate de 320GB.

Los dos NAS Maxtor Shared Storage II de 500GB se mantienen en el centro de datos. En cada nodo se cre un pequeo volumen (10 GiB) RAID 1 entre los dos discos locales para hospedar el sistema operativo y los programas necesarios. Con esto el fallo de un disco no inhabilita la utilizacin del nodo, siendo posible arrancar el sistema desde el otro. Para total redundancia debe instalarse el gestor de arranque en ambos discos (los instaladores de los sistemas operativos lo instalan en un solo disco por defecto). Una pequea particin de intercambio en cada disco de 1 GiB. Con esto se tiene un espacio de intercambio total de 2 GiB, ms de lo que generalmente utilizara un sistema operativo. El resto de cada disco se configura en RAID 1 mediante DRBD con otro nodo en forma cclica, siendo posible el fallo de un nodo. Existen 2 configuraciones comnmente usadas para DRBD: el protocolo A que notifica como operacin

finalizada cuando ha llegado al disco local y a la cola TCP local y el protocolo C donde la notificacin es enviada cuando llega a ambos discos. En el segundo se requiere una red de baja latencia o la velocidad de entrada/salida se afecta de sobremanera, por lo que para el caso de la red con que se cuenta se configur el protocolo A. Es importante que se atiendan los discos fallidos ya que al fallar uno y su respaldo la informacin se vuelve irrecuperable. Con esto se logra un

Figura 3.1: Esquema de almacenamiento

respaldo de los datos del centro, siendo posible acceder a estos hasta teniendo un fallo simple. Para flexibilizar el acceso se crean volmenes fsicos sobre los dispositivos lgicos DRBD y se exportan mediante AoE. Todos estos dispositivos en red se consolidan en un volumen de grupo en cada nodo. Este grupo de volmenes, accesible por cada nodo, constituye el espacio de almacenamiento del centro. Para utilizar el espacio de este grupo de volmenes se crea un volumen lgico el cual se puede tratar como un dispositivo de bloques. Se crea un sistema de archivos OCFS2 sobre este. Durante la creacin del sistema de archivos se debe especificar la cantidad de nodos que lo montarn, en este caso 4. Es importante que en esta fase el trabajo se haga desde un solo nodo ya que la implementacin LVM2 no tiene administrador de bloqueo lo cual puede corromper la configuracin. En este punto ya se puede montar el sistema de archivos en los nodos de procesamiento y comenzar a utilizar el espacio disponible. Un esquema lgico de esta distribucin se puede apreciar en la figura 3.1.

3.4

Arquitectura de Virtualizacin

Se concibi un esquema donde el procesamiento se virtualiza a travs de un hipervisor, y se tiene acceso a redes de interconexin entre los nodos y almacenamiento compartido como se muestra en la figura 3.2. Se instal el hipervisor Virtualbox a travs del repositorio de Oracle, el cual tiene paquetes para Red Hat Enterprise Linux, evitando as la compilacin y teniendo la posibilidad de obtener actualizaciones. Se habilit el servicio web de administracin, para tener un mtodo a bajo nivel de administracin de las mquinas virtuales. Para manejar este acceso se utiliza el software phpvirtualbox. Se instal el grupo de software de alta disponibilidad en su combinacin Pacemaker/Heartbeat utilizando el repositorio de Cluster LLabs. Se desarroll un agente de recurso, el cual an es cdigo inestable e incompleto. Al concluir su desarrollo ser publicado y encaminado a integrarse a Pacemaker. A partir de aqu se cuenta con un ambiente capaz de manejar mquinas

virtuales con aspectos de alta disponibilidad. Las nuevas mquinas se copian al espacio de almacenamiento y se agregan al clster como recursos altamente disponibles. La operacin inversa se realiza para eliminarlas, se elimina el recurso del clster y luego se elimina del almacenamiento.

Figura 3.2: Los nodos de virtualizacin No se implementaron mecanismos para la creacin de mquinas virtuales al ser esta una infraestructura de produccin. Se asume que la creacin se har en ambiente de desarrollo y se agregarn al clster solo mquinas virtuales ya existentes. Las cargas en los servicios que se brindarn son pequeas, pero se requiere de numerosas aplicaciones corriendo de forma concurrente en el CPD. Es por esto

que los recursos que se asignan a las mquinas virtuales se establecen en funcin de las sugerencias de los desarrolladores del sistema operativo husped y se analizan los casos puntuales donde una aplicacin pueda necesitar ms recursos. En general las mquinas virtuales que corren algn tipo de Linux se configuran con 512 MiB de memoria RAM y las que ejecutan una versin de Windows con 1 GiB. A cada mquina se le asigna un solo ncleo virtual, siendo problemtico integrar alguna que se halla instalado originalmente con varios.

3.5

Arquitectura de Red

En cuanto al hardware el switch fue sustituido por un Allied Telesys 8000S de 26 puertos (24 Fast Ethernet + 2 Gigabit Ethernet). Se recable el centro utilizando las normas de cableado estructurado, adems de instalarse 16 enlaces entre el estante de los servidores y el gabinete de conectividad. Se

Figura 3.3: Diagrama de la red fsica

agregaron 2 mquinas para hacer funcin de encaminadores las cuales consisten en: night-w es una mquina IBM 6579-LBU (Pentium III @700 MHz con 64 MiB de RAM SDR) after-f es una mquina (motherboard) Foxconn (Pentium III @600 Mhz con 128 MiB de RAM SDR) Estos se conectan como se muestra en la figura 3.3. Se configuraron 6 troncos, uno a cada mquina, logrando un ancho de banda en cada nodo de 200Mbps y redundancia ante el fallo de un enlace. Aunque para el trfico entre redes esto es ms que suficiente, segn se ha visto en la prctica, para el trfico de almacenamiento esto es insuficiente. Es posible mejorar estas velocidades utilizando un switch Gigabit Ethernet e instalando controladoras de red del mismo tipo en sustitucin de las actuales Fast Ethernet, con lo cual se alcanzara la recomendada velocidad de 2 GBps. Cada mquina servidor cuenta con una controladora Gigabit Ethernet integrada que en el caso de las mquinas encaminadoras son Fast Ethernet. La red se segment para acomodar los distintos tipos de trfico que concurren en el centro como se puede ver en la tabla 3.1 y la figura 3.4. Tabla 3.1: Red Hardware Administracin Almacenamiento Servicios Interna Pblica Enlace WAN 203 209 204 201 202 200 299 VLAN ID Direcciones 192.168.30.0/25 192.168.30.128/25 ------------192.168.16.0/24 192.168.17.0/24 200.55.152.40/29 192.168.31.2/29

Para comunicar las redes se utiliz Vyatta, una distribucin de Linux, sobre mquinas de muy bajas prestaciones. Para un centro de este tipo los

requerimientos de hardware para el encaminador son muy modestos por lo que fue factible la decisin. Vyatta es una distribucin orientada a equipos encaminadores que implementa

Figura 3.4: Diagrama de la red lgica

muchas tecnologas y mtodos utilizados en este ambiente. La configuracin se realiz utilizando la interfaz de lnea de comandos, lo cual facilit la documentacin del proceso. A travs de esta interfaz se configura el tronco que transporta el trfico desde el switch y se definen las puertas de enlace en cada VLAN. Se configuran los servicios de ssh y SNMP para administracin remota y monitoreo respectivamente, y NAT para el acceso de algunos servicios a Internet. Se implementan polticas de seguridad a travs del cortafuegos siendo posible filtrar todo el trfico que se mueve entre redes. Se configur la conexin con el modem/encaminador hacia la WAN a travs de una red IP con mscara 30. Se instalaron las rutas, tanto en los encaminadores Vyatta como en el modem para lograr el flujo de trfico entre ambas redes. A partir de este punto es posible la comunicacin entre los diferentes elementos del centro de datos as como el acceso a Internet y el resto de los nodos de la corporacin.

3.6

Arquitectura de Gestin

Las configuraciones se realizan de forma manual, siguiendo documentacin variada. Se almacenan, al igual de forma manual, en una base de conocimientos implementada en forma de wiki. Los cambios se realizan de forma manual a travs de las interfaces con ese propsito. El registro se lleva en forma de foro, donde las decisiones se discuten. Las herramientas de monitoreo son escasas contndose solo con grficos del trfico de la red implementados a travs de MRTG. Las fallas de hardware no detienen el funcionamiento por el diseo empleado y el arreglo de estas se hace de forma manual. Se cuenta con un sistema de gestin de incidencias para el registro de estos hechos. La seguridad contina gestionndose basado en las polticas y tcnicas descritas en el manual de seguridad del centro.

3.7

Conclusiones

La implementacin de la solucin de virtualizacin logr aportar una arquitectura flexible al CPD. Con esto tambin se logr consolidar los servicios que empezaban a ser muy numerosos para el pequeo CPD que exista. Las caractersticas de clster de alta disponibilidad resolvieron el problema de disponibilidad siendo capaz de tolerar la prdida de un nodo sin que esto signifique la prdida de un servicio. La arquitectura de almacenamiento resolvi la unificacin, aseguramiento y alta disponibilidad del espacio disponible en el centro. La flexibilidad lograda con la virtualizacin prepara al centro para los cambios siempre presentes en los pequeos CPDs. La solucin de red propuso un ambiente totalmente redundante y seguro que brindara estas bondades al trfico del CPD. El clster de Pacemaker combinado con Virtualbox, aunque mejora la disponibilidad, no logra evitar pequeas interrupciones asociadas a operaciones como el movimiento de las mquinas virtuales entre hardware. La arquitectura de almacenamiento ha demostrado ser muy compleja para el personal que opera el CPD. Es sin dudas el aspecto que ms tiempo necesita para preparar a los administradores. Los equipos con que se cuenta para la red no son capaces de satisfacer las necesidades. La falta de un par de conmutadores de capa 2 apilados crea en este un punto simple de fallo. As mismo la tecnologa utilizada, Fast Ethernet, no es capaz de brindar los anchos de banda requeridos por la arquitectura de almacenamiento. En general el esquema de gestin mejor aunque es insipiente comparado con las necesidades del CPD.

Conclusiones
Se requera un diseo brindara los niveles de flexibilidad necesarios para el funcionamiento ptimo del CPD. En este sentido se logr virtualizar el procesamiento a travs de un arquitectura de mquinas virtuales. A su vez en el almacenamiento se implementaron varias tcnicas, como el agrupamiento en un solo volumen de todo el espacio existente por separado y la capacidad de acceder a este desde cualquier punto del centro. La arquitectura de red brinda la capacidad, de forma lgica, de establecer nuevas redes, virtualizando as su despliegue. Por tanto se considera una solucin suficientemente flexible para el centro en cuestin. La escalabilidad es otro aspecto que se deba tener en cuenta, aunque no se esperaba el crecimiento de las cargas en las aplicaciones existentes era lo opuesto para la capacidad de hospedar nuevas aplicaciones. La utilizacin de la plataforma virtualizada provee la capacidad de hospedar un gran nmero de estas aplicaciones sobre el hardware existente. Existe la posibilidad de crear nuevas redes con poco trabajo en caso de que alguna aplicacin lo requiera. Los bajos anchos de banda provocado por la utilizacin de un conmutador de capa 2 de menos velocidad de la requerida afecta sensiblemente el desempeo de las aplicaciones, lo cual se agrava al aumentar el nmero de estas. En conclusin la escalabilidad se ve afectada por los no suficientes anchos de banda disponibles para el almacenamiento. Gran parte de las necesidades se enfocaban en la disponibilidad del servicio como requisito para el correcto funcionamiento de la empresa. Con la implementacin del clster mediante Pacemaker se aumenta de sobremanera el tiempo activo (uptime) de los servicios. El almacenamiento distribuido aporta tambin a la capacidad de tolerancia a fallos del CPD. La no existencia de conmutador de capa 2 redundante crea un punto simple de fallo y provoca la disminucin de la disponibilidad. As mismo la infraestructura no cuenta con elementos redundantes por lo que se ve afectado grandemente el funcionamiento del CPD. En general la solucin no es lo suficientemente disponible dada la ausencia de redundancia en cierto hardware de red. La seguridad es un aspecto clave para el trabajo de varios elementos de la empresa as como necesaria para todos en general. La virtualizacin completa

brinda el aislamiento necesario para

la ejecucin de las aplicaciones. La

segmentacin de la red asegura las transmisiones contra filtraciones y acceso de elementos no autorizados. La redundancia del almacenamiento brinda seguridad a los datos siendo capaz de resguardarlos de fallos. En general es una solucin segura pero no logra ser efectiva por los problemas que presenta la infraestructura subyacente.

Recomendaciones
Se recomienda la resolucin de los problemas referentes a la infraestructura que echan por tierra todas las bondades del diseo. El confinamiento y correcto control de acceso son aspectos imprescindibles para la seguridad del diseo. La fuente de energa alternativa mejorara la efectividad de la disponibilidad no siendo posible resolver el problema de los enlaces externos redundantes por la existencia de un solo proveedor en el pas. Adquirir el hardware de red necesario para implementar la propuesta de alta disponibilidad as como el ancho de banda que requiere el almacenamiento. El diseo e implementacin de un esquema eficiente y automatizado de gestin que disminuya las cargas de trabajo de los operadores y permita un mejor manejo del centro

Referencias
[1] Service Availability Forum. [Online]. Available: http://www.saforum.org/. [Accessed: 05-Sep-2011]. [2] ibm-vmware-virtual-smb-datacenter-in-a-box-whitepaper.pdf (Objeto application/pdf). . [3] Qu es el vendor lock-in - Economias. [Online]. Available: http://www.economias.com/2007-10-03/85/que-es-el-%E2%80%9Cvendorlock-in%E2%80%9D/. [Accessed: 13-Oct-2011]. [4] AoEDescription.pdf (Objeto application/pdf). . [5] Kernel Korner - ATA Over Ethernet: Putting Hard Drives on the LAN | Linux Journal. [Online]. Available: http://www.linuxjournal.com/article/8149. [Accessed: 13-Sep-2011]. [6] TUDP001.PDF (Objeto application/pdf). . [7] ocfs2-1_6-usersguide.pdf. . [8] redhat.com | Red Hat Global File System. [Online]. Available: http://www.redhat.com/gfs/. [Accessed: 15-Oct-2011]. [9] Tian, Data Center Disaster Recovery Plan for Businesses, 07-Abr-2010. [Online]. Available: http://smallbusiness-plan.net/data-center-disasterrecovery-plan-for-businesses/. [Accessed: 02-Jul-2011]. [10]man page rsync section 1. [Online]. Available: http://www.manpagez.com/man/1/rsync/. [Accessed: 15-Oct-2011]. [11]TR-2006-157.pdf (Objeto application/pdf). . [12]Changelog - VirtualBox. [Online]. Available: https://www.virtualbox.org/wiki/Changelog. [Accessed: 15-Oct-2011]. [13]VMware Server, Free Virtualization Download for Virtual Server Consolidation. [Online]. Available: http://www.vmware.com/products/server/overview.html. [Accessed: 15-Oct2011]. [14]Pacemaker - ClusterLabs. [Online]. Available: http://www.clusterlabs.org/wiki/Pacemaker. [Accessed: 15-Oct-2011].

[15]Heartbeat - Linux-HA. [Online]. Available: http://linuxha.org/wiki/Heartbeat. [Accessed: 15-Oct-2011].

Bibliografa ES.EBOX2010, eBox, http://doc.eboxplatform.com/es/intro.html#presentacion GUNTHER2007, Neil J. Gunther; Guerrilla Capacity Planning, A Tactical Approach to Planning for Highly Scalable Applications and Services LINUX2007, Linux Kernel Documentation http://www.kernel.org ATS94-2008, Management Software AT-S94 WEB Users Guide VLAN-MAN2010, Ubuntu Manpage: /etc/network/interfaces (vlan) - vlan extensions for the interfaces(5), http://manpages.ubuntu.com/manpages/hardy/man5/vlan-interfaces.5.html

Das könnte Ihnen auch gefallen