Sie sind auf Seite 1von 73

USO DE TECNOLOGÍAS DE VIRTUALIZACIÓN DE SERVIDORES EN EL LABORATORIO

DE SISTEMAS DE LA UNIVERSIDAD CATÓLICA DE COLOMBIA.

YULI KATERINE MENDEZ CONTREAS COD. 624355


DIANA KATERINE MERINO PINILLA COD. 624526

UNIVERSIDAD CATÓLICA DE COLOMBIA


FACULTAD DE INGENIERÍA
PROGRAMA DE INGENIERÍA DE SITEMAS
BOGOTA D.C.
2009

1
USO DE TECNOLOGÍAS DE VIRTUALIZACIÓN DE SERVIDORES EN EL LABORATORIO
DE SISTEMAS DE LA UNIVERSIDAD CATÓLICA DE COLOMBIA.

PRESENTADO POR:
YULI KATERINE MENDEZ CONTREAS COD. 624355
DIANA KATERINE MERINO PINILLA COD. 624526

PROYECTO DE INVESTIGACIÓN FORMATIVA

PROFESOR:
GERMAN CUBILLOS
ING. SISTEMAS

UNIVERSIDAD CATÓLICA DE COLOMBIA


FACULTAD DE INGENIERÍA
PROGRAMA DE INGENIERÍA DE SITEMAS
BOGOTA D.C.
SEPTIEMBRE 2009

2
UNIVERSIDAD CATÓLICA DE COLOMBIA FECHA
FACULTAD DE INGENIERÍA DE SISTEMAS Formato
F-062-05-001 29-10-2009
DIRECCIÓN DE INVESTIGACIÓN

FICHA DE PROYECTO DE INVESTIGACIÓN FORMATIVA


Título: USO DE TECNOLOGÍAS DE VIRTUALIZACIÓN DE SERVIDORES EN EL
LABORATORIO DE SISTEMAS DE LA UNIVERSIDAD CATOLICA DE COLOMBIA.

Palabras Claves: Hypervisor, Servidores, Remote Desktop, Modelos de virtualización,


arquitectura interna.

Tipo de Proyecto: Trabajo de Grado

Línea de Investigación: Ingeniería de Software

3
Proyecto asociado: Virtualización de Plataformas

Director: Dr. Germán Cubillos

DATOS DE LOS ESTUDIANTES


NOMBRE CODIGO TELÉFONOS e-MAIL

Katerine Merino 624526 4532626 Dkmerino26@ucatolica.edu.co


4726176
Katerine Mendez 624355 Ykmendez55@ucatolica.edu.co

EMPRESA O ENTIDAD PARTICIPANTE


Razón social: Universidad Católica de Colombia
Objeto social:
Educación
Responsable: Dr. Germán Cubillas Cartagena
Dirección: gcubillos@ucatolica.edu.co

4
CONTENIDO

Pág.
1. RESUMEN EJECUTIVO 6
2. PLANTEAMIENTO DEL PROBLEMA 7
2.1 Descripción 8
2.2 Resultados 8
2.3 Justificación 9
3. OBJETIVOS DEL PROYECTO 10
3.1 General 10
3.2 Específicos 10
4. MARCO REFERENCIAL DEL PROYECTO
4.1 Marco Teórico 11-22
4.2 Marco Conceptual 23
5. ANEXOS 24-72
6. REFERENCIAS 73

5
RESUMEN EJECUTIVO

Como miembros activos de la comunidad educativa de la Universidad Católica de Colombia se busca


desarrollar nuevos proyectos en innovación que este caso es realizar estudios de viabilidad para la
actualización del laboratorio de sistemas para el programa de Ingeniería de Sistemas enfocados en la
utilización de tecnologías de virtualización de servidores teniendo en cuenta unos de los puntos de la
misión de la LSIA (laboratorio de servicios informáticos Académicos) ” la búsqueda de innovación de
software y el hardware de acuerdo a los cambios y avances tecnológicos para así mantener a los
estudiantes y docentes en un nivel óptimo que permita conseguir el enriquecimiento de su
conocimiento” 1

Por medio de estudios de viabilidad que proporcionan una evaluación de las alternativas de
actualización, incluyendo el análisis de las debilidades y ventajas de cada una de las
tecnologías para servidores utilizadas en laboratorio, así como los criterios utilizados para
seleccionar como alternativa las tecnologías de virtualización de servidores sobre las demás.

Nos enfocaremos en Servidores virtuales para estaciones de trabajo en un entorno


Virtualizado permitiendo que los usuarios trabajen sobre plataformas virtuales en vez de
plataformas reales, esto ayudaría al laboratorio a mejorar su rendimiento y así mismo presta
mejores beneficios en cuanto al entorno y en cuanto a lo económico, disminuyendo costos.

1
Misión LSIA. Laboratorio de servicios informáticos Académicos Universidad Católica de Colombia. Bogotá.

6
2. PLANTEAMIENTO DEL PROBLEMA

EL problema se presenta en el laboratorio sistemas para el programa de Ingeniería de


Sistemas de la Universidad Católica de Colombia, ya que su infraestructura de laboratorio
(hardware y software para sus sistemas de servidores o estaciones de trabajo) no tiene la
flexibilidad necesaria para realizar proyectos o prácticas a gran escala.

En cual su desarrollo sería de gran importancia dentro del programa de formación de


ingeniería de sistemas en la Universidad.

El proyecto formula la innovación del laboratorio de sistemas para el programa de ingeniería


de sistemas mediante estudios de viabilidad para dicha actualización enfocándolos en la
utilización de tecnologías de virtualización de servidores

Estos estudios de viabilidad proporcionan una evaluación de las alternativas de


actualización, incluyendo el análisis de las debilidades y ventajas de cada una de las
tecnologías para servidores utilizadas en laboratorio, así como los criterios utilizados para
seleccionar como alternativa las tecnologías de virtualización de servidores sobre las demás.

Como resultado se busca flexibilizar y dinamizar el laboratorio gracias a las tecnologías de


Virtualización de servidores, así como maximizar la utilización de sus recursos (servidores y
estaciones de trabajo). Generando así una nueva plataforma informática formada por
recursos virtuales que se interponen entre las aplicaciones de sistema y la plataforma física
original. El impacto que tendría seria grande, porque permitiría a los estudiantes y docentes
de ingeniería de sistemas tener interacción con tecnologías actuales, para sus prácticas
formativas.

7
2.1 Descripción

Actualizar los laboratorios de práctica de ingeniería de sistemas para la utilización de


tecnologías de virtualización de servidores para la realización de prácticas a mayor escala
para Ingeniería de sistemas. Mediante un estudio de viabilidad para la actualización de la
plataforma actual e identificar que componentes se pueden reutilizar o que se puede mejorar
y si es necesaria la adquisición de nuevos componentes (hardware y software).

2.2 Resultados

El impacto sería de gran importancia para el desarrollo de competencias tales como


programar en distintas plataformas del programa de ingeniería de sistemas, porque permitiría
a los estudiantes y docentes tener interacción con tecnologías actuales, para sus prácticas
formativas.

Las estaciones de trabajo virtuales que se despliegan en un entorno Virtualizado, ofrecerían


muchas ventajas de peso en comparación con los entornos de trabajo tradicionales. Un
entorno de estación de trabajo tradicional contiene un alto equipo de escritorio de gama con
almacenamiento local, la transformación local, las aplicaciones locales y los datos locales lo
que no lo hacen flexibles para las necesidades actuales de los estudiantes y docentes. Las
estaciones de trabajo en un entorno Virtualizado, por el contrario, mejoran estas deficiencias
a través de una configuración completamente diferente. El entorno de la estación de trabajo
completa asociados con la estación de trabajo está organizado de forma remota y acceder a
través de software que ofrece ese medio ambiente a través de una red IP. El usuario final
tiene acceso a una estación de trabajo en una ventana, con todas las aplicaciones y los
datos que han estado disponibles en una estación de trabajo literal ahora entregado a través
de servidores virtuales.

8
2.3 Justificación

Como el propósito de la universidad está centrado en formar profesionales con una


mentalidad abierta al cambio, que permita responder a las necesidades informáticas del país,
de manera creativa e innovadora haciendo uso de tecnologías de punta, ya sea como
empresario o miembro colaborador de una empresa por eso necesario que los estudiantes
puedan crear proyectos basados en las últimas tendencias de infraestructura informática, y
que mejor poder realizar prácticas sobre éstas. Por tal motivo crear ambientes de laboratorio
combinados con tecnologías de 9virtualización serian la mejor opción.

9
3. OBJETIVOS

3.1 OBJETIVO GENERAL

Evaluar la viabilidad de la actualización del laboratorio de sistemas (servidores, estaciones


de trabajo) mediante la utilización de tecnologías de virtualización de servidores.

3.2 OBJETIVOS ESPECIFICOS

 Diagnosticar la situación actual y las posibilidades tecnológicas futuras en el laboratorio


de sistemas, tomando en cuenta los recientes requerimientos tecnológicos en cuanto a
virtualización.
 Determinar la factibilidad técnica y económica de la Universidad para llevar a cabo la
actualización de la infraestructura del laboratorio de sistemas usando esquemas de
virtualización.
 Determinar costos de equipos (hardware) y software (licencias) necesarios para la
actualización de la plataforma informática virtualizada.

10
4. MARCO REFERENCIAL

4.1 Marco Teórico

Que es el Hardware

Hardware es una palabra de origen inglés con la que se hace referencia a toda la parte (dura) de la
informática. Es de decir a la máquinaria real utilizada para el procesamiento electrónico de datos. La
cual consiste en una combinación de equipamiento principal y equipo de apoyo. El equipo principal
se le denomina unidad central de proceso; es la máquina que realiza el procesamiento real de datos
y programas. Los equipos de apoyo son denominados periféricos u órganos de entrada y salida.

Los órganos de entrada son dispositivos que convierten los datos y programas en una forma que la
CPU puede entender y procesar: son codificadores. Los órganos de salida son dispositivos que
convierten los datos procesados en una forma que los usuarios pueden comprender: son
decodificadores.

los dispositivos de almacenamiento secundario son equipo que se pueden poner fácilmente a
disposición de la CPU para guardar datos y programas.

Evolución del Hardware

La historia de la computación es un poco la historia del pensamiento humano. El hombre, desde los
comienzos de la historia, buscó formas de ayudarse a computar (significa registrar información y
transformarla de alguna manera).

11
A lo largo de la historia los aportes más significativos fueron realizados por Pascal con su desarrollo
de la primera sumadora mecánica en el año 1642, Babbage con la máquina analítica en el año 1833,
Hollerit el cual aplica el método de la tarjeta perforada en el año de 1890 a su vez también funda una
sociedad de la que surgió IBM, H. Aiken con el apoyo de IBM desarrolla una calculador
electromecánico en el año 1944, Jhon Atanasoff de la universidad de IOWA se le atribuye el
desarrollo de primera computadora digital electrónica de operación automática del mundo en el año
de 1939, Eckert y Mauchly desarrrollaron un computador que se llamo ENIAC en el año de 1945 y por
ultimo cabe la recalcar la participación de IBM que ofreció en los años 50 un desarrollo importante de
computadoras como los modelo 701 y 650.

Máquina Virtual

Una máquina virtual es una aplicación que simula un sistema físico (máquina real o ordenador) con
unas características de hardware determinadas. Esta máquina proporciona un ambiente de ejecución
similar al ambiente de una máquina real en sus componentes como son la CPU, BIOS, tarjeta
grafica, memoria RAM, tarjeta de red, sistema de sonido, conexión USB, disco duro, etc. Lo que es en
otra palabra un contenedor de software perfectamente aislado que puede ejecutar sus propios
sistemas operativos y aplicaciones como si fuera una máquina real.

Al software que sirve para crear máquinas virtuales por lo general se le denomina virtualizador, el cual
permitirá ejecutar varios ordenadores (sistemas operativos) dentro de un mismo hardware
(compartiendo) de manera simultánea y de forma segura sin interferir entre sí. La principal ventaja de
este hecho es el mayor aprovechamiento de recursos, ya que a partir de una máquina física se
podrán simular varias máquinas virtuales. Un problema que se puede dar es que al ser una capa
intermedia de software entre el sistema físico y el sistema operativo que funciona en el hardware
emulado, la velocidad de ejecución de este último es menor.

Cabe tener en cuenta que una máquina virtual se compone exclusivamente de software y no contiene
ninguna clase de componente de hardware. El hardware es también simulado y es este hardware
virtual el que hace uso a través del Virtualizado del hardware real. Lo que hace que la máquina virtual
no es más que un conjunto de ficheros en disco duro de la máquina real. Por la cual es una de sus

12
ventajas es que se puede copiar o mover a otra máquina física de manera muy sencilla, lo que
proporciona una manera rápida y cómoda de hacer copias de seguridad o reutilización de máquinas
existentes.

La Virtualización de los Recursos Tecnológicos, Impulsor del Cambio en la Empresa

En la actualidad los negocios están trabajando de la mano con las tecnologías de información
propiciando así nuevas estrategias competitivas y creado nuevas oportunidades, lo que incrementa
la complejidad del entorno en el que operan las empresas. Debido al dinamismo en los mercados,
demanda, necesidades de los clientes, nuevas tecnologías, innovación, fronteras, políticas, procesos,
presiones regulatorias del estado, etc.

Las empresas están inmersas en un nuevo marco competitivo en el que es necesario


renovar los modelos de negocio tradicionales. Las tecnologías de la información
permiten poner en marcha nuevas estrategias de negocio, que antes eran imposibles
de desarrollar. La virtualización de los recursos informáticos, es decir, la creación de
una plataforma informática formada por réplicas de ordenadores "reales" construidas
por software, es un elemento clave para que toda la infraestructura tecnológica de la
empresa esté preparada para impulsar el cambio en el negocio [PAMA 12006] 2

Nuevas Estrategias Competitivas

En esta parte del artículo se toma al cambio como concepto clave en el marco competitivo. Donde el
cambio se clasifica en dos dimensiones cambio en los productos y cambio en los procesos. El
primero se refiere a los cambios producidos por la demanda, nuevas necesidades generan nuevos
productos y servicios como resultado de todas las acciones de quienes compiten en el mercado,
crecimiento de negocio, etc. El segundo se refiere a cambios en los procedimientos y tecnologías
involucrados en la producción. Estos dos tipos de cambios pueden ser estables o dinámicos, donde
los estables son aquellos de procesos lentos, evolutivos y predecibles y los dinámicos son rápidos,
revolucionarios e impredecibles.

2
[PAMA 12006].Claudio Paniagua Macia. Universia Business Review. La Virtualización de los Recursos Tecnológicos, Impulsor del Cambio
en la Empresa. Madrid .Cuarto Trimestre.(oct. - dic. 2006).

13
La Tecnología, elemento clave para implementar nuevos modelos de negocio.

En los últimos años el costo total de gestión de infraestructura informática de las empresas, cuyo
objetivo es garantizar los niveles de servicio de las diferentes aplicaciones de negocio de la
empresa, se ha incrementado considerablemente. El motivo es que los sistemas de información se
han venido organizando hasta ahora de acuerdo a dos criterios fundamentales que ilimitaban su
flexibilidad. Donde el problema se generaba porque los departamentos de tecnología de
información estaban enfrentando el difícil papel de dar soporte al negocio del siglo XXI con
estrategias y arquitecturas tecnológicas del siglo. Donde la solución es flexibilizar el sistema de
información, pero según las condiciones anteriores es necesario entender por qué causas es
inflexible. Cabe anotar que los sistemas de información son estructuras complejas y en cierto modo
caóticas: un pequeño cambio en un componente puede tener enormes consecuencias en el
comportamiento final del sistema algo así como el efecto mariposa.

Para minimizar estas dependencias, los sistemas de información aplican una arquitectura que se
denomina organizada en silos. Donde un silo es el conjunto formado por una aplicación de negocio y
el servidor que la ejecuta. Esto permite reducir la complejidad mediante la reducción de las
dependencias y permite garantizar niveles de servicio para las aplicaciones de negocio porque estas
tienen a su exclusiva disposición en todos los recursos del servidor.

La organización en los silos recae en dos problemas importantes, uno de ellos es la estructura
estática diseñada para satisfacer determinadas necesidades del negocio de manera donde los
cambios con el tiempo al igual que sus recursos quedan infrautilizados que quiere decir que la
potencia de cada servidor se dimensiona de acuerdo con la máxima carga de trabajo que se prevé
en lo que pueda soportar la aplicación de negocio la cual no se acerca a la carga utilizada. El otro
problema de esta plataforma es la compra y gestión de un nuevo servidor para cada nueva aplicación
de negocio. Este tipo de cambio se traduce en una alarmante aumento de servidores lo que genera
costos de de gestión y adquisición.

Por otro lado en un sistema organizado en silos, la modificación de aplicaciones de negocio conlleva
a reconstruir el nuevo silo la cual debe hacerse en horario no productivo.

La Virtualización de la Plataforma Informática

La aplicación reciente de tecnologías de virtualización para servidores de media y baja potencia abre
la puerta a una solución incremental y apropiada a la crisis de los sistemas organizados en silos.

14
Hasta ahora estas tecnologías de virtualización solo habían estado disponibles para máquinas de
gran potencia como los Mainframes de IBM incorporados desde el año 1972.

Las tecnologías de virtualización solucionan los problemas base que motivaron la organización en
los silos de sistemas de información; en lo que se refiere a compartir recursos sin crear dependencias
y poder definir políticas que establezcan como repartir el recurso compartido. Lo que permite
flexibilizar y dinamizar el sistema de información, así como maximizar la utilización de sus recursos.

En el sistema de información Virtualizado existen unas piezas de software especiales que se


interponen entre las aplicaciones de negocio y los recursos físicos de la plataforma tecnológica tales
como servidores, dispositivos de almacenamiento y redes; donde la función principal es construir
replicas funcionales de recursos físicos, llamándolas recursos virtuales. Haciendo que las
aplicaciones de negocio no interactúen directamente con el recurso físico. Generando así una nueva
plataforma informática formada por recursos virtuales que se interponen entre las aplicaciones de
negocio y la plataforma física original.

Entonces las aplicaciones de negocio ya no se ejecutan sobre los servidores físicos sino que lo hacen
sobre servidores virtuales, al igual que la interacción con los dispositivos de almacenamiento reales
sino con discos virtuales, en donde esos servidores virtuales y discos virtuales se interconectan a
través de redes virtuales y no directamente a través de la red de comunicaciones física generando así
una infraestructura de tecnología de información virtualizada. Para las aplicaciones de negocio ésta
infraestructura no tiene diferencia alguna con las que tiene silos.

Que se ha conseguido que las aplicaciones de negocio crean que se están ejecutando en una
plataforma física cuando en realidad lo hacen sobre otras piezas de software que simulan ser una
plataforma física. Gracias a la virtualización de servidores se puede controlar dinámicamente en la
distribución de los recursos físicos entre los recursos virtuales creados.

Esto cambia por completo las reglas de juego sín que las aplicaciones de negocio se alteren, se suma
también que no tenemos que comprar y gestionar un nuevo servidor para cada nueva aplicación de
negocio que queremos introducir tan solo basta crear un nuevo servidor virtual.

Por otro lado se puede pensar en modificar las aplicaciones de negocio existente minimizando el
tiempo de inoperatividad de las mismas. Se puede clonar, parar y arrancar servidores virtuales de
forma automática y orquestada de una herramienta de gestión de la plataforma virtual remota. Donde
la aplicación de negocio solo estará inoperativa en unos minutos con la contingencia de que si se
detecta que el clon tiene algún problema se puede sustituir por su versión original y reiniciar de
nuevo el proceso con el tiempo a nuestro favor.

Para concluir la virtualización ofrece una alternativa realmente eficaz para garantizar los niveles de
servicio de las aplicaciones de negocio a la vez que se maximiza la utilización de los recursos de la
plataforma.

15
Almacenamiento Virtualizado: Abandonar lo físico estático por lo virtual dinámico

El almacenamiento representa otra plataforma para explorar los conceptos de virtualización y


demostrar su valor de negocio. Donde las grandes organizaciones de hoy necesitan más capacidad
de almacenamiento para retener más datos que nunca antes, y las estrategias de mil años de
antigüedad-y soluciones destinadas a apoyar que los datos no son suficientes. Por ejemplo,
consideremos la cuestión de la flexibilidad de despliegue. Un enfoque tradicional de almacenamiento
cada vez implicaría el despliegue de nuevas unidades de disco duro en los servidores de empresas
de un procedimiento costoso en términos de gastos de hardware, tiempo y energía. En este
escenario, el personal de TI preciosos cuyo tiempo es probable que se requiera para más tareas de
misión crítica en cambio, tienen que dedicar horas a la migración de datos de las unidades actuales a
las nuevas unidades, a menudo participación de un intermediario, la ubicación temporal y la
reconfiguración de la servidores para trabajar con las nuevas unidades y como la empresa requiere
más capacidad de almacenamiento, este proceso tendrá que ser repetido.

Métodos de almacenamiento Virtualizado, por el contrario, tratan el almacenamiento, no como un


elemento de un disco duro, sino como un recurso abstracto, que puede ser impuesta (o regenerada),
de conformidad con las demandas del negocio emergente. Con la ayuda de una solución como la de
IBM SAN Volumen Controller, el almacenamiento de servidor Virtualizado puede ser tratado como un
grupo de agregados, lógico, independientemente del lugar en el almacenamiento físico existe en la
infraestructura de TI. Cuando los servicios de TI requieren más capacidad de almacenamiento para
sus funciones, que el almacenamiento de pueden ser asignados dinámicamente por el software
optimizado y soluciones de hardware diseñados para realizar esa tarea. Es cuando el
almacenamiento ya no es necesario, se puede ser enviado automáticamente al repositorio común.

La virtualización y consolidación puede ayudar a optimizar las redes

Optimización de la red es cada vez más importante para la actualidad, la empresas de redes IP de en
muchos casos, requerirán la optimización de la virtualización de algún tipo, la consolidación de los
servicios, o ambos. Para las nuevas que buscan consolidarse para alcanzar las metas objetivo del
desempeño de TI y la resistencia, la calidad de muchas de las cuestiones de servicios que involucran:
están dos redes se deben prever y abordar. Elementos de la red deben ser consolidados, y sus
servicios de TI estarán vinculados. Por ejemplo, tanto las empresas pueden aprovechar las redes
privadas virtuales (VPN), que utilizan cifrado de alto grado, para ofrecer acceso a la red entre los
empleados y la organización de acogida a través de la Internet pública.. Dependiendo de cómo
completa la fusión de negocios será, estas dos implementaciones diferentes de la creación de redes
virtuales puede requerir un suelo hasta la consolidación y la integración. Los casos de ser una única
empresa aún pueden ser relativamente complejos. Muchos elementos entran en juego en el ámbito

16
de la optimización de la red de rendimiento; diversas formas de cuellos de botella potenciales de
rendimiento y redundancia técnica deben ser minimizadas si el resultado está optimizado para ser el
producto final. Sin el análisis de expertos y la red de puesta a punto, esos problemas podrían
fácilmente dar lugar a subóptimos los niveles de servicio, disponibilidad y flexibilidad empresarial en
general .Muchas empresas en tal situación, se requiere asesoramiento experto de un socio de
confianza para evaluar y resolver este tipo de complicaciones. Para ellos, una respuesta podría venir
de serviRed de IBM de Estrategia y Servicios de Optimización.

“IBM es uno de los mejores jugadores en la puesta de la virtualización a nivel


empresarial donde puede servir como una guía fuente para las organizaciones de hoy
en día a medida que avanzan hacia un futuro, idealmente, incorpora e integra
productos, mejores prácticas y estrategias probadas para reducir el costo y la
complejidad y mejorar la utilización de la infraestructura de TI.” [IBM32007] 3

Un amplio modelo de solución basada sobre todo aplicable en este contexto, ya que incorpora todos
los elementos del servicio de optimización. Ciclo de vida e infraestructura de TI y, por tanto,
representa un enfoque holístico de la inusualmente optimización de la red.

Servidores virtuales de apoyo más manejable, estaciones de trabajo práctico

Another form of virtualization increasingly used by businesses today comes in the form of virtual
workstations that are deployed in a virtualized environment, which offer many compelling advantages
in comparison to traditional workstation environments. Otra forma de virtualización que es cada vez
más utilizada por las empresas de hoy llega en forma de estaciones de trabajo virtuales que se
despliegan en un entorno Virtualizado, que ofrecen muchas ventajas de peso en comparación con los
entornos de trabajo tradicionales. Un entorno de estación de trabajo tradicional contiene un alto
equipo de escritorio de gama con almacenamiento local, la transformación local, las aplicaciones
locales y los datos locales. Si bien puede ser aprovechada para desempeñar funciones de negocios
en la demanda, proceso que normalmente requiere un nuevo software y la configuración del nuevo
personal de TI. Del mismo modo, darle a alguien el uso de la estación de trabajo que se incluyen
cambios en su ubicación (o del usuario). En estos sentidos, representa un ejemplo clásico de una
aplicación literal de TI en la que un activo está ligado al hardware dedicado y es, por esta razón,
relativamente inflexible. Las estaciones de trabajo en un entorno Virtualizado, por el contrario,
mejoran estas deficiencias a través de una configuración completamente diferente. El entorno de la
estación de trabajo completa asociados con la estación de trabajo está organizado de forma remota y
acceder a través de software que ofrece ese medio ambiente a través de una red IP. El usuario final
tiene acceso a una estación de trabajo en una ventana, con todas las aplicaciones y los datos que
han estado disponibles en una estación de trabajo literal ahora entregado a través de servidores
virtuales.

3
[IBM32007] IBM Global Technology Services. WHITE PAPER. Why virtualization matters to the Enterprise today. (DIC – 2007).

17
La virtualización de servidores permite que los usuarios trabajen sobre plataformas virtuales en vez
de plataformas reales, esto ayuda a las empresas a mejorar su rendimiento y asi mismo presta
mejores beneficios en cuanto al entorno y en cuanto a lo económico, disminuyendo costos a la
empresa. En el presente articulo se clasifica la “virtualización en tres modelos para caracterizar el
rendimiento de los entornos virtuales” [JHKPCW 42007]4

Comparación de Sistemas Virtualizados con los no Virtualizados.

Se ha tenido en cuenta la diferencia entre algunas herramientas ya que indican que los sistemas
virtualizados tienden a tener un nivel de sobrecarga inferior al que producen los sistemas no
virtualizados, al igual se están implementado herramientas para determinar el nivel de optimización
para dar solución a los problemas que se están presentando la máquinas virtuales.

En este momento se trata de comparar el rendimiento y la optimización entre los sistemas antes
mencionados y sus diferentes entornos, ya que en base a esto se toma como referencia la
optimización de pueden tener dichos sistemas y se pueden contraatacar todas las falencias que
pueden generar.

En este artículo nos basamos en el rendimiento del disco I/O, para llevar a cabo la virtualización de
un sistema. Vamos a detallar el trabajo de rendimiento de los mismos mediante” histogramas en
línea" esto se lleva a cabo mediante el hipervisor VMware ESX Server.

Esto nos permite hacer una recolecta transparente y en línea de la carga de trabajo que se va a
implementar lo que se llama arbitraria, esto se lleva a cabo sin necesidad de hacer cambios en el
sistema operativo para ser ejecutado en máquinas virtuales (VM).

El histograma en línea, básicamente abarca todo lo relacionado con el disco E/s, incluyendo los
parámetros de rendimiento del mismo. Se llego a realizar una demostración de cargos basándonos
en la técnica de “”Filebench”, en la cual se proporciono un gran tamaño y se ejecuto en la máquina
virtual, así mismo fue capaz de asimilar las características de la carga de trabajo.

4
[JHKPCW 42007]Modelo de la empresa, Modelo de SMB, Modelo de clúster, todos estos modelos están caracterizados por las
aplicaciones que se ejecutan en máquinas virtuales. Articulo 4

18
Más que todo consiste en la instalación de controladores o filtros conductores para la recolección de
las E/S. en este caso en mucho de los entornos empresariales se consideraría como pruebas de pre-
producción.

Si en un centro de datos se tienen varios sistemas operativos y “Service pack” instalado, se requieren
métodos compatibles para todas las versiones utilizadas. Una de las técnicas utilizadas es útil si el
sistema operativo cuenta con las características necesarias para brindar un buen rendimiento y
obtener las características de la carga requeridas.

En muchos casos los parches que se implementan están disponibles para dar funcionamiento de un
código abierto de sistemas de la recogida de histogramas en línea. Otra de las técnicas que podemos
resaltar está basada en hardware, ya que su funcionamiento se remota a sus propias metas
requiriendo un costoso régimen de las interfaces utilizadas por el hardware de algunos productos
básicos.

Estas técnicas tienden a tener falencias relacionadas con el análisis de datos que proceden de
diferentes fuentes ejemplo “(huellas diferentes sistemas operativos)”, los cuales pueden utilizar
diferente formato y campos de datos para su desarrollo. Otras de las propiedades importantes es
incluir la relación de lecturas elaboradas para escritura, así mismo el tamaño de E/S, genera la
profundidad; dichas propiedades son tenidas en cuenta para el diseño de algunos sistemas de
almacenamiento desde diferentes cargas de trabajo y se requieren modelos de optimización
diferentes para un mejor rendimiento para no generar problemas en la máquinas virtuales.

En este momento los histogramas son una de las claves ideales para poder obtener el rendimiento
adecuado de estos sistemas ya que nos indican las líneas de optimización, las cuales son ideales
para conocer más a fondo o con exactitud las falencias que pueden llagar a generar las máquinas
virtuales y de este modo poder combatirlas.

19
REMOTOS EN MÁQUINAS VIRTUALES APLICADOS EN GRANDES CORPORACIONES

El modelo básico que sirve para proporcionar un entorno ofimático en un lugar de trabajo o un centro
docente se ha mostrado inalterable durante los últimos años. Éste consiste en proporcionar a cada
lugar de trabajo un ordenador personal con su respectivo sistema operativo y configuración, ya que
gracias a esta implementación podemos obtener mayores beneficios y una mejor optimización.
A pesar que existen herramientas como la utilización de imágenes que simplifican la gestión y
despliegue, este modelo provoca sustanciales costes en soporte, mantenimiento y en la adquisición
de equipos con recursos casi siempre infrautilizados, esto se debe a las desventajas que puede
conllevar implantar esta tecnología; podemos indicar que debido a la nueva ola tecnológica se busca
implantar esta nueva tecnología en los sistemas operativos tanto como en los escritorios remotos.

Las computadoras y los equipos de comunicación son un invento reciente, que no ha cumplido ni un
siglo de existencia desde su primera generación. Su evolución ha sido continua y constantemente se
han ido presentando nuevas propuestas y esquemas de actividad, a esto debemos empezar a
implantarle la tecnología de virtualización de servidores que es lo que se busca para optimizarla y con
el tiempo implantarla a toda la nueva ola.
Así mismo cada usuario trabaja con un terminal que no tiene directamente capacidad de computación
pero que está conectado con un potente equipo central llamado servidor.
Las primeras redes permitieron la comunicación entre centrales y terminales remotas por medio de
Líneas telefónicas. Posteriormente aparecerán las redes de conmutación de paquetes y más tarde
Internet, podemos ver que las nuevas tecnologías se han venido implementando rápidamente a la
tecnología, mediante la virtualización tendremos la capacidad de obtener mejores beneficios. [POLFFJ
62009]5

VIRTUALIZACIÓN: HACIA UNA INFRAESTRUCTURA FLUIDA

La virtualización del sistema entra en el centro de atención de nuevo con la emergente máquina
virtual (VM) de tecnologías (por ejemplo, Parallels, VMware y Xen). Con estas tendencias del
mercado hacia entornos virtuales, muchos grupos de investigación se están desarrollando
herramientas de evaluación para comprobar el rendimiento de los sistemas virtuales y sus gastos
generales. Sin embargo, la caracterización del rendimiento en entornos virtuales no se ha establecido
Sin embargo, para muchas cuestiones difíciles. En este trabajo se clasifican de cuatro modelos de
virtualización para caracterizar el rendimiento de de los entornos virtuales y presentar una eficiente
CALIFICACIÓN metodología para comparar el rendimiento de virtualizados versus no virtualizados
sistemas.

La virtualización es un tema de plena actualidad dentro del mundo de las Tecnologías de Información
y la tecnología de virtualización muestra el potencial para provocar un cambio fundamental en la
forma en que los responsables de TI consideran sus recursos informáticos. Aunque las opciones de
virtualización del almacenamiento y la red están evolucionando, el mercado ha desplazado
recientemente el foco de atención hacia la virtualización de los servidores x86. Este cambio de
tendencia se va a mantener durante la próxima década a medida que la arquitectura de los
5
5 [POLFFJ 62009] Escritorios remotos en máquinas virtuales aplicados en grandes corporaciones. Universidad Politécnica de
Catalunya.2009

20
microprocesadores y de los servidores evolucione para dar cabida a entornos de virtualización más
amplios. Las soluciones y capacidades de virtualización van a cambiar de manera radical durante los
próximos años. Las tecnologías de virtualización ya están subdividiéndose en múltiples líneas de
desarrollo técnico y “objetivos” de virtualización (por ejemplo servidores, almacenamiento,
aplicaciones, middleware). Todos los elementos del centro de datos del futuro tendrán un “aroma”
muy virtual y ello va a imponer a los arquitectos, así como al personal de soporte operativo, la
necesidad de reciclarse para aprovechar adecuadamente esta evolución.

El trabajo realizado por los primeros fabricantes de estas tecnologías para convencer a los clientes
del valor de la virtualización ya ha concluido.
La virtualización sigue mostrando nuevos beneficios tangibles, mayores cuanto más se difunde su
uso, extendiendo su valor a toda la compañía. El retorno de las inversiones en virtualización
Reducción del consumo de energía: Un dato comprobado es que el consumo eléctrico no se ordena
directamente con el nivel de utilización de los equipos. Mantener menos equipos y dispositivos físicos
y hacerlos funcionar a un régimen más elevado puede considerarse una de las “reglas de oro de las
TI ecológicas” (Tecnologías Informáticas ecológicas). El menor consumo de espacio y energía puede
aportar un beneficio adicional en forma de larga de la vida útil de los actuales centros de datos. Las
compañías eléctricas también han adoptado este criterio y ofrecen incentivos para la adopción de
soluciones de virtualización

Mejor uso de los recursos de hardware: Los servidores distribuidos habitualmente muestran niveles
de actividad bajos y consolidar estas tareas suponiendo un uso más razonado y eficiente de los
dispositivos físicos.

Flexibilidad y capacidad de respuesta en entornos de desarrollo de aplicaciones: Disponiendo de una


infraestructura física reducida que pueda reutilizarse para nuevos fines cuando sea preciso, para dar
soporte a escenarios muy distintos se puede agilizar los tiempos de ejecución de los nuevos
proyectos.

Agilidad y capacidad de respuesta ante nuevas demandas de la empresa: Las opciones que abren los
servidores virtuales permiten un rápido aprovisionamiento y configuración, sin tener que recorrer
amplios ciclos de operación ligados a menudo con la compra, reutilización o aprovisionamiento de
dispositivos físicos. Aparte, las tecnologías de virtualización permiten aplicar nuevas técnicas de
equilibrio de carga para resolver situaciones de expansión y contracción de la actividad de los
sistemas.

Evolución de la infraestructura física: La virtualización de servidores se ha desarrollado en paralelo


con la evolución de las plataformas informáticas, desde la arquitectura modular del servidor “blade”
que está ganando terreno actualmente por su densidad y por su facilidad de implementación.
Optimizándolas para entornos virtuales, las arquitecturas x86 y otras arquitecturas de servidores
distribuidos han empezado ya su propio itinerario simbiótico con opciones de virtualización. En
consecuencia, muchas capacidades de virtualización ofrecidas por software (hypervisor) actualmente
se van a trasladar al hardware en el futuro. Esta migración de la virtualización desde el software al
hardware se puede observar en otras muchas áreas de forma parecida.
Conforme vayan apareciendo nuevas opciones de virtualización, los arquitectos de las grandes
compañías van a tener que elegir las plataformas más adecuadas para sus organizaciones. La
mayoría de empresas probablemente van a terminar con dos, tres o más plataformas de
virtualización. Actualmente un 40% aproximadamente de las tareas ejecutadas en las empresas son

21
candidatos razonablemente buenos para la virtualización, según ciertas estimaciones de analistas del
sector. Las empresas que actualmente están valorando nuevos proyectos de implantación de
servidores tienden a pensar de forma inmediata en la virtualización de dichas tareas. Aunque las
nuevas tareas serán definitivamente candidatas para la virtualización, son las aplicaciones más
antiguas las que suponen el mayor problema.

Muchas empresas están pensando ya cómo pueden introducir la tecnología de virtualización para
mejorar sus capacidades de recuperación ante desastres o consolidar sus servidores físicos. Muchas
veces se fijan en tácticas de corto plazo en vez de pensar de forma estratégica y a largo plazo. La
virtualización aporta nuevas formas de agilidad –la capacidad para proporcionar nuevos servicios,
una respuesta más rápida, mayor disponibilidad- para la propia empresa. ¿Qué más podemos hacer
con ella aparte de resolver ciertos problemas puntuales?”. [HEVA82009]6

4.1 Marco Conceptual


6
6[HEVA82009] VIRTUALIZACIÓN: HACIA UNA INFRAESTRUCTURA FLUIDA. Herb VanHook. BMC SOFTWARE.2009

22
Las tecnologías de virtualización tienen grandes oportunidades en el mercado de la nueva ola
tecnológica, gracias a este método se obtienen ventajas que favorecen a los usuarios por la rapidez y
optimización de la información, así como la reutilización de los servidores existentes. Así mismo
tenemos en cuenta el aprovechamiento al máximo de los recursos.

En la actualidad la virtualización de servidores se compone de maquinas virtuales las cuales son


utilizadas en la aplicación de servidores virtuales que para el usuario final se simula en varios
sistemas físicos dentro de un mismo hardware.

La virtualización de las plataformas o infraestructuras de un sistema de información conformado por


replicas de servidores “reales” construidos por software, haciéndolo un elemento clave para toda

23
infraestructura tecnológica de la empresa para que esté preparada para impulsar el cambio en el
negocio.

Las maquinas virtuales básicamente son implementadas en aplicaciones portátiles, consolidación de


servidores, recuperación de desastres pruebas de aplicación demás, En los últimos años el costo
total de gestión de infraestructura informática de las empresas, cuyo objetivo es garantizar los niveles
de servicio de las diferentes aplicaciones de negocio de la empresa, se ha incrementado
considerablemente.

24
ANEXOS

FECHA DE REGISTRO DOCUMENTAL

Código:[PAMA 12006] Fuente No. 1 Elaboró: DKMP

Tipo de fuente: Articulo de Revista indexada

Titulo: La Virtualización de los Recursos Tecnológicos, Impulsor del Cambio en la Empresa.

Autor: Claudio Paniagua Macia

Ubicación:

UNIVERSIA BUSINESS REVIEW – ACTUALIDAD ECONOMICA – CUARTO


TRIMESTRE 2006

ISSN: 1698-5117

Versión actual de publicación: 2006-12

Ciudad: Madrid, España

Descripción: En la actualidad las empresas están sujetas en un nuevo marco competitivo en la que
es necesario renovar todos los modelos tradicionales de negocio. En donde las tecnologías de la
información permiten poner en marcha nuevas estrategias de negocio, lo que era imposible de
desarrollar. La virtualización de las plataformas o infraestructuras de un sistema de información
conformado por replicas de servidores “reales” construidos por software, haciéndolo un elemento
clave para toda infraestructura tecnológica de la empresa para que esté preparada para impulsar el
cambio en el negocio.

Tabla de contenido:
1. Resumen, 2. Nuevas estrategias competitivas, 3.La Tecnología, elemento clave para
implementar nuevos modelos de negocio 4.Virtualizacion de la plataforma informática.
Palabras clave:

Modelos de virtualización, arquitectura interna, silos, mainframes, simulación, niveles de servicio.

RESUMEN [1]

LA VIRTUALIZACION DE LOS RECURSOS TECNOLOGICOS, IMPULSOR DEL CAMBIO


EN LA EMPRESA

En la actualidad los negocios están trabajado de la mano con las tecnologías de información
propiciando así nuevas estrategias competitivas y creado nuevas oportunidades, lo que incrementa
la complejida del entorno en el que operan las empresas. Debido al dinamismo en los mercados,
demanda, necesidades de los clientes, nuevas tecnologías, innovación, fronteras, políticas, procesos,
presiones regulatorias del estado, etc.

1. Nuevas Estrategias Competitivas

En esta parte del articulo se toma al cambio como concepto clave en el marco competitivo.
Donde el cambio se clasifica en dos dimensiones cambio en los productos y cambio en los
procesos. El primero se refiere a los cambios producidos por la demanda, nuevas
necesidades generan nuevos productos y servicios como resultado de todas las acciones de
quienes compiten en el mercado, crecimiento de negocio, etc. El segundo se refiere a
cambios en los procedimientos y tecnologías involucrados en la producción. Estos dos
tipos de cambios pueden ser estables o dinámicos, donde los estables son aquellos de
procesos lentos, evolutivos y predecibles y los dinámicos son rápidos, revolucionarios e
impredecibles.

2. La Tecnología, elemento clave para implementar nuevos modelos de negocio.

En los últimos años el costo total de gestión de infraestructura informática de las empresas, cuyo
objetivo es garantizar los niveles de servicio de las diferentes aplicaciones de negocio de la
empresa, se ha incrementado considerablemente. El motivo es que los sistemas de información se
venido organizando hasta ahora de acuerdo a dos criterios fundamentales que ilimitaban su
flexibiidad. Donde el problema se generaba porque los departamentos de tecnología de
información estaban afretando el difícil papel de dar soporte al negocio del siglo XXI con
estrategias y arquitecturas tecnológicas del siglo XX.

Donde la solución es flexibilizar el sistema de información, pero según las condiciones anteriores es
necesario entender porque causas es inflexible. Cabe anotar que los sistemas de información son
estructuras complejas y en cierto modo caóticas: un pequeño cambio en un componente puede tener
enormes consecuencias en el comportamiento final del sistema algo así como el efecto mariposa.
Para minimizar estas dependencias, los sistemas de información aplican una arquitectura que se
denomina organizada en silos. Donde un silo es el conjunto formado por una aplicación de negocio
y el servidor que la ejecuta. Esto permite reducir la complejidad mediante la reducción de las
dependencias y permite garantizar niveles de servicio para las aplicaciones de negocio porque estas
tienen a su exclusiva disposición en todos los recursos del servidor.
La organización en los silos recae en dos problemas importantes, uno de ellos es la estructura
estática diseñada para satisfacer determinadas necesidades del negocio de manera donde los
cambios con el tiempo al igual que sus recursos quedan infrautilizados que quiere decir que la
potencia de cada servidor se dimensiona de acuerdo con la máxima carga de trabajo que se prevé
en lo que pueda soportar la aplicación de negocio la cual no se acerca a la carga utilizada. El otro
problema de esta plataforma es la compra y gestión de un nuevo servidor para cada nueva
aplicación de negocio. Este tipo de cambio se traduce en una alarmante aumento de servidores lo
que genera costos de de gestión y adquisición.
Por otro lado en un sistema organizado en silos, la modificación de aplicaciones de negocio
conlleva a reconstruir el nuevo silo la cual debe hacerse en horario no productivo.

3. La Virtualizacion de la Plataforma Informática

La aplicación reciente de tecnologías de virtualización para servidores de media y baja potencia


abre la puerta a una solución incremental y apropiada a la crisis de los sistemas organizados en
silos. Hasta ahora estas tecnologías de virtualización solo habían estado disponibles para máquinas
de gran potencia como los Mainframes de IBM incorporados desde el año 1972.

Las tecnologías de virtualización solucionan los problemas base que motivaron la organización en
los silos de sistemas de información; en lo que se refiere a compartir recursos sin crear
dependencias y poder definir políticas que establezcan como repartir el recurso compartido. Lo que
permite flexibilizar y dinamizar el sistema de información, así como maximizar la utilización de sus
recursos.

El sistema de información virtualizado existe unas piezas de software especiales que se interponen
entre las aplicaciones de negocio y los recursos físicos de la plataforma tecnológica tales como
servidores, dispositivos de almacenamiento y redes; donde la función principal es construir replicas
funcionales de recursos físicos, llamándolas recursos virtuales. Haciendo que las aplicaciones de
negocio no interactúen directamente con el recurso físico. Generando así una nueva plataforma
informática formada por recursos virtuales que se interponen entre las aplicaciones de negocio y la
plataforma física original.
Figura 1. Sistema de información virtualizado. Fuente Articulo Virtualización de los Recursos
Tecnológicos, Impulsor del Cambio en la Empresa pag 9.

Entonces las aplicaciones de negocio ya no se ejecutan sobre los servidores físicos sino que lo
hacen sobre servidores virtuales, al igual que la interacción con los dispositivos de almacenamiento
reales sino con discos virtuales, en donde esos servidores virtuales y discos virtuales se
interconectan a través de redes virtuales y no directamente a través de la red de comunicaciones
física generando así una infraestructura de tecnología de información virtualizada. Para las
aplicaciones de negocio esta infraestructura no tiene diferencia alguna con las que tiene silos.

Que se ha conseguido que las aplicaciones de negocio crean que se están ejecutando en una
plataforma física cuando en realidad lo hacen sobre otras piezas de software que simulan ser una
plataforma física. Gracias a la virtualización de servidores se puede controlar dinámicamente en la
distribución de los recursos físicos entre los recursos virtuales creados.

Esto cambia por completo las reglas de juego sí que las aplicaciones de negocio se alteren, se suma
también que no tenemos que comprar y gestionar un nuevo servidor para cada nueva aplicación de
negocio que queremos introducir tan solo basta crear un nuevo servidor virtual.

Por otro lado se puede pensar en modificar las aplicaciones de negocio existente minimizando el
tiempo de inoperatividad de las mismas. Se puede clonar, parar y arrancar servidores virtuales de
forma automática y orquestada de una herramienta de gestión de la plataforma virtual remota.
Donde la aplicación de negocio solo estará inoperativa en unos minutos con la contingencia de que
si se detecta que el clon tiene algún problema se puede sustituir por su versión original y reiniciar
de nuevo el proceso con el tiempo a nuestro favor.

Para concluir la virtualización ofrece una alternativa realmente eficaz para garantizar los niveles de
servicio de las aplicaciones de negocio a la vez que se maximiza la utilización de los recursos de la
plataforma.
BIBLIOGRAFIA

[1] J. E. Smith y R. Nair. Máquinas Virtuales: Plataformas versátil de los Sistemas y Procesos.
Elsevier Inc., San Francisco, CA, 2005.
[2] P. M. Claudio. IBM. España. 2006
FECHA DE REGISTRO DOCUMENTAL

Código:[RO22009] Fuente No. 2 Elaboró: KM

Tipo de fuente: Libro Digital

Titulo: VIRTUALIZACION CORPORATIVA CON VMWARE

Autores: JOSEP ROS

Ubicación:

ISBN: 13: 978-84-613-3888-7

Ncora VMware Tour 2009

Descripción: Este documento técnico de orientación sobre la planificación de un entorno VMware


Infrastructure basada en servidores HP, almacenamiento y productos de gestión. Los siguientes
componentes clave de la tecnología se despliegan:

• HP ProLiant

• Gestión de software de HP (HP SIM y OpenView)

• HP ProLiant Essentials software

• HP StorageWorks Storage Area Network (SAN) de los productos de

• VMware Infrastructure 3

• VMware ESX Server 3.0

• VMware VirtualCenter 2.0

Este documento no pretende sustituir a la documentación suministrada con componentes de la


solución individual, sino, más bien, está destinado a servir como un recurso adicional para ayudar a
los profesionales de TI responsables de la planificación de un entorno de VMware.

Esta es la primera de una serie de documentos sobre la planificación, implementación y


funcionamiento de una Infraestructura Adaptable sobre la base de VMware Infrastructure y
servidores de HP, almacenamiento y tecnologías de gestión.

Los documentos de esta serie son:

• Una guía de arquitectura (VMware Infrastructure 3, la arquitectura)

• Una guía de planificación (VMware Infrastructure 3, la planificación)

• Una guía de implementación (VMware Infrastructure 3, la implementación), y

• Una guía de las operaciones (VMware Infrastructure 3, operaciones).

Este Libro Blanco contiene información sobre la planificación para ayudar a los clientes de manera
efectiva un plan de infraestructura de VMware funcionando en los servidores HP ProLiant, HP
StorageWorks soluciones de almacenamiento, y HP ProLiant Essentials componentes de software
de gestión.

Antes de leer esta guía, el lector debe entender la arquitectura VMware Infrastructure y cómo se
virtualiza el hardware.

Todas las guías de HP, white papers y documentos técnicos para VMware ESX Server se puede
encontrar en: www.hp.com / go / vmware.

Tabla de contenido:

Infraestructura Adaptable - La infraestructura Virtual - Planificación de virtualización -


Identificación de parámetros de rendimiento adecuados - La recopilación de datos - HP ProLiant
Essentials Performance Management Pack (PMP - VMware Capacity Planner -Microsoft Windows
Performance Monitor - Identificar los candidatos de virtualización - ¿Qué servidores puedo
virtualizar ? - ¿Qué debo virtualizar servidores ? - ¿Qué plataforma de servidores ProLiant es
adecuado para mí - De doble núcleo o de núcleo único - ¿Debo usar el almacenamiento interno o
externo ? - Determinar el mejor ajuste para sus aplicaciones - Sizer servidor HP ProLiant para
VMware ESX Server - Estrategias y mejores prácticas - Otros documentos técnicos de HP -
Documentación de producto de VMware - Documentos de VMware técnica - De E / S de
rendimiento - De almacenamiento - Networking - HP Systems Insight Manager HP SIM - HP
OpenView - VMware VirtualCenter – Migración - VMware P2V Assistant - Equilibrio de la carga
de trabajo - Alta Disponibilidad - Multirruta con VMware ESX Server - Las estrategias de
recuperación de desastres - Las estrategias de recuperación de desastres - Estrategias de copia de
seguridad - Para obtener más información.
Palabras clave:

Vmware , Automatización , servidor ESX, plataforma, Host ESX, puertos HBA, BladeSystem, Cold
Migration, Hot Migration, Infraestructura Adaptable – Sobrecarga -

RESUMEN [1]

WHY VIRTUALIZACION MATTERS TO THE ENTERPRISE TODAY (Porque importa la


virtualizacion a la empresa de hoy).

Un componente clave de una Infraestructura Adaptable, según lo previsto por HP, es la


virtualización de los recursos.

Infraestructura Adaptable

La estrategia de HP Adaptive Infrastructure combina soluciones líderes del sector, los servicios y
productos de HP y los socios que pueden ayudar a las organizaciones rápidamente a convertir los
retos en oportunidades. Esta estrategia se basa en cuatro principios de diseño - la simplificación,
normalización, integración y modularidad que, al aplicarse de forma coherente en los procesos de
negocio, aplicaciones y la infraestructura, en última instancia puede conducir a una organización
que pueda adaptarse e incluso cambiar. Estos principios de diseño se aplican a elementos
individuales de la infraestructura y toda la infraestructura propia, de esta manera, las
organizaciones pueden crear bloques de construcción de manera constante que puedan combinarse
según las necesidades.

La adaptación de la infraestructura no es un producto único, no puede ser comprado "fuera del


anaquel". Es una filosofía concebida para aportar una organización ágil y fácilmente adaptable a las
cambiantes necesidades empresariales.

La infraestructura virtual

La virtualización es una de las piedras angulares para una Infraestructura Adaptable. El principal
beneficio para la virtualización de hecho puede ser la consolidación, sin embargo, una
infraestructura virtualizada puede ser beneficiosa en muchas otras formas. Por ejemplo, debido a
un entorno operativo completo se puede encapsular en varios archivos, el ambiente se vuelve más
fácil de controlar, copiar, distribuir, y así sucesivamente. Si una organización virtualiza un sistema
operativo, sus aplicaciones, ajustes de configuración, y otros elementos deseables, que todo el
entorno operativo conocido como una máquina virtual (VM) se puede rodar en cualquier parte de
la organización para mantener la continuidad del negocio. Para maximizar la disponibilidad, las
nuevas tecnologías que pueden permitir que máquinas virtuales de forma automática, la migración
de un gran potencial en su defecto a otra plataforma virtual con poca intervención del usuario o no.

La planificación de la virtualización

Una infraestructura virtual ofrece muchos beneficios, incluyendo un uso más eficiente de los
recursos, reducción de la expansión de los servidores, y los gastos de capital reducido para entornos
de prueba y desarrollo.

Sea cual sea su motivo para mudarse a un entorno virtualizado, la clave para una implementación
exitosa es la planificación sólida. Este artículo le guiará a través del proceso de planificación.

¿Qué servidores puedo virtualizar?

La mayoría de las aplicaciones y las cargas de trabajo pueden ser virtualizados. Las siguientes
aplicaciones no pueden ser virtualizados con VMware ESX Server 3.0:

• Las aplicaciones que utilizan más de 4 CPUs lógicas

• Las aplicaciones que utilizan más de 16 GB de memoria

• Las aplicaciones con alto grado de utilización (más del 85%) de los recursos, como CPU, disco,
red, y / o de la memoria (debido a la sobrecarga asociada con el funcionamiento dentro de una
máquina virtual), y

• Las aplicaciones que requieren el uso de dispositivos de hardware especializado

El hecho de que una aplicación puede ser virtualizado no significa que usted va a querer que
virtualizar. Normalmente, los clientes establecer una relación de consolidación mínimo (por
ejemplo, 8 a 1) cuando la virtualización de su entorno. La relación de consolidación que se
establecen determinan los servidores que debe y no debe virtualizar y se trata en la siguiente
sección.

¿Qué debo virtualizar servidores?

Esta cuestión no es tan fácil de responder y depende de sus objetivos y expectativas del entorno
virtualizado. También depende del medio ambiente (de prueba y desarrollo o producción).

En un entorno de prueba y desarrollo, usted querrá para virtualizar:

• Los servidores que están crónicamente reconfigurado A menudo se trata de prueba, desarrollo y
servidores de plataforma que pasan por ciclos regulares de reconfiguración y de aprovisionamiento.
Al virtualizar estos servidores, puede reducir dramáticamente el tiempo que tarda en volver a
configurar el medio ambiente. Las características adicionales de ESX Server (tales como discos
deshacer) también puede ser beneficiosa en un entorno de desarrollo y de prueba.

Los clientes suelen establecer una relación de consolidación mínimo de 8 a 1 antes de migrar a una
infraestructura virtual y la selección de las aplicaciones basadas en el logro de esta relación de
consolidación mínimo. La mayoría están logrando la consolidación de una relación mucho más alto
de 8 a 1. Su ratio de consolidación será determinada por:

- La utilización de los recursos (CPU, memoria, disco y red) de las aplicaciones que se
virtualizados.

- El servidor de destino (s) (número de procesadores, velocidad del procesador de núcleo simple vs
doble, el núcleo de la cantidad de memoria, el número de tarjetas de red, almacenamiento interno vs
almacenamiento externo, y de sus preferencias sobre los aprovechamientos de los recursos
preferidos de la los servidores de destino)
Para lograr una relación de 8 a 1 de consolidación, cada aplicación virtualizada debe utilizar
aproximadamente el 12,5% de los recursos del servidor físico. Si una aplicación utiliza más del
12,5% (por ejemplo, 20%), las otras aplicaciones (en el servidor ESX mismo Host) no puede
utilizar más que el 80% restante de los recursos a fin de mantener una relación de 8 a 1 de
consolidación. Utilizando el 100% de los recursos de un servidor físico no es recomendable.

No hay sobrecarga asociada con la ejecución de una aplicación dentro de una máquina virtual.
Una aplicación que se ejecuta en una máquina virtual utilizará más recursos que la misma
aplicación (con la misma carga de trabajo) se ejecuta en un servidor físico. El importe de los gastos
generales se determina por la utilización de los recursos por la aplicación. Los gastos generales
asociados con la utilización de la CPU y la memoria es la más baja y la sobrecarga asociada con el
disco y la utilización de la red es la más alta. De hecho, el disco y la utilización de la red en una
máquina virtual que requieren el trabajo de la CPU, haciendo uso de la CPU para cada paquete de
la red y leer el disco y escritura.

Utilizando las siguientes reglas al elegir los servidores que debe virtualizar (en producción)
maximicen su índice de consolidación. Tenga en cuenta que le preocupa más que la utilización de
la CPU. Usted también está preocupado por la memoria, disco y utilización de la red.

- De más edad (<1 GHz), incluso si los servidores que han elevado y homogéneo en la utilización
de

- Los sistemas de relativamente reciente con la utilización sistemáticamente baja, y

- procesador de aplicaciones que el pico en algún momento durante el día, mientras que tienen un
promedio de utilización relativamente baja y no poner las aplicaciones que el pico al mismo tiempo
en el mismo servidor virtualizado.
FECHA DE REGISTRO DOCUMENTAL

Código:[IBM32007] Fuente No. 3 Elaboró: KM

Tipo de fuente: WHITE PAPER

Titulo: Why virtualizacion matters to the Enterprise today (Porque importa la virtualizacion a la
empresa de hoy).

Autores: IBM Global Technology Services

Ubicación:https://www304.ibm.com/businesscenter/smb/es/es/solucionesdenegocio/infraestructura

/virtualizacion/gcl_xmlid/143702

OIW03008-USEN-01

Versión actual de publicación: 2007-12

Descripción: IBM Global Tecnología Services ofrece una amplia gama de servicios de tecnología
que se especializan en diferentes aspectos de la virtualización. TI de IBM transformación y
optimización de Servicios de Consultoría, por ejemplo, trabajará con su equipo de TI para construir
un plan de trabajo de virtualización capaz de conectar a las soluciones de virtualización de IBM
global de TI

Donde los objetivos del negocio se hacen de la manera más sencilla y sensible. Donde la
distribución de arquitecturas de TI, son tales como los servidores basados en x86, IBM. Virtual
Infrastructure Access Services puede ayudar a avanzar desde lo físico a lo virtual a través de
enfoques modulares basados en estándares abiertos, sin comprometer la seguridad y los clientes

Bajo la arquitectura POWER se apalancan en la medida de lo posible en virtualization. En suma,


IBM es uno de los mejores jugadores en la puesta de la virtualización de nivel empresarial donde
IBM puede servir como una guía única fuente para las organizaciones de hoy en día a medida que
avanzan hacia un futuro que, idealmente, incorpora e integra productos, mejores prácticas y
estrategias probadas para reducir el costo y la complejidad y mejorar la utilización de la
infraestructura de TI.
Tabla de contenido:
What is Virtualization? - Server consolidation: A necessity for today’s Enterprise -
Virtualized storage: Abandon the static physical for the dynamic virtual - Virtualization and
consolidation can help optimize networks - Virtual servers support more manageable,
convenient workstations - IBM virtualization solutions and services: Solving business
problems in the field - Optimizing IT: How virtualization fits into the big picture - Why
IBM?
(¿Qué es la virtualización? - Consolidación de servidores: Una necesidad para las empresas
de hoy - Virtualizado de almacenamiento: Abandonar la física estática para la virtualización
dinámica virtual - y la consolidación puede ayudar a optimizar las redes - Servidores
virtuales de apoyo más manejable, estaciones de trabajo práctico - las soluciones de
virtualización de IBM y servicios: Solución de problemas empresariales en el de campo -
Optimización de IT: ¿Cómo encaja la virtualización en el panorama - ¿Por qué IBM?)
Palabras clave:

Migración, VPN, MainFrame, San, niveles de servicio, automatización, Powerhipervisor, SVC,


Tivoli y Consolidación.

RESUMEN [3]

WHY VIRTUALIZACION MATTERS TO THE ENTERPRISE TODAY (Porque importa la


virtualizacion a la empresa de hoy)

IBM ofrece un gama rica, diversa e integrada de soluciones de virtualizacion, que abarcan desde
los sistemas x86, mainframes Systems Z , red de almacenamiento (SAN). Basados que en la
actualidad la única constante es el cambio para el logro de mejores resultados de negocio de una
empresa con una infraestructura de TI compleja que significa mas simplemente el despliegue de
nuevas soluciones, sino que significa la redefinición de la TI como un instrumento versátil de la
estrategia empresarial, que puede cambiar de forma paralela a las demandas cambiantes. Con ese
fin muchas empresas han seguido las grandes estrategias de imagen, como el de consolidación para
reducir el numero de servidores necesario para apoyar los servicios de TI y virtualizacion para
desencadenar los servicios de implementaciones especificas y entregar en una forma mas dinámica,
virtual. A través de la consolidación y la virtualizacion la empresa puede lograr una más sencilla,
mas escalable, mas costo- eficiente la infraestructura de TI.

Que es la Virtualizacion

El objetivo general de la virtualizacion es el mismo para cada caso: a la forma abstracta de la


tecnología fuera de su ambiente original una forma literal y física, y entregar a uan forma virtual.
Esta forma si se aplica bien es capaz de la misma funcionalidad que el original, pero es capaz de
aumentar considerablemente el control y la flexibilidad. La versión virtual es, en definitiva mucho
mas fácil de cambiar para adecuarse a los objetivos de cambio porque se ha liberado de sus
limitaciones físicas. Esta es una valiosa ventaja en un contexto de negocios, donde los servicios de
TI deben ser continuamente revisados, adaptados o desarrollados a partir de cero para satisfacer las
necesidades emergentes. La virtualizacion de servidores ha recibido una atención considerable en
los últimos años debido a s su capacidad para consolidar varios servidores físicos en múltiples
servidores lógicos que se pueden desplegar en menos servidores físicos.

Almacenamiento Virtualizado: Abandonar lo físico estático por lo virtual dinámico

El almacenamiento representa otra plataforma para explorar los conceptos de virtualización y


demostrar su valor de negocio. Donde las grandes organizaciones de hoy necesitan más capacidad
de almacenamiento para retener más datos que nunca antes, y las estrategias de mil años de
antigüedad-y soluciones de destinadas a apoyar que los datos no son suficientes. Por ejemplo,
consideremos la cuestión de la flexibilidad de despliegue. Un enfoque tradicional de
almacenamiento cada vez implicaría el despliegue de nuevas unidades de disco duro en los
servidores de empresas de un procedimiento costoso en términos de gastos de hardware, tiempo y
energía. En este escenario, el personal de TI preciosos cuyo tiempo es probable que se requiera para
más tareas de misión crítica en cambio, tienen que dedicar horas a la migración de datos de las
unidades actuales a las nuevas unidades, a menudo participación de un intermediario, la ubicación
temporal y la reconfiguración de la servidores para trabajar con las nuevas unidades y como la
empresa requiere más capacidad de almacenamiento, este proceso tendrá que ser repetido.

Métodos de almacenamiento Virtualizado, por el contrario, tratan el almacenamiento, no como un


elemento de un disco duro, sino como un recurso abstracto, que puede ser impuesta (o regenerada),
de conformidad con las demandas del negocio emergente. Con la ayuda de una solución como la de
IBM SAN Volume Controller, el almacenamiento de servidor Virtualizado puede ser tratado como
un grupo de agregados, lógico, independientemente del lugar en el almacenamiento físico existe en
la infraestructura de TI. Cuando los servicios de TI requieren más capacidad de almacenamiento
para sus funciones, que el almacenamiento de pueden ser asignados dinámicamente por el software
optimizado y soluciones de hardware diseñados para realizar esa tarea. Es cuando el
almacenamiento ya no es necesario, se puede ser enviado automáticamente a la repositorio común.

La virtualización y consolidación puede ayudar a optimizar las redes

Optimización de la red es cada vez más importante para el la actualidad, la empresas de redes IP de
en muchos casos, requeriran la optimización de la virtualización de algún tipo, la consolidación de
los servicios, o ambos. Para las nuevas que buscan consolidarse para alcanzar las metas objetivo
del desempeño de TI y la resistencia, la calidad de muchas de las cuestiones de servicios que
involucran: están dos redes se deben prever y abordar. Elementos de la red deben ser consolidados,
y sus servicios de TI estarán vinculados. Por ejemplo, tanto las empresas pueden aprovechar las
redes privadas virtuales (VPN), que utilizan cifrado de alto grado, para ofrecer acceso a la red entre
los empleados y la organización de acogida a través de la Internet pública.. Dependiendo de cómo
completa la fusión de negocios será, estas dos implementaciones diferentes de la creación de redes
virtuales puede requerir un suelo hasta la consolidación y la integración. Los casos de ser una única
empresa aún pueden ser relativamente complejos. Muchos elementos entran en juego en el ámbito
de la optimización de la red de rendimiento; diversas formas de cuellos de botella potenciales de
rendimiento y redundancia técnica deben ser minimizado si el resultado está optimizado para ser el
producto final. Sin el análisis de expertos y la red de puesta a punto, esos problemas podrían
fácilmente dar lugar a subóptima los niveles de servicio, disponibilidad y flexibilidad empresarial
en general .Muchas empresas en tal situación, se requiere asesoramiento experto de un socio de
confianza para evaluar y resolver este tipo de complicaciones. Para ellos, una respuesta podría venir
de serviRed de IBM de Estrategia y Servicios de Optimización, un amplio modelo de solución
basada sobre todo aplicable en este contexto, ya que incorpora todos los elementos del servicio de
optimización. Ciclo de vida e infraestructura de TI y, por tanto, representa un enfoque holístico de
la inusualmente optimización de la red.

Servidores virtuales de apoyo más manejable, estaciones de trabajo práctico

Otra forma de virtualización que es cada vez más utilizada por las empresas de hoy llega en forma
de estaciones de trabajo virtuales que se despliegan en un entorno Virtualizado, que ofrecen muchas
ventajas de peso en comparación con los entornos de trabajo tradicionales. Un entorno de estación
de trabajo tradicional contiene un alto equipo de escritorio de gama con almacenamiento local, la
transformación local, las aplicaciones locales y los datos locales. Si bien puede ser aprovechada
para desempeñar funciones de negocios en la demanda, proceso que normalmente requiere un
nuevo software y la configuración del nuevo personal de TI. Del mismo modo, darle a alguien el
uso de la estación de trabajo que se incluyen cambios en su ubicación (o del usuario). En estos
sentidos, representa un ejemplo clásico de una aplicación literal de TI en la que un activo está
ligado al hardware dedicado y es, por esta razón, relativamente inflexible. Las estaciones de trabajo
en un entorno Virtualizado, por el contrario, mejoran estas deficiencias a través de una
configuración completamente diferente. El entorno de la estación de trabajo completa asociados
con la estación de trabajo está organizado de forma remota y acceder a través de software que
ofrece ese medio ambiente a través de una red IP. El usuario final tiene acceso a una estación de
trabajo en una ventana, con todas las aplicaciones y los datos que han estado disponibles en una
estación de trabajo literal ahora entregado a través de servidores virtuales.

FECHA DE REGISTRO DOCUMENTAL

Código:[JHKPCW 42007] Fuente No. 4 Elaboró: KM

Tipo de fuente: Articulo tomado en base a la conferencia Internacional IEEE #PP. 6

Titulo: A Performance Evaluation Methodology in Virtual Environments (Una metodología


de evaluación de rendimiento en entornos virtuales)
Autores: Jiyong Han, Jang Saeyoung, Jinseok Kim, Sungyong Parque, Seungjo Bae, Young
Choon Woo.

Ubicación: 2007. CIT 2007. 7 ª Conferencia Internacional IEEE

Universidad: Sogang univ., Seúl;

ISBN: 978-0-7695-2983-7

INSPEC Accession Number: 9878886


Identificador de objeto digital: 10.1109/CIT.2007.179
Versión actual de publicación: 2007-11-21

Descripción: En esta conferencia se plantea la virtualización del sistemas como la emergente


máquina virtual (VM), la cual ya está siendo implementada por algunas plataformas del mercado
tales como VMWare, XenSource, IBM. Sin embargo, no se ocupan de las cuestiones como la
cantidad de beneficio que podemos hacer que los sistemas cuando usamos virtualizados
contra los no-sistemas virtualizados, aunque en general se de acuerdo en que los sistemas
virtualizados tienen una mayor utilización de la CPU que los sistemas no virtualizado. En cuatro
Temas vamos a desarrollar: Tema 1. Introducción hacia la virtualización de servidores. Tema 2. Se
definen los modelos de virtualización como sus características de arquitectura interna. Tema 3.
Metodología para la Evaluación del Desempeño. Tema 4. Evaluación del Desempeño. Tema5.
Conclusión e implementación futura. La conferencia es desarrollada en la universidad de Sogang de
Seúl.

Tabla de contenido:
1. Introducción, 2. Modelos de virtualización y características, 3.Metodologia para la
evaluación del desempeño, 4.Evaluacion del desempeño, 5.conclusion e implementación
futura.
Palabras clave:

Modelos de virtualización, arquitectura interna, evaluación del desempeño.

RESUMEN [4]

A PERFORMANCE EVALUATION METHODOLOGY IN VIRTUAL


ENVIRONMENTS (UNA METODOLOGÍA DE EVALUACIÓN DE
RENDIMIENTO EN ENTORNOS VIRTUALES)
“Colección de características detalladas de disco I / O para cargas de trabajo es el primer
paso en la afinación del rendimiento del subsistema de disco. Este trabajo presenta una
aplicación eficiente de disco I / O caracterización de la carga de trabajo mediante histogramas
en línea en una máquina virtual de hipervisor VMware ESX Server. Esta técnica permite la
recogida transparente y en línea de las principales características de la carga de trabajo
arbitraria, sin modificar instancias del sistema operativo se ejecuta en máquinas virtuales.
Para el análisis de que no se puede hacer de manera eficiente en línea, ofrecemos un comando
SCSI virtuales marco de rastreo. Nuestra histogramas en línea abarcan disco esencial de E / S
incluidos los parámetros de rendimiento de E / S de tamaño de bloque, la latencia, la localidad
espacial, de E / S período entre llegadas y profundidad de la cola activa. Demostramos nuestra
técnica en las cargas de trabajo de Filebench, DBT-2 y copiar archivos de gran tamaño se
ejecuta en máquinas virtuales y proporcionar un análisis de las diferencias entre los sistemas
de archivos ZFS y UFS en Solaris. Se demuestra que nuestra aplicación introduce los gastos
generales insignificante en la CPU, la memoria y la latencia y sin embargo es capaz de captar
las características esenciales de la carga de trabajo”.

La virtualización de servidores permite que los usuarios trabajen sobre las plataformas virtuales en
vez de plataformas físicas, esto brinda la velocidad adecuada, la comodidad y adicional los
beneficios tanto en lo laboral como en lo económico.

En este artículo entramos a comparar directamente la virtualización de servidores versus la no


virtualización de los sistemas.

Los sistemas virtualizados brindan beneficios tales como la mayor utilización de la CPU, de los
cuales los sistemas no virtualizados no lo hacen.

TEMA 1.
La virtualización del sistema entra con más fuerza a la nueva ola ya que el hardware que se
implementa en las plataformas es cada vez más eficiente y por lo tanto más económico. El auge de
estas tecnologías de TI (tecnologías informáticas) y los proveedores de algunos grupos de trabajo
como (VMware, XenSource, IBM, HP…), que brindan estos servicios están desarrollando
herramientas que serán implementadas para lograr un mejor rendimiento de los sistemas
virtualizados.

Se ha tenido en cuenta la diferencia entre algunas herramientas ya que indican que los sistemas
virtualizados tienden a tener un nivel de sobrecarga inferior al que producen los sistemas no
virtualizados, al igual se están implementado herramientas para determinar el nivel de optimización
para dar solución a los problemas que se están presentando la máquinas virtuales.

En este momento se trata de comparar el rendimiento y la optimización entre los sistemas antes
mencionados y sus diferente4s entornos.
TEMA 2.

Los modelos de virtualización que se están implantando en el mercado han generado algunas de las
perspectivas que se esperan obtener, estos sistemas se caracterizan por la aplicaciones ejecutadas en
la máquinas virtuales y con sus respectivas interacciones este los dominios utilizados por estos
sistemas virtuales.

Modelo de la empresa: básicamente este modelo nos indica que las solicitudes de las máquinas
virtuales deben tener las interacciones correspondientes. Así mismo consiste en una base de datos
de dominio como la infraestructura de comercio electrónico; con este modelo la degradación del
rendimiento a comparación con otros modelos puede encontrarse.

Modelo de SMB: con este modelo se requiere implantar la consolidación de las aplicaciones de la
virtualización de servidores de nivel medio. Con este modelo se trabajan las aplicaciones de
interacciones entre dominios consolidados.

Modelo de clúster: con este modelo se pretende manejar la carga de trabajo en conjunto para lograr
un buen rendimiento.

TEMA 3.

Para obtener la metodología sobre la evaluación del desempeño de estos sistemas se define un
rendimiento matricial para cualquiera de los sistemas virtualizados y no virtualizados. Se define un
rendimiento matricial y consolidado rendimiento tanto para un virtualizados y un no- virtualizado,
sistema nativo. A continuación, describir las configuraciones de banco de pruebas para la
evaluación del desempeño.

Métrica de resultados:

Se toma a partir de que la CPU ya esta tomada como la medida de la virtualización de los sistemas.

Consolidado de rendimiento:

Se determina la diferencia debido a las aplicaciones de los servicios brindados por las máquinas
virtuales, un aspecto relacionado con el significado y las escalas que se manejan. El rendimiento
consolidado Tnative y Tvirtualized de los sistemas no virtual izados y sistemas virtualizados,
respectivamente.

Configuración del Banco de pruebas: Estas pruebas se implementan sobre los sistemas
virtualizados y no virtualizados, esta actividad se realiza al mismo tiempo para comprobar la
optimización de los mismos...

CAP 4.
La evaluación del desempeño se describe en las secciones anteriores. Las evaluaciones de
rendimiento se llevan a cabo tanto en el sistema de virtualización y el no-virtualización sistema, y
todos los usos de la CPU y la aplicación de rendimiento se determinación con herramientas de
supervisión.

Evaluación del desempeño: Se corre tres puntos de referencia estándar de aplicaciones para la
medición de la utilización de la CPU y el rendimiento tanto para los bancos de pruebas. Todo el
programa de referencia tiene características diferentes. Para ejemplos, httperf generar de la CPU y
la red de carga de trabajo intensivo, el uso de disco IOzone I / O y de transacción cargas de trabajo
intensivas, y mysql-bench incluye una mezcla bien equilibrada la carga de trabajo que integre las
distintas Transacción PP.
Mediante el suministro de diferentes combinaciones de de cargas de trabajo de referencia, podemos
observar y analizar los diferentes efectos sobre el rendimiento.
Todos los servidores físicos están equipados con dos procesadores Intel Xeon los procesadores
Dual-Core 3.0 GHz, 4MB L2 cache, y dual Gigabit Ethernet. Hemos instalado la versión 2.6.15 del
kernel de Linux para los servidores físicos y Xen Linux versión del núcleo 2.6.19 y máquinas
virtuales en el sistema virtualizado.

CAP 5.

En este trabajo, se propone una metodología de evaluación para de referencia del rendimiento de los
sistemas virtualizados contra sistema no virtualizado en entornos Xen. En primer lugar, definir
cuatro modelos diferentes para caracterizar la arquitectura el rendimiento de los entornos virtuales
como la empresa modelo, SMB (Small and Business), modelo de acogida, y el modelo de clúster.
Se define un nuevo indicador de rendimiento, M, la tasa de residuos del sistema normalizado por
consolidó a lo largo tanto para system virtualizados y no virtualizados sistemas.
A continuación, hemos comparado el rendimiento de los sistemas virtualizados
frente a la no virtualizados los sistemas que utilizan este indicador.
Proporcionamos resultados de la evaluación con varios temas de la las máquinas virtuales y las
combinaciones de carga de trabajo mediante norma generadores de la carga de trabajo (por ejemplo,
httperf y IOzone). Comparamos el efecto diferente sobre el rendimiento de la virtualizados sistema,
analizarlos.

BIBLIOGRAFIA

[1]http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=4385107

[2] P. Barham, B. Dragovic, K. Fraser, S. Hand, T. Harris, A. Ho, R. Neugebauery, I.


Pratt, y A. Warfeld. Xen y el arte de la virtualización.

[3] J. P. Casazza, M. Greenfield, y K. Shi. Redefinir El rendimiento del servidor de


caracterización para la virtualización Benchmarking. Informe Técnico 1535-864X, Intel
Corp.
[4] L. Cherkasova y R. Gardner. Medición de sobrecarga de la CPU para E / S de
procesamiento en el Xen Virtual Machine Monitor. Technical Report HPL-2005-62,
sistemas de Internet y de almacenamiento De laboratorio, los laboratorios de HP en Palo
Alto, marzo de 2005.

[5] D. A. Menasce. Virtualización: conceptos, aplicaciones y, Performance Modeling.


31th International Computer Measurement Conferencia del Grupo, páginas 407-414,
diciembre de 2005.

[6] J. E. Smith y R. Nair. Máquinas Virtuales: Plataformas versátil de los Sistemas y


Procesos. Elsevier Inc., San Francisco, CA, 2005.

[7] de referencia de MySQL. http://dev.mysql.com/doc/refman/5.0/ es / mysql-


benchmarks.html.

FECHA DE REGISTRO DOCUMENTAL

Código:[ AH 52007] Fuente No. 5 Elaboró: KM

Tipo de fuente: Articulo patrocinada por la IEEE Computer Society y el Comité Técnico de la
arquitectura de computadores # PP. 10

Titulo: Easy and Efficient Disk I/O Workload Characterization in VMware ESX Server (Fácil
y eficiente de disco E / S Caracterización de la carga de trabajo en VMware ESX Server)
Autor: Irfan Ahmad

Ubicación: IISWC 2007. IEEE 10th International Symposium on workload characterization

Lugar: Boston, MA;

ISBN: 978-1-4244-1561-8

INSPEC Accession Number: 9878886


Identificador de objeto digital: 9765778
Versión actual de publicación: 2007-10-22

Descripción: Este trabajo presenta una aplicación eficiente de disco I / O caracterización de la carga
de trabajo mediante histogramas en línea en una máquina virtual de hipervisor VMware ESX Server...
En cuatro capítulos vamos a desarrollar el tema: Tema 1. Introducción. Tema 2. VMware Esx Server
arquitectura. Tema 3. Histogramas en línea para la caracterización. Tema 4. Resultados. Tema 5.
Trabajo relacionado. Tema. 6. Conclusión e implementación futura. El articulo fue desarrollado en
Boston, MA

Tabla de contenido:
1. Introducción, 2. VMware Esx Server arquitectura, 3. Histogramas en línea para la
caracterización, 4. Resultados, 5. Trabajo relacionado, 6. Conclusión e implementación futura.
Palabras clave:

Server arquitectura, Histogramas en línea arquitectura interna, implementación futura.

RESUMEN [5]
EASY AND EFFICIENT DISK I/O WORKLOAD CHARACTERIZATION IN VMWARE
ESX SERVER (FÁCIL Y EFICIENTE DE DISCO E / S CARACTERIZACIÓN DE LA
CARGA DE TRABAJO EN VMWARE ESX SERVER)

“La virtualización del sistema entra en el centro de atención de nuevo con la emergente
máquina virtual (VM) de tecnologías (por ejemplo, NMware y XenSource). Con estas
tendencias del mercado hacia entornos virtuales, muchos grupos de investigación se están
desarrollando herramientas de evaluación para comprobar el rendimiento de los sistemas
virtuales y sus gastos generales. Sin embargo, la caracterización del rendimiento en entornos
virtuales. Este trabajo se clasifican en cuatro modelos de virtualización para caracterizar el
rendimiento de los entornos virtuales y presentar una eficiente CALIFICACION metodología
para comparar el rendimiento de sistemas virtualizados versus no virtualizados”.

En este artículo nos basamos en el rendimiento del disco I/O, para llevar acabo la virtualización de un
sistema. Vamos a detallar el trabajo de rendimiento de los mismos mediante histogramas en línea.
Esto nos permite hacer una recolecta transparente y en línea de la carga de trabajo que se va ha
implementar lo que se llama arbitraria, esto se lleva a cabo sin necesidad de hacer cambios en el
sistema operativo para ser ejecutado en máquinas virtuales (VM).

El histograma en línea, básicamente abarca todo lo relacionado con el disco E/s, incluyendo los
parámetros de rendimiento del mismo. Se llego a realizar una demostración de cargos basándonos en
la técnica de “”Filebench”, en la cual se proporciono un gran tamaño y se ejecuto en la máquina
virtual, así mismo fue capaz de asimilar las características de la carga de trabajo.

TEMA 1.

Más que todo consiste en la instalación de controladores o filtros conductores para la recolección de
las E/S. en este caso en mucho de los entornos empresariales se consideraría como pruebas de pre-
producción.

Si en un centro de datos se tienen varios sistemas operativos y “Service pack” instalado, se requieren
métodos compatibles para todas las versiones utilizadas. Una de las técnicas utilizadas es útil si el
sistema operativo cuenta con las características necesarias para brindar un buen rendimiento y
obtener las características de la carga requeridas.

En muchos casos los parches que se implementan están disponibles para dar funcionamiento de un
código abierto de sistemas de la recogida de histogramas en línea. Otra de las técnicas que podemos
resaltar esta basada en hardware, ya que su funcionamiento se remota a sus propias metas
requiriendo un costoso régimen de las interfaces utilizadas por el hardware de algunos productos
básicos.

Estas técnicas tienden a tener falencias relacionadas con el análisis de datos que proceden de
diferentes fuentes ejemplo “(huellas diferentes sistemas operativos)”, los cuales pueden utilizar
diferente formato y campos de datos para su desarrollo. Otras de las propiedades importantes es
incluir la relación de lecturas elaboradas para escritura, así mismo el tamaño de E/S, genera la
profundidad; dichas propiedades son tenidas en cuenta para el diseño de algunos sistemas de
almacenamiento desde diferentes cargas de trabajo y se requieren modelos de optimización diferentes
para un mejor rendimiento para no generar problemas en la máquinas virtuales.

TEMA 2

TEMA 2.

VMware ESX Server es una plataforma de software de que permite que múltiples máquinas virtuales
para compartir los recursos de hardware de un único servidor. Cada virtual máquina (VM) está bien
aislado de todas las otras máquinas virtuales, y se le da la ilusión de que se ejecuta directamente en
un servidor dedicado. ESX Server es una capa de software que se ejecuta directamente en la de la
máquina y controla el acceso al hardware físico. IBM desarrolló el concepto de máquinas virtuales en
el la década de 1960 para permitir el acceso simultáneo e interactivo con los ordenadores centrales.
La versión actual de VMware ESX Server virtualiza servidores basados en el Intel x86 y x86-64. Las
técnicas de este documento se basan en un hipervisor que puede inspeccionar todos los I / O de las
máquinas virtuales.

TEMA 3.

Histogramas de los valores observados de datos puede ser mucho más informativo que los números
individuales como media, la mediana y las desviaciones estándar de la media. Por ejemplo,
comportamientos multimodal se identifican fácilmente por conspirar histograma de los datos, pero
son ofuscados por una media. Histogramas también puede ser muy eficiente calculado que los
convierte en candidato ideal para la línea caracterización.

Localidad espacial:

Para determinar el nivel de localidad espacial en el I / O corriente de una máquina virtual, nuestro
objetivo es mantener un histograma de virtual buscar las distancias entre lo posterior / Os Nosotros
lograr esto por la grabación (en un 64 bits sin signo ubicación de memoria al disco virtual), el bloque
lógico última (en el espacio de direcciones virtuales de disco) de la I anterior de E / S
solicitar. En los siguientes E / S, insertamos la diferencia en bloques lógicos de la primera cuadra de
la corriente I / O a la última cuadra de la I anterior / O. Nos preservar este la diferencia como la
cantidad registrada en nuestra histograma que nos permite detectar los barridos invertir en el disco.
Reverse exploraciones tiende a ser lentos en los discos y por lo tanto la detección del comportamiento
de esta aplicación es realmente importante, ya que apunta a una debilidad potencial en los datos de la
aplicación de algoritmos de diseño.

CAP 4.

Para obtener resultados óptimos debemos encontrar una línea de histogramas, la cual se encuentra
llevando a cabo pruebas y experimentando, basados en distintas marcas del mercado. Para nuestro
ejemplo tomamos como referencia AMD sistema de Hewlett Packard conectados a una matriz de
Symmetrix de EMC,
para más detalles de instalación. “Ofrecemos datos para múltiples sistemas operativos diferentes
que se ejecutan en máquinas virtuales en VMware ESX Server. Para nuestro conocimiento,
ningún disco
carga de trabajo de forma explícita los controles si se ejecuta en un máquina virtual para
modificar su comportamiento”.
En esta nueva ola se esta ofreciendo a los usuarios múltiples sistemas operativos que son ejecutados
en máquinas virtuales en “VMware Esx Server”.

TEMA 5.
En este trabajo, se propone una metodología de evaluación para de referencia del rendimiento de los
sistemas virtualizados contra sistema no virtualizado en entornos Xen. En primer lugar, definir cuatro
modelos diferentes para caracterizar la arquitectura el rendimiento de los entornos virtuales como la
empresa modelo, SMB (Small and Business), modelo de acogida, y el modelo de clúster.
Se define un nuevo indicador de rendimiento, M, la tasa de residuos del sistema normalizado por
consolidó a lo largo tanto para systen virtualizados y no virtualizados sistemas.
A continuación, hemos comparado el rendimiento de los sistemas virtualizados
frente a la no virtualizados los sistemas que utilizan este indicador.
Proporcionamos resultados de la evaluación con varios temas de la las máquinas virtuales y las
combinaciones de carga de trabajo mediante norma generadores de la carga de trabajo (por ejemplo,
httperf y IOzone). Comparamos el efecto diferente sobre el rendimiento de la virtualizados sistema,
analizarlos.

CAP 6.

Ha habido una serie de documentos que han caracteriza el comportamiento del sistema de archivo de
cargas de trabajo. Muchos periódicos han se centraron en localizar los análisis basados en la carga de
trabajo caracterización. El análisis se realiza fuera de línea e histogramas son útiles en este contexto.
Nuestro enfoque es para realizar el análisis de la carga de trabajo en línea, sin que requieran huellas.
Hacemos esto de manera eficiente el uso en línea histogramas. Uso de las cargas de trabajo de
síntesis, tales como Cometer, a las solicitudes de modelo es otro conocido técnico. Sin embargo,
requiere información detallada de que el conocimiento de las características de la carga de trabajo que
se simuladas. En este trabajo, hemos demostrado la de utilidad de los histogramas en línea en lugar de
seguimiento basado en análisis para este propósito.
Las máquinas virtuales se desarrollaron primero en la De 1960 y hay una gran cantidad de literatura
que describe su aplicación y rendimiento, por ejemplo. En otro documento miró a la virtualización
De E / S en dispositivos de producto de VMware Workstation y se centró en la ruta de acceso de red.
VMware Estación de trabajo se aprovecha de un subyacente de los productos básicos para su sistema
operativo de E / S pide, en cambio, ESX Server administra los dispositivos de hardware del servidor
directamente ESX que permite alcanzar una mayor rendimiento I / O y más que previsible de E / S de
cerca el comportamiento imitando la forma un sistema nativo se realizan.

CAP 7.

Disk I / O de tecnología sigue siendo un cuello de botella en el rendimiento de las cargas de trabajo
en todo el espectro. Existe un vacío de información importante en términos de información a
disposición de los administradores del sistema tratando de para ajustar y optimizar sus subsistemas de
almacenamiento. Allí no ha sido una forma fácil y manejable para caracterizar el rendimiento del
disco para la duración de un ciclo de vida del software de aplicación.
Nuestro trabajo mejora global en línea la caracterización de disco con la distribución de la carga de
trabajo localidad espacial, lectura / escritura ratios, I / O los tamaños, Yo pendientes / S, la latencia
del dispositivo y los tiempos entre.
Los gastos generales de nuestra aplicación está dentro de la el ruido que permite estas estadísticas
para permanecer todo el tiempo. Nuestro trabajo reduce el bar de la complejidad que implica la
la caracterización de la carga de trabajo de disco.

BIBLIOGRAFIA

[1]http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?
arnumber=4362191

[2] E. Falk, "Patch: Introducir bloques de E / S de


histogramas de desempeño", http://lwn.net/Articles/209770/

[3] "Física I / O Caracterización: Pablo Física I / O fondo


para el seguimiento",
http://www.renci.org/projects/cadre/CADRETrace
[Bibliotecas / CADREPhysicalIOLibrary.htm

[4] John L., P. y J. Vasudevan Sabarinathan, "la carga de


trabajo Caracterización: Motivación, Objetivos y
metodología ", la carga de trabajo Caracterización:
Metodología y estudios de caso, IEEE Computer Society

[5] R. McDougal, "FileBench: un modelo prototipo que se


basa la carga de trabajo
para sistemas de archivos, Work in Progress ",
http://www.solarisinternals.com/si/tools/fileb
/ Ench filebench_nasconf.pdf pp,.

[6] J. Sugerman, G. Venkitachalam y B.-H. Lim, "La


virtualización de E / S. Los dispositivos en Hosted VMware
Workstation Virtual Machine Monitor ", Proc. Anual de
Usenix Technical Conference, pp.
FECHA DE REGISTRO DOCUMENTAL

Código:[POLFFJ 62009] Fuente No. 6 Elaboró: KM

Tipo de fuente: Articulo

Titulo: Escritorios remotos en máquinas virtuales aplicados en grandes corporaciones

Autores: Josep Pujal, Antoni Oller, Juan López, Chris Fanning, Flaminio Minerva, Jesus
Alcober

Ubicación: Departamento de Ingeniería Telemática

Universidad: Universidad Politécnica de Catalunya

ISSN: ISSN 1139-207X


Versión actual de publicación: 2009

Descripción: El modelo básico que sirve para proporcionar un entorno ofimático en un lugar de
trabajo o un centro docente se ha mostrado inalterable durante los últimos años. Éste consiste en
proporcionar a cada lugar de trabajo un ordenador personal con su respectivo sistema operativo y
configuración... En cuatro temas daremos desenlace: Tema. 1. Introducción. Cap. 2. Arquitectura
de los sistemas. Tema. 3. Balanceo máquinas virtuales Tema. 4. Aplicaciones y ventajas aportadas.
Tema. 5. Conclusión

Tabla de contenido:
1. Introducción, 2. Arquitectura del sistemas, 3. Aplicaciones y ventajas aportadas, 4. Balanceo
de máquinas virtuales, 5.conclusion.
Palabras clave:

Virtualization, Xen, Remote desktop,

RESUMEN [6]
REMOTOS EN MÁQUINAS VIRTUALES APLICADOS EN GRANDES
CORPORACIONES

El modelo básico que sirve para proporcionar un entorno ofimático en un lugar de trabajo o un
centro docente se ha mostrado inalterable durante los últimos años. Éste consiste en proporcionar a
cada lugar de trabajo un ordenador personal con su respectivo sistema operativo y configuración, ya
que gracias a esta implementación podemos obtener mayores beneficios y una mejor optimización.
A pesar que existen herramientas como la utilización de imágenes que simplifican la gestión y
despliegue, este modelo provoca sustanciales costes en soporte, mantenimiento y en la adquisición
de equipos con recursos casi siempre infrautilizados, esto se debe a las desventajas que puede
conllevar implantar esta tecnología; podemos indicar que debido a la nueva ola tecnológica se busca
implantar esta nueva tecnología en los sistemas operativos tanto como en los escritorios remotos.

TEMA 1.

Las computadoras y los equipos de comunicación son un invento reciente, que no ha cumplido ni
un siglo de existencia desde su primera generación. Su evolución ha sido continua y constantemente
se han ido presentando nuevas propuestas y esquemas de actividad, a esto debemos empezar a
implantarle la tecnología de virtualizacion de servidores que es lo que se busca para optimizarla y
con el tiempo implantarla a toda la nueva ola.
Así mismo cada usuario trabaja con un terminal que no tiene directamente capacidad de
computación pero que está conectado con un potente equipo central llamado servidor.
Las primeras redes permitieron la comunicación entre centrales y terminales remotas por medio de
Líneas telefónicas. Posteriormente aparecerán las redes de conmutación de paquetes y más tarde
Internet, podemos ver que las nuevas tecnologías se han venido implementando rápidamente a la
tecnología, mediante la virtualizacion tendremos la capacidad de obtener mejores beneficios.

TEMA 2.

La propuesta que quiere plasmar el autor del articulo es poder obtener un cliente muy sencillo, el
cual ejecuta su PC sobre una serie de máquinas virtuales remotas que están administradas por una
serie de servicios auxiliares: el balanceador de máquinas virtuales y un sistema de autentificación
centralizado. Para acceder a su entorno de trabajo el usuario se conecta de forma transparente
utilizando un protocolo de escritorio remoto
De esta forma cada usuario se encuentra con una máquina totalmente a su disposición conforme a
su perfil y así mismo podrá ver reflejado el rendimiento que se espera; gracias a la implementación
de la VM máquinas virtuales los usuarios alcanzaran los resultados esperados.
Se describirán tecnologías de escritorios remotos, sistemas de almacenamiento y clustering, así
como el
dispositivo cliente.
A continuación veremos una grafica de implementación de la virtualización.

TEMA 3.

La ubicuidad proporcionada por el modelo es uno de sus puntos fuertes, estudiantes, pueden usar
las mismas aplicaciones y escritorios disponibles de cualquier laboratorio, éstos también pueden
pausar y continuar la sesión dónde y cuando quieran. Instituciones cuyas sedes se encuentran
dispersas por el territorio pueden verse favorecidas al disminuir los costes en desplazamiento de
personal de soporte.

TEMA 4.

El modelo presentado busca el máximo rendimiento de la infraestructura hardware, es por eso que
se desarrolla una arquitectura en cluster donde se ejecutan escritorios remotos en máquinas
virtuales. Esta arquitectura permite añadir en caliente más capacidad de computación, es decir
usuarios finales, con el simple hecho de ir sumando más recursos hardware. La pieza clave de esta
arquitectura es el balanceador, el cual según la demanda y capacidad de los diferentes recursos del
clúster ordenará la instanciación, pausa o parada de máquinas virtuales.

Un trabajador o estudiante llega a su lugar de trabajo y se autentica, el sistema en función del


usuario pedirá al balanceador una máquina virtual disponible. Si el usuario dispone de una sesión ya
abierta, el balanceador reactivará la sesión ya existente e informará al dispositivo de la
configuración de esta sesión.

Las técnicas de migración de máquinas virtuales empiezan a ser soportadas por diferentes
tecnologías de virtualización, éstas permiten el traslado de una sesión activa a otra máquina del
clúster con más recursos.

TEMA 5

En este trabajo se indica un nuevo paradigma que aporta mejoras en costes y productividad, para
realizar la implementación de los sistemas virtuales a cualquier tipo de cliente todo ello apostando
por el uso de tecnologías de virtualización y de escritorios remotos. Para ello se ha presentado el
punto de vista arquitectónico de una plataforma de virtualización distribuida, que integrará un
servidor de perfiles que caracterizará a los usuarios con sus perfiles (e imágenes asociadas) y un
interfaz de provisión basado en servicios web que integrará diferentes plataformas de virtualización
(VMware, Xen, Virtualbox, ...), se toma como referencia las anteriores compañías, ya que estas
tienen buenos conocimientos sobre el tema y adicionalmente han venido implementado en el
mercado esta nueva tecnología, este modelo proporciona diversas ventajas sobre el modelo
tradicional basado en el PC de escritorio.

Por un lado conseguimos ventajas como ubicuidad, independencia tanto del terminal como de los
recursos de servidor o flexibilidad en el uso de diferentes sistemas operativos y/o aplicaciones en el
Mismo terminal.

BIBLIOGRAFIA

[1] VMWare, [http://www.vmware.com/]

[2] Xen, [http://www.xen.org/

[3] Dobrilovic, Dalibor; Stojanov, Zeljko; Using Virtualization Software in Operating


Systems Course, Information Technology: Research and Education, 2006. ITRE '06.
International Conference on 16-19 Oct. 2006 Page(s):222 - 226.

[4] Yuedong Zhang; Zhenhua Song; Dingju Zhu; Zhuan Chen; Yuzhong Sun; Redar: A
Remote Desktop Architecture for the Distributed Virtual Personal Computing; Grid and
Cooperative Computing, 2006. GCC 2006. Fifth International Conference Oct. 2006
Page(s):1 - 8.

[5] González Aragón, David; Oller, Antoni; Desarrollo de una plataforma de


virtualización; Bachelor thesis, UPC, EPSC, 3-abr-2008.
FECHA DE REGISTRO DOCUMENTAL

Código:[ D32007] Fuente No. 7 Elaboró: KM

Tipo de fuente: Articulo

Titulo: USO DE MÁQUINAS VIRTUALES EN LA ENSEÑANZA DE LAS TIC

Autores: Revista Tecnológica Dialnet

Ubicación: Comunicaciones world

ISSN: 1139.0867

Versión actual de publicación: 01/04/2007


Descripción: El éxito de compañías como VMware es un claro exponente de lo que la
virtualización se ha impuesto como una de las grandes tendencias en el centro de datos. Y no sólo
en el campo de los servidores y del almacenamiento. Están apareciendo hoy soluciones para todas
las capas de la infraestructura TI, desde las sobremesas y las aplicaciones a la propia red e incluso la
seguridad. En un tema desenlazaremos el tema.

Tabla de contenido:
1. Introducción, 2. Desenlace
Palabras clave:

Nivel lógico, nivel físico, virtualizacion

RESUMEN [2]

USO DE MÁQUINAS VIRTUALES EN LA ENSEÑANZA DE LAS TIC

TEMA 1.

El éxito de compañías como VMware es un claro exponente de que la virtualización se ha impuesto


como una de las grandes tendencias en el centro de datos. Y no sólo en el campo de los servidores y
el almacenamiento. Están apareciendo hoy soluciones para todas las capas de la infraestructura TI,
desde las sobremesas y las aplicaciones a la propia red e incluso la seguridad.

TEMA 2

La buena marcha de la virtualización en el campo de los servidores empieza ya a manifestarse en


las ventas de estos equipos. Cuando, el pasado noviembre, Gartner daba a conocer los resultados del
mercado de servidores correspondientes al tercer trimestre de 2006, atribuía la ralentización de las
ventas a la creciente adopción de la virtualización. El mercado de servidores sigue creciendo, pero
lejos de los dos dígitos frecuentes en el pasado. Como afirma la consultora, la virtualización hace
posible correr más programas sobre un mismo servidor físico, aprovechando mejor su capacidad y
permitiendo que un centro de datos soporte más trabajo con menos equipos.
De acuerdo con las conclusiones de una encuesta realizada entre empresas de todo el mundo por
Forrester Research en 2006, el 75% aseguraba ser consciente de las ventajas de las tecnologías de
virtualización, con un 26% que ya las había implementado y otro 8% que pensaba adoptar
proyectos piloto durante 2007. Mayor interés tiene el dato de que el 60% de las empresas que ya las
habían instalado planeaban expandir su aplicación a nuevas áreas.
Todavía sólo alrededor del 5% de los servidores de empresa están virtualizados y conseguir que
llegue el momento en que la virtualización sea la arquitectura de propósito general y el mecanismo
de despliegue de facto llevará su tiempo. Pero la tendencia está clara: la arquitectura del nuevo
centro de datos descansará sobre infraestructura virtualizada. Esta línea de evolución se justifica en
las ventajas ya conseguidas con la virtualización de los servidores, que animará a extender su
aplicación a otras áreas corporativas. Es más, los beneficios serán aún mayores cuando se adopte
globalmente a escala corporativa. Según Nemertes Research, aunque un recurso se desvincule de su
nivel físico se sigue viendo obligado a trabajar con otros recursos que siguen dependiendo de dicho
nivel físico y, en consecuencia, las ventajas conseguidas son limitadas. Es lo que ocurre cuando se
aborda la virtualización del servidor en solitario, sin tener en cuenta la de la red o el
almacenamiento.
En general, se puede decir que es el almacenamiento el segmento en el que, después de los
servidores, la virtualización está más avanzada. El punto débil sigue siendo, sin embargo, la
interoperabilidad, aunque fabricantes como HP, IBM, Hitachi Data Systems y EMC están
empezando a paliar el problema. Hitachi, por ejemplo, dispone del controlador inteligente
TagmaStore, que virtualiza los recursos de almacenamiento a él conectado, incluidos Enterprise
Storage Server de IBM, Symmetrix de EMC y los productos de Clariion. Por su parte, IBM y EMC
suministran appliances basadas en servidor que pueden conectar conmutadores director-class de
firmas como Brocade, Cisco y McData con recursos de almacenamiento virtualizados. El concepto
de virtualización ha llegado también tanto a la redes core corporativas como al routing de extremo.
Segmentando una empresa en varias subredes –con diferentes reglas y controles–, los usuarios
pueden utilizar características de routing virtual en sus conmutadores sin tener que comprar nuevos
chasis que se encarguen de hacer esta separación.
En realidad, el concepto de networking virtual no es nada nuevo, pues desde hace muchos años se
viene utilizando la tecnología de Virtual LAN (VLAN) para establecer segmentos LAN separados y
seguros en uno o múltiples conmutadores Ethernet. Pero ahora muchos fabricantes están integrando
características de routing virtualizado en sus conmutadores de core como una herramienta similar
para segmentar la red corporativa a Nivel 3 y conseguir mayores niveles de seguridad seguridad
control sobre el trafico de red interno y externo.
Esta tendencia se refleja en la proliferación de MPLS en las redes de los operadores, que emplea
Virtual Routing and Forwarding (VRF) para segregar tráfico del cliente en segmentos enrutados por
separado. Para el uso corporativo, VRF-lite (una implementación a pequeña escala que no requiere
MPLS), convierte un único router en múltiples cajas virtuales. Extreme, por ejemplo, incluye
configuracion de router virtual como una característica de su sistema operativo ExtremeWare XOS.
Juniper soporta la tecnología en su línea ISG de router/firewalls de seguridad, así como en otras
plataformas de routing. Y Cisco ofrece soporte de VRF y VRF-lite en la versión IOS de sus Catalyst
6500.
Así mismo, los conmutadores, permiten a los usuarios crear dominios de routing virtual en una
caja. Estos dominios, similares a las VLAN de Nivel 2, segregan flujos de tráfico. Los usuarios
pueden instalar cortafuegos fuera de la caja o listas de control de accesos internas para regular qué
tráfico será compartido entre los segmentos de routing virtual.
La tendencia está clara. El problema es que no todas las tecnologías de virtualización tienen igual
grado de madurez. En el campo de los servidores están muy evolucionadas, pero en otras áreas aún
están muy verdes, especialmente en la gestión y seguridad. En estos casos, conseguir las distintas
piezas virtualizadas necesarias puede suponer un enorme reto.

BIBLIOGRAFIA

[1] http://www.networkworld.es/Virtualizacion-global_Soluciones-para-todas-las-
ar/seccion-/articulo-183543

FECHA DE REGISTRO DOCUMENTAL

Código: [HEVA82009] Fuente No. 8 Elaboró: KM

Tipo de fuente: Articulo

Titulo: VIRTUALIZACIÓN: HACIA UNA INFRAESTRUCTURA FLUIDA

Autores: Herb VanHook (BMC)

Ubicación: BMC SOFTWARE ()

ISSN: 1698-5117

Versión actual de publicación: 04-08-2009


Descripción: La virtualización es un tema de plena actualidad dentro del mundo de las Tecnologías
de Información y la tecnología de virtualización muestra el potencial para provocar un cambio
fundamental en la forma en que los responsables de TI consideran sus recursos informáticos. Vamos
a tratar dos temas los cuales traen diferentes subtemas: TEMA 1. Introducción hacia la
virtualización de servidores. TEMA 2. Beneficios de la virtualizacion: b. Reducción del consumo
de energía, c. Mejor uso de los recursos de hardware d. Flexibilidad y capacidad de respuesta en
entornos de desarrollo de aplicaciones g. Agilidad y capacidad de respuesta ante nuevas demandas
de la empresa. H. Evolución de la infraestructura física i. Equipos virtuales j. Virtualización de
aplicaciones k. Las etapas de la Gestión la Virtualización, TEMA 3. Conclusión

Tabla de contenido:
Introducción, 2. Beneficios de la virtualizacion: a. Reducción del consumo de energía, b. Mejor uso
de los recursos de hardware c. Flexibilidad y capacidad de respuesta en entornos de desarrollo de
aplicaciones d. Agilidad y capacidad de respuesta ante nuevas demandas de la empresa. e.
Evolución de la infraestructura física, 3. Conclusión

Palabras clave:

RESUMEN [4]

VIRTUALIZACIÓN: HACIA UNA INFRAESTRUCTURA FLUIDA

La virtualización del sistema entra en el centro de atención de nuevo con la emergente máquina
virtual (VM) de tecnologías (por ejemplo, Parallels, VMware y Xen). Con estas tendencias del
mercado hacia entornos virtuales, muchos grupos de investigación se están desarrollando
herramientas de evaluación para comprobar el rendimiento de los sistemas virtuales y sus gastos
generales. Sin embargo, la caracterización del rendimiento en entornos virtuales no se ha
establecido Sin embargo, para muchas cuestiones difíciles. En este trabajo se clasifican de cuatro
modelos de virtualización para caracterizar el rendimiento de de los entornos virtuales y presentar
una eficiente CALIFICACIÓN metodología para comparar el rendimiento de virtualizados versus
no virtualizados sistemas.

TEMA 1.

La virtualización es un tema de plena actualidad dentro del mundo de las Tecnologías de


Información y la tecnología de virtualización muestra el potencial para provocar un cambio
fundamental en la forma en que los responsables de TI consideran sus recursos informáticos.
Aunque las opciones de virtualización del almacenamiento y la red están evolucionando, el
mercado ha desplazado recientemente el foco de atención hacia la virtualización de los servidores
x86. Este cambio de tendencia se va a mantener durante la próxima década a medida que la
arquitectura de los microprocesadores y de los servidores evolucione para dar cabida a entornos de
virtualización más amplios. Las soluciones y capacidades de virtualización van a cambiar de
manera radical durante los próximos años. Las tecnologías de virtualización ya están
subdividiéndose en múltiples líneas de desarrollo técnico y “objetivos” de virtualización (por
ejemplo servidores, almacenamiento, aplicaciones, middleware). Todos los elementos del centro de
datos del futuro tendrán un “aroma” muy virtual y ello va a imponer a los arquitectos, así como al
personal de soporte operativo, la necesidad de reciclarse para aprovechar adecuadamente esta
evolución.

TEMA 2.

El trabajo realizado por los primeros fabricantes de estas tecnologías para convencer a los clientes
del valor de la virtualización ya ha concluido.

La virtualización sigue mostrando nuevos beneficios tangibles, mayores cuanto más se difunde su
uso, extendiendo su valor a toda la compañía. El retorno de las inversiones en virtualización

a) Reducción del consumo de energía: Un dato comprobado es que el consumo eléctrico no


se ordena directamente con el nivel de utilización de los equipos. Mantener menos equipos y
dispositivos físicos y hacerlos funcionar a un régimen más elevado puede considerarse una
de las “reglas de oro de las TI ecológicas” (Tecnologías Informáticas ecológicas). El menor
consumo de espacio y energía puede aportar un beneficio adicional en forma de larga de la
vida útil de los actuales centros de datos. Las compañías eléctricas también han adoptado
este criterio y ofrecen incentivos para la adopción de soluciones de virtualización

b) Mejor uso de los recursos de hardware: Los servidores distribuidos habitualmente


muestran niveles de actividad bajos y consolidar estas tareas suponiendo un uso más
razonado y eficiente de los dispositivos físicos.

c) Flexibilidad y capacidad de respuesta en entornos de desarrollo de aplicaciones:


Disponiendo de una infraestructura física reducida que pueda reutilizarse para nuevos fines
cuando sea preciso, para dar soporte a escenarios muy distintos se puede agilizar los tiempos
de ejecución de los nuevos proyectos.

d) Agilidad y capacidad de respuesta ante nuevas demandas de la empresa: Las opciones


que abren los servidores virtuales permiten un rápido aprovisionamiento y configuración,
sin tener que recorrer amplios ciclos de operación ligados a menudo con la compra,
reutilización o aprovisionamiento de dispositivos físicos. Aparte, las tecnologías de
virtualización permiten aplicar nuevas técnicas de equilibrio de carga para resolver
situaciones de expansión y contracción de la actividad de los sistemas.
e) Evolución de la infraestructura física: La virtualización de servidores se ha desarrollado
en paralelo con la evolución de las plataformas informáticas, desde la arquitectura modular
del servidor “blade” que está ganando terreno actualmente por su densidad y por su facilidad
de implementación. Optimizándolas para entornos virtuales, las arquitecturas x86 y otras
arquitecturas de servidores distribuidos han empezado ya su propio itinerario simbiótico con
opciones de virtualización. En consecuencia, muchas capacidades de virtualización
ofrecidas por software (hypervisor) actualmente se van a trasladar al hardware en el futuro.
Esta migración de la virtualización desde el software al hardware se puede observar en otras
muchas áreas de forma parecida.
Conforme vayan apareciendo nuevas opciones de virtualización, los arquitectos de las
grandes compañías van a tener que elegir las plataformas más adecuadas para sus
organizaciones. La mayoría de empresas probablemente van a terminar con dos, tres o más
plataformas de virtualización. Actualmente un 40% aproximadamente de las tareas
ejecutadas en las empresas son candidatos razonablemente buenos para la virtualización,
según ciertas estimaciones de analistas del sector. Las empresas que actualmente están
valorando nuevos proyectos de implantación de servidores tienden a pensar de forma
inmediata en la virtualización de dichas tareas. Aunque las nuevas tareas serán
definitivamente candidatas para la virtualización, son las aplicaciones más antiguas las que
suponen el mayor problema.

TEMA 3

Muchas empresas están pensando ya cómo pueden introducir la tecnología de virtualización


para mejorar sus capacidades de recuperación ante desastres o consolidar sus servidores
físicos. Muchas veces se fijan en tácticas de corto plazo en vez de pensar de forma
estratégica y a largo plazo. La virtualización aporta nuevas formas de agilidad –la capacidad
para proporcionar nuevos servicios, una respuesta más rápida, mayor disponibilidad- para la
propia empresa. ¿Qué más podemos hacer con ella aparte de resolver ciertos problemas
puntuales?”.

BIBLIOGRAFIA

[1] www.eweekeurope.es/.../virtualizacion--hacia-una-infraestructura-fluida-1287
[2]www.eweekeurope.es/opinion/virtualizacion--hacia-una-infraestructura-fluida-1287?
page=4
FECHA DE REGISTRO DOCUMENTAL

Código: [RL 92008] Fuente No. 9 Elaboró: KM

Tipo de fuente: Articulo

Titulo: MICROSOFT PRESENTA TECNOLOGÍA DE HIPERVISOR

Autores: Redmond, Wash./Ft. Lauderdale

Ubicación: ARCHIVO MICROSOFT

ISBN: 978-84-613-3888-7

Versión actual de publicación: 26-06-2008


Descripción: La virtualización ayuda a las compañías a impulsar el valor de sus inversiones en TI y
reducir el uso de hardware, el consumo de energía, el costo y la complejidad de administrar los
sistemas de TI, al tiempo que incrementa la flexibilidad del ambiente en general. Vamos a tratar
cuatro temas: TEMA 1. Introducción. TEMA 2. El enfoque integrado, TEMA 3. Beneficios de
escalabilidad, costo y desempeño

Tabla de contenido:
1. Introducción, 2. El enfoque integrado, 3. Beneficios de escalabilidad, costo y desempeño.

Palabras clave:

RESUMEN [4]

MICROSOFT PRESENTA TECNOLOGÍA DE HIPERVISOR

La virtualización ayuda a las compañías a impulsar el valor de sus inversiones en TI y reducir el uso
de hardware, el consumo de energía, el costo y la complejidad de administrar los sistemas de TI, al
tiempo que incrementa la flexibilidad del ambiente en general. La estrategia e inversiones de
Microsoft —que abarcan desde los sistemas de escritorio hasta el centro de datos— ayudan a los
profesionales de TI y a los desarrolladores a implementar la iniciativa Dynamic IT de Microsoft,
mediante la cual pueden crear sistemas que sean lo bastante flexibles e inteligentes para adaptarse
automáticamente a los cambios en los negocios a través de la alineación entre los recursos de
computación y los objetivos estratégicos.

TEMA 1.
“Windows Server 2008 con Hyper-V está diseñado para ofrecer a una amplia variedad de clientes
un software de infraestructura de virtualización familiar y económico para que puedan reducir los
costos operativos, y asi mismo se pueda aumentar el uso de hardware, optimizar la infraestructura
y mejorar la disponibilidad del servidor”, Werner Corrales, Director de Infraestructura de TI en
Microsoft Latinoamérica.

Hyper-V brinda a los clientes una plataforma de virtualización confiable, escalable y de alto
desempeño que se conecta a las infraestructuras actuales de TI de los clientes y les permite
consolidar algunas de las cargas de trabajo más demandantes. Asimismo, la familia de productos
Microsoft System Center proporciona a los clientes un solo conjunto de herramientas integradas
para administrar los recursos físicos y virtuales, lo que ayuda a los clientes a crear un centro de
datos más ágil y dinámico.

“Los clientes que adquieren Windows Server 2008 no sólo reciben ventajas en escalabilidad, alto
desempeño y confiabilidad, además de todas los excelentes elementos que distinguen a Windows
Server, sino también los beneficios de una virtualización integrada con Hyper-V”, dice Bill Hilf,
gerente general de Estrategia de Plataforma y Mercadotecnia Windows Server en Microsoft Corp.

TEMA 2.

Para acompañar las tecnologías de virtualización de Microsoft como Hyper-V, Microsoft ofrece
herramientas de administración para configurar, operar, implementar y respaldar los servidores
físicos y virtuales desde el centro de datos hasta los sistemas de escritorio —todo desde una sola
ventana de cristal—. Con las herramientas y procesos de administración adecuados, los clientes
pueden controlar el poder de la virtualización e incrementar su agilidad. Esto puede ayudar a evitar
problemas como la “expansión descontrolada de servidores virtuales”, problema inherente al uso
cada vez mayor de virtualización de servidores.

Microsoft lo que esta buscando es poder ayudar a los clientes a contar con sistemas de TI más
dinámicos y capaces de auto administrarse para obtener mayor control sobre ellos. También desea
ayudar a que sus empresas respondan con mayor rapidez y se mantengan un paso adelante de la
competencia. Esto se logra al ofrecerles un conjunto completo de productos de virtualización que
abarquen desde el sistema de escritorio hasta el centro de datos y al ayudarlos a administrar sus
activos tanto virtuales como físicos desde una sola plataforma, este equivalente virtual de la
expansión descontrolada de servidores físicos proviene de la facilidad con la cual se pueden crear
máquinas virtuales. Algunos equipos de TI han permitido a varios grupos dentro de la empresa
crear sus propias máquinas virtuales, para después perder el control sobre ellas. Este tipo de uso
descontrolado puede conducir a cuestiones legales y de seguridad.
TEMA 3

La escalabilidad de Hyper-V se debe a que soporta múltiples procesadores y núcleos a nivel host y
mayores límites de memoria a nivel de host y de invitado dentro de las máquinas virtuales. Esto
permite a los clientes escalar su ambiente de virtualización para soportar cantidades grandes de
máquinas virtuales dentro de un host determinado y aprovechar la rápida migración para
incrementar la disponibilidad en varios hosts
Los clientes no son los únicos que se benefician de la mayor demanda por virtualización, las
conexiones de máquina virtual se encuentran a sólo 10 por ciento de obtener un desempeño nativo.
Esta prueba demuestra la capacidad de Hyper-V de llevar las ventajas de la virtualización a los
centros de datos más demandantes.

BIBLIOGRAFIA

[1] Sitio web de descarga de Hyper-V:


https://partner.microsoft.com/spain/40051021
[2] Sitio web de Windows Server 2008:
https://partner.microsoft.com/spain/40043454

[3] Sitio web de virtualización de Microsoft:


https://partner.microsoft.com/spain/40072998
FECHA DE REGISTRO DOCUMENTAL

Código:[MA 102008] Fuente No. 10 Elaboró: KM

Tipo de fuente: Articulo

Titulo: VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACIÓN

Autores: Isabel Martín

Pais: Madrid - España

ISSN: 1850-1710
Versión actual de publicación: 23 Mayo 2008

Descripción: Conocidas las distintas tecnologías existentes, examinamos aquí las ventajas de la
virtualización en cuanto a aprovechamiento del hardware, aislamiento, seguridad,
flexibilidad, agilidad y portabilidad, así como sus aplicaciones en las empresas,
recomendaciones y mejores prácticas. Desarrollaremos el articulo en seis temas: Tema.1.
introducción. Tema.2. La virtualización en la empresa. Tema.3. Virtualización del front-end
o del back-end. Tema. 4. La importancia de la gestión de la virtualización. Tema. 5. El
camino a la virtualización. Tema. 6. La virtualización no es sólo tecnología.

Tabla de contenido:

1.Introducción, 2. La virtualización en la empresa, 3. Virtualización del front-end o del back-end, 4.


La importancia de la gestión de la virtualización, 5. El camino a la virtualización, 6. La
virtualización no es sólo tecnología.

Palabras clave:

Virtualización,

RESUMEN [5]

VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACIÓN

Conocidas las distintas tecnologías existentes, examinamos aquí las ventajas de la virtualización en
cuanto a aprovechamiento del hardware, aislamiento, seguridad, flexibilidad, agilidad y
portabilidad, así como sus aplicaciones en las empresas, recomendaciones y mejores prácticas.

En cuanto a aprovechamiento del hardware, un mal extendido en los CPDs actuales es el gran
número de servidores, muchos de ellos infrautilizados. Si se virtualiza un número de esos sistemas
infrautilizados en un solo servidor físico, se ahorrará energía, espacio, capacidad de refrigeración y
administración, debido a que se ha reducido el número de servidores físicos.

TEMA 1.

Las máquinas virtuales son totalmente independientes, entre sí y con el hypervisor. Por tanto un
fallo en una aplicación o en una máquina virtual afectará únicamente a esa máquina virtual. El resto
de máquinas virtuales y el hypervisor seguirán funcionando normalmente, cada máquina tiene un
acceso privilegiado (root o administrador) independiente. Por tanto, un ataque de seguridad en una
máquina virtual sólo afectará a esa máquina.

Si en el PC de nuestra casa creamos máquinas virtuales, estaremos más protegidos ante posibles
virus que puedan introducirse por la conexión a Internet

TEMA 2.

La virtualización en la empresa tiene una clara aplicación práctica: la consolidación de servidores.


La consolidación de servidores consiste simplemente en la reducción del número de servidores.

Existen distintas maneras de consolidar, y una de ellas es la virtualización. Frente a otras vías para
la consolidación, la virtualización permite reducir el número de servidores y optimizar al mismo
tiempo su utilización. Es decir, que si antes de consolidar teníamos 100 servidores con una
utilización media de CPU del 30%, después de consolidar con virtualización tendremos 50
servidores con una utilización media de CPU del 60%. Si consolidamos sin virtualización,
podríamos tener 70 servidores con una utilización media del 40% (los números son meramente
ilustrativos).

Lo contrario a la virtualización, llamada agregación de servidores o grid computing, es otra forma


de virtualización. Consiste en que diversos servidores funcionen como uno solo, y también nos
puede ayudar a construir el nuevo CPD.

TEMA 3.

La virtualización puede realizarse a todos los niveles del CPD: desde los servidores de entrada o de
aplicaciones (front-end), a los servidores que contienen las aplicaciones críticas para el negocio o
las bases de datos (back-end), pasando por servidores de desarrollo o pruebas. De la gran variedad
de soluciones comerciales de virtualización, algunas están más orientadas a virtualizar los
servidores de negocio, mientras que otras son más adecuadas para servidores no críticos.

Las soluciones de VMWare, pioneras en virtualización y muy bien valoradas por los usuarios, son
más adecuadas para el front-end por diversos motivos, el hardware sobre el que se ejecutan no es
capaz de direccionar tantos datos de una sola vez como otras arquitecturas (porque no es una
arquitectura nativa 64 bits). Se tiene menor rendimiento para cargas de trabajo pesadas y el
hardware tiene características de fiabilidad y disponibilidad medias, se estropea con más frecuencia
y su reparación es más complicada que otras arquitecturas.

TEMA 4.

La virtualización presenta múltiples ventajas para los CPDs, principalmente desde el punto de vista
de simplificación de la infraestructura física y conexiones. Pero al realizarse por software lo que
antes se hacía por hardware, se introducen una nueva problemática que no existían en los entornos
físicos.

Si una máquina virtual puede ejecutarse en distintos servidores físicos, debemos saber en qué
servidor físico se está ejecutado en cada momento. O si un servidor físico cuenta con varias
máquinas virtuales que pueden estar arrancadas o no, debemos conocer en todo momento el estado
de esas máquinas virtuales.

en un CPD convivirán servidores físicos y virtuales, por lo que la herramienta de gestión deberá
permitir la gestión de los dos tipos de plataformas, idealmente en una única consola y asi mismo se
utilizan diversas tecnologías de virtualización, desde esta consola deberán poderse invocar de
manera transparente todas las herramientas de gestión específicas de cada plataforma.

TEMA 5.

Lo primero que hay que tener en cuenta es que la consolidación total es algo sólo teórico, que no es
posible en el mundo real. La consolidación total implicaría reutilizar todo el hardware existente, que
no hubiera ningún tipo de traba política, de licenciamiento, ni de aislamiento entre aplicaciones, y
lamentablemente esto no es así.

En el término medio está la virtud, y por ese motivo las compañías se están planteando proyectos de
consolidación, en los que se reutiliza sólo parte del hardware existente, y que se aplica únicamente a
determinados entornos (típicamente los no productivos) o aplicaciones. Este tipo de consolidación
ya ofrece unos beneficios notables en cuanto a ahorro de costes y agilidad.

TEMA 6.

Virtualización suele asociarse a tecnología. Sin embargo, la tecnología que permite la virtualización
es sólo la punta del iceberg, una pequeña porción de la foto global. Cuando una compañía decide
abordar la virtualización, gran parte del esfuerzo debe dedicarse a los aspecto culturales, humanos y
relativos a procesos.

BIBLIOGRAFIA

[1] http://www.techweek.es/virtualizacion/tech-labs/1003109005901/ventajas-desventajas-
virtualizacion.1.html

[2]

http://www.canal-ar.com.ar/noticias/noticiamuestra.asp?Id=5357
FECHA DE REGISTRO DOCUMENTAL

Código:[MA 102008] Fuente No. 10 Elaboró: KM

Tipo de fuente: Articulo

Titulo: VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACIÓN

Autores: Isabel Martín


Pais: Madrid - España

ISSN: 1850-1710

Versión actual de publicación: 23 Mayo 2008

Descripción: Conocidas las distintas tecnologías existentes, examinamos aquí las ventajas de la
virtualización en cuanto a aprovechamiento del hardware, aislamiento, seguridad,
flexibilidad, agilidad y portabilidad, así como sus aplicaciones en las empresas,
recomendaciones y mejores prácticas. Desarrollaremos el articulo en seis temas: Tema.1.
introducción. Tema.2. La virtualización en la empresa. Tema.3. Virtualización del front-end
o del back-end. Tema. 4. La importancia de la gestión de la virtualización. Tema. 5. El
camino a la virtualización. Tema. 6. La virtualización no es sólo tecnología.

Tabla de contenido:

1.Introducción, 2. La virtualización en la empresa, 3. Virtualización del front-end o del back-end, 4.


La importancia de la gestión de la virtualización, 5. El camino a la virtualización, 6. La
virtualización no es sólo tecnología.

Palabras clave:

Virtualización,

RESUMEN [5]

VENTAJAS Y DESVENTAJAS DE LA VIRTUALIZACIÓN

Conocidas las distintas tecnologías existentes, examinamos aquí las ventajas de la virtualización en
cuanto a aprovechamiento del hardware, aislamiento, seguridad, flexibilidad, agilidad y
portabilidad, así como sus aplicaciones en las empresas, recomendaciones y mejores prácticas.

En cuanto a aprovechamiento del hardware, un mal extendido en los CPDs actuales es el gran
número de servidores, muchos de ellos infrautilizados. Si se virtualiza un número de esos sistemas
infrautilizados en un solo servidor físico, se ahorrará energía, espacio, capacidad de refrigeración y
administración, debido a que se ha reducido el número de servidores físicos.

TEMA 1.
Las máquinas virtuales son totalmente independientes, entre sí y con el hypervisor. Por tanto un
fallo en una aplicación o en una máquina virtual afectará únicamente a esa máquina virtual. El resto
de máquinas virtuales y el hypervisor seguirán funcionando normalmente, cada máquina tiene un
acceso privilegiado (root o administrador) independiente. Por tanto, un ataque de seguridad en una
máquina virtual sólo afectará a esa máquina.

Si en el PC de nuestra casa creamos máquinas virtuales, estaremos más protegidos ante posibles
virus que puedan introducirse por la conexión a Internet

TEMA 2.

La virtualización en la empresa tiene una clara aplicación práctica: la consolidación de servidores.


La consolidación de servidores consiste simplemente en la reducción del número de servidores.

Existen distintas maneras de consolidar, y una de ellas es la virtualización. Frente a otras vías para
la consolidación, la virtualización permite reducir el número de servidores y optimizar al mismo
tiempo su utilización. Es decir, que si antes de consolidar teníamos 100 servidores con una
utilización media de CPU del 30%, después de consolidar con virtualización tendremos 50
servidores con una utilización media de CPU del 60%. Si consolidamos sin virtualización,
podríamos tener 70 servidores con una utilización media del 40% (los números son meramente
ilustrativos).

Lo contrario a la virtualización, llamada agregación de servidores o grid computing, es otra forma


de virtualización. Consiste en que diversos servidores funcionen como uno solo, y también nos
puede ayudar a construir el nuevo CPD.

TEMA 3.

La virtualización puede realizarse a todos los niveles del CPD: desde los servidores de entrada o de
aplicaciones (front-end), a los servidores que contienen las aplicaciones críticas para el negocio o
las bases de datos (back-end), pasando por servidores de desarrollo o pruebas. De la gran variedad
de soluciones comerciales de virtualización, algunas están más orientadas a virtualizar los
servidores de negocio, mientras que otras son más adecuadas para servidores no críticos.

Las soluciones de VMWare, pioneras en virtualización y muy bien valoradas por los usuarios, son
más adecuadas para el front-end por diversos motivos, el hardware sobre el que se ejecutan no es
capaz de direccionar tantos datos de una sola vez como otras arquitecturas (porque no es una
arquitectura nativa 64 bits). Se tiene menor rendimiento para cargas de trabajo pesadas y el
hardware tiene características de fiabilidad y disponibilidad medias, se estropea con más frecuencia
y su reparación es más complicada que otras arquitecturas.

TEMA 4.

La virtualización presenta múltiples ventajas para los CPDs, principalmente desde el punto de vista
de simplificación de la infraestructura física y conexiones. Pero al realizarse por software lo que
antes se hacía por hardware, se introducen una nueva problemática que no existían en los entornos
físicos.

Si una máquina virtual puede ejecutarse en distintos servidores físicos, debemos saber en qué
servidor físico se está ejecutado en cada momento. O si un servidor físico cuenta con varias
máquinas virtuales que pueden estar arrancadas o no, debemos conocer en todo momento el estado
de esas máquinas virtuales.

en un CPD convivirán servidores físicos y virtuales, por lo que la herramienta de gestión deberá
permitir la gestión de los dos tipos de plataformas, idealmente en una única consola y asi mismo se
utilizan diversas tecnologías de virtualización, desde esta consola deberán poderse invocar de
manera transparente todas las herramientas de gestión específicas de cada plataforma.

TEMA 5.

Lo primero que hay que tener en cuenta es que la consolidación total es algo sólo teórico, que no es
posible en el mundo real. La consolidación total implicaría reutilizar todo el hardware existente, que
no hubiera ningún tipo de traba política, de licenciamiento, ni de aislamiento entre aplicaciones, y
lamentablemente esto no es así.

En el término medio está la virtud, y por ese motivo las compañías se están planteando proyectos de
consolidación, en los que se reutiliza sólo parte del hardware existente, y que se aplica únicamente a
determinados entornos (típicamente los no productivos) o aplicaciones. Este tipo de consolidación
ya ofrece unos beneficios notables en cuanto a ahorro de costes y agilidad.

TEMA 6.

Virtualización suele asociarse a tecnología. Sin embargo, la tecnología que permite la virtualización
es sólo la punta del iceberg, una pequeña porción de la foto global. Cuando una compañía decide
abordar la virtualización, gran parte del esfuerzo debe dedicarse a los aspecto culturales, humanos y
relativos a procesos.

BIBLIOGRAFIA

[1] http://www.techweek.es/virtualizacion/tech-labs/1003109005901/ventajas-desventajas-
virtualizacion.1.html

[2]

http://www.canal-ar.com.ar/noticias/noticiamuestra.asp?Id=5357
[4]
Microsoft presenta tecnología de hipervisor.mht
REFERENCIAS

[PAMA 12006] Macia, C. P. (2006). La Virtualizacion de los Recursos Tecnologicos, Impulsor del
cambio en la Empresa. Universia Business Review .

[JHKPCW 42007]A Performance Evaluation Methodology in Virtual Environment. (2007).


Universidad Sogang Seul. CIT 2007 Conferencia Internacional IEEE , ISBN 978-0-7695-29-83-7.

[RO22009]Ros, J. (2009). Virtualizacion Corporativa con Vmware. ISBN 13.978-84-613-3888-7 .

[IBM32007] IBM Global Technology Services. WHITE PAPER. Why virtualization matters to the
Enterprise today. (DIC – 2007).

[JHKPCW 52007]Ahmad, Irfan. (2007). Easy and Efficient Disk I/O Workload Characterizacion In
VMware ESX Server. IISWC 2007.IEEE 10th International Symposium on Workload
Characterization. Boston: ISBN 978-1-4244-1561-8.

[POLFFJ 62009]Josep Pujal, A. O. (2009). Escritorios remotos en máquinas virtuales aplicados


en grandes corporaciones. Departamente de Ingenieria Telematica .

[ D32007] Uso de Máquinas Virtuales en la Enseñanza de las TIC. (2007). Revista Tecnologica
Dialnet , ISSN 1139.0867.

[HEVA82009]VanHook, H. (2009). Virtualizacion: Hacia una Infraestructura Fluida. BMC


SOFTWARE .

[RL 92008]Redmond Wash, F. L. (2008). Microsoft Presenta Tecnologia de Hipervisor. Archivo


Microsot , ISBN 978-84-613-3888-7.

[MA 102008] Martin, I. (2008). Ventajas y Desventajas de la Virtualizacion. ISSN 1850-1710.

https://www304.ibm.com/businesscenter/smb/es/es/solucionesdenegocio/infraestructura/vir
tualizacion/gcl_xmlid/143702

http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=4385107

http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=4362191

http://portalweb.ucatolica.edu.co/easyWeb2/lsia/pages.php/menu/036037/id/2037/content/
misian/

Das könnte Ihnen auch gefallen