FACULTAD DE INGENIERÍA Y ARQUITECTURA ESCUELA PROFESIONAL DE INGENIERÍA DE COMPUTACIÓN Y SISTEMAS IMPLEMENTACIÓN DE VIRTUALIZACIÓN EN EL CENTRO DE CÓMPUTO DEL MINISTERIO DE TRANSPORTES Y COMUNICACIONES PRESENTADA POR EDGAR RENÁN ESPINOZA VILLOGAS LUIS GUILLERMO LOBATÓN ROSAS TESIS PARA OPTAR EL TÍTULO PROFESIONAL DE INGENIERO DE COMPUTACIÓN Y SISTEMAS LIMA – PERÚ 2014 Reconocimiento - No comercial - Sin obra derivada CC BY-NC-ND El autor sólo permite que se pueda descargar esta obra y compartirla con otras personas, siempre que se reconozca su autoría, pero no se puede cambiar de ninguna manera ni se puede utilizar comercialmente. http://creativecommons.org/licenses/by-nc-nd/4.0/ ESCUELA PROFESIONAL DE INGENIERÍA DE COMPUTACIÓN Y SISTEMAS IMPLEMENTACIÓN DE VIRTUALIZACIÓN EN EL CENTRO DE CÓMPUTO DEL MINISTERIO DE TRANSPORTES Y COMUNICACIONES TESIS PARA OPTAR EL TÍTULO PROFESIONAL DE INGENIERO DE COMPUTACIÓN Y SISTEMAS PRESENTADO POR ESPINOZA VILLOGAS, EDGAR RENÁN LOBATÓN ROSAS, LUIS GUILLERMO LIMA – PERÚ 2014 i ii A mi madre, porque a ella le debo todo lo que soy. A mi padre, que desde el cielo guía con orgullo cada uno de mis logros A mi hermana, que siempre me apoyó y guió con su experiencia y buenos consejos. A Melina, quien siempre me acompañó, apoyó y tuvo inmensa paciencia en este largo camino. A todos los mencionados les dedico mi empeño y mis ganas de seguir adelante, por eso este documento está dedicado a ellos. Edgar Renán Espinoza Villogas iii En primer lugar agradezco a Dios por darme la sabiduría suficiente como para concluir esta tesis. A mis padres, quienes siempre han sido mi soporte, los que me apoyan e impulsan a ser mejor persona y profesional. A mis hermanas, a quienes quiero mucho, ellas me enseñaron que con la perseverancia se llega a cumplir las metas A mi enamorada, quien todo este tiempo me apoyó e inspiró con paciencia para seguir adelante a pesar de las dificultades A mis primos, tíos y amigos, quienes tienen confianza en mí y me recuerdan siempre lo importante que es el deseo de superación A todos ellos les dedico este trabajo, el mismo que refleja para mí, su apoyo incondicional. Luis Guillermo Lobatón Rosas iv AGRADECIMIENTOS A nuestras familias A los amigos del Ministerio de Transportes y Comunicaciones que nos apoyaron con sus conocimientos e información. A nuestros amigos del entorno profesional que nos brindaron información de gran ayuda en este proyecto. A la Universidad de San Martín de Porres que nos brindó la oportunidad de participar en el taller de tesis. A los señores del jurado y a nuestros asesores, los Ingenieros Norma León Lescano y Jesús León Lamas, quienes con su conocimiento, experiencia y consejos nos orientaron de la mejor manera para poder concluir nuestra tesis. A todos ellos, les agradecemos mucho por su intervención en el desarrollo de este documento. v ÍNDICE RESUMEN ................................................................................................. xi ABSTRACT ........................................................................................... xiiiiii INTRODUCCIÓN ..................................................................................... xiv CAPÍTULO I: MARCO TEÓRICO 1.1. Problema ........................................................................................... 1 1.2. Objetivos ........................................................................................... 1 1.3. Justificación ....................................................................................... 2 1.4. Alcance .............................................................................................. 3 1.5. Premisas ........................................................................................... 3 1.6. Antecedentes .................................................................................... 4 1.7. Bases Teóricas ................................................................................ 10 1.8. Definición de Términos Básicos ...................................................... 33 CAPÍTULO II: METODOLOGÍA 2.1. Material ............................................................................................ 43 2.2. Métodos ........................................................................................... 45 vi CAPÍTULO III: DESARROLLO DEL PROYECTO 3.1. Análisis de la Situación Inicial ......................................................... 49 3.2. Requerimiento de la Nueva Infraestructura Virtual .......................... 55 3.3. Implementación de la Nueva Infraestructura Virtual ........................ 56 3.4. Pruebas y Capacitación del Personal. ............................................. 72 3.5. Migración de los Servidores Físicos a Virtuales .............................. 75 CAPÍTULO IV: PRUEBAS Y RESULTADOS 4.1. Pruebas ........................................................................................... 80 4.2. Resultados de la Pruebas ............................................................... 81 CAPÍTULO V: DISCUSIÓN Y APLICACIONES ...................................... 94 CONCLUSIONES .................................................................................... 96 RECOMENDACIONES ............................................................................ 98 FUENTES DE INFORMACIÓN ................................................................ 99 ANEXOS ................................................................................................ 108 vii TABLA DE FIGURAS Figura 1: Virtualización como estrategia Fuente: (NORDIC SOLUTIONS, 2014) ......... 5 Figura 2: Caso de éxito 1 .............................................................................................. 8 Figura 3: Caso de éxito 2 .............................................................................................. 9 Figura 4: Caso de éxito 3 ............................................................................................ 10 Figura 5: Técnica de Virtualización ............................................................................. 12 Figura 6 : Arquitectura y Funcionamiento ................................................................... 13 Figura 7: Aprovechamiento de recursos utilizando la Virtualización ........................... 14 Figura 8: Consolidación .............................................................................................. 15 Figura 9: Compatibilidad ............................................................................................. 16 Figura 10: Encapsulamiento ....................................................................................... 17 Figura 11: Migración P2V (Physical to Virtual) ............................................................ 22 Figura 12: Soluciones de Hardware ............................................................................ 23 Figura 13: Soluciones de Virtualización a través del cuadrante de Gartner ................ 24 Figura 14: Logo de VMware ........................................................................................ 24 Figura 15: Plataforma de virtualización VMware aplicada a muchos dispositivos de almacenamiento .......................................................................................................... 26 Figura 16: Logo de Hyper-V – Windows Server .......................................................... 28 viii Figura 17: Tabla comparativa Hyper-V Server vs vSphere4.1 .................................... 30 Figura 18: Proceso de Consolidación de Servidores Fuente: Propia - MTC ............... 31 Figura 19: Plan de Migración y Piloto ......................................................................... 33 Figura 20: Secuencia de Pasos de la Metodología ..................................................... 45 Figura 21: Actividades dentro de la Metodología ........................................................ 48 Figura 22: Inventario de Servidores ............................................................................ 49 Figura 23: Inventario de Equipos de Red .................................................................... 50 Figura 24: Diagrama de Red ....................................................................................... 50 Figura 25: Inventario de Aplicaciones ......................................................................... 51 Figura 26: Documento de Requerimiento de la nueva Infraestructura Virtual ............. 56 Figura 27: Nueva Infraestructura Virtual seleccionada ............................................... 57 Figura 28: Requisitos Eléctricos y Físicos para la instalación del Hardware .............. 58 Figura 29: Requisitos de Red...................................................................................... 59 Figura 30: Cronograma de Trabajo ............................................................................. 60 Figura 31: Diseño de la Solución ................................................................................ 63 Figura 32: Arquitectura del Hardware externa ............................................................ 64 Figura 33: Arquitectura del Hardware interna ............................................................. 65 Figura 34: Instalación de Servidores Blade DELL....................................................... 66 Figura 35: Instalación de Storage EQUALLOGIC DELL ............................................. 67 Figura 36: LUN creadas y asignadas a la solución Hardware .................................... 68 Figura 37: Instalación de VMware ESX ...................................................................... 69 Figura 38: Instalación de VMware vSphere Client ...................................................... 70 Figura 39: Clústers de host VMware y las máquinas virtuales .................................... 71 Figura 40: Creación de Máquina Virtual ...................................................................... 72 Figura 41: Windows Server y Red Hat Linux en la nueva infraestructura ................... 73 Figura 42: Capacitación Linux..................................................................................... 74 Figura 43: Certificado VMware Profesional Avanzado ................................................ 74 Figura 44: Sello de Certificación de DELL .................................................................. 75 Figura 45: Migración de Servidores Físicos a Virtuales .............................................. 75 Figura 46: Software VMware Converter ...................................................................... 76 Figura 47: Pantalla de Acceso de VMware Converter ................................................ 77 ix Figura 48: Proceso de Conversión del VMware Converter ......................................... 78 Figura 49: vSphere Client ........................................................................................... 79 Figura 50: Listado de pruebas .................................................................................... 80 Figura 51: Alta Disponibilidad de Servicios Informáticos ............................................ 82 Figura 52: VMotion ...................................................................................................... 82 Figura 53: Resultado de Reducción de Costos de Energía ........................................ 83 Figura 54 : Resultado de Virtualización en Espacio Físico ......................................... 85 Figura 55: Performance de todas las Máquinas Virtuales y sus características ......... 86 Figura 56: Diagrama de conexiones e Interrelación de Máquinas Virtuales ............... 87 Figura 57: Ahorro costo Horas/Hombre Fuente: Propia - MTC ................................... 88 Figura 58: Disponibilidad de Recursos de Hardware .................................................. 89 Figura 59: Consumo por Host ESX ............................................................................. 90 Figura 60: Diagrama de desempeño de CPU ............................................................. 90 Figura 61: Diagrama de desempeño de Memoria ....................................................... 91 Figura 62: Diagrama de desempeño de Disco Duro ................................................... 91 Figura 63: Creación de nuevos Servidores Virtuales .................................................. 92 Figura 64: Modificación de Servidores Virtuales existentes ........................................ 93 x RESUMEN Este proyecto propone una estrategia para la implementación de virtualización en el centro de cómputo de la oficina de tecnología de información del Ministerio de Transportes y Comunicaciones. Con la virtualización de equipos físicos se logra la reducción de costos en rubros como el mantenimiento, energía, espacio físico y personal necesario para la administración del equipo. En su conjunto las reducciones producen ahorros muy atractivos para las empresas o instituciones que buscan la optimización de sus recursos, pero manteniendo o incrementando el nivel de los servicios de tecnologías de la información existentes. Para la ejecución del proyecto se realizó la planeación e implementación de toda una arquitectura de virtualización, la cual estuvo conformada de servidores blade y storage de la marca DELL, manejados por VMware líder en el rubro de la virtualización. xi Como resultado, se consiguió implementar una plataforma de virtualización que sea capaz de soportar todos los servicios informáticos que se brindan, reduciendo esfuerzos en la gestión como en el área económica, e incrementando la fuerza de la solución para soportar proyectos nuevos a futuro. xii ABSTRACT This project proposes a strategy for implementing virtualization in the data center of the Technology Office at the Peruvian Ministry of Transport and Comunication. Through hardware virtualization, the cost of maintenance, energy, space and administrative personnel, is reduced. Saving this money is very attractive for companies or institutions that want to optimize their resources, while they are even increasing the level of the information technology service they offer. In order to make this project, planning and implementation of virtualization architecture was performed; it consisted of blade servers and storage by DELL brand, managed by VMware, leader in the field of virtualization. As a result, it was possible to implement a virtualization platform that is capable of supporting all IT services provided, by reducing great efforts and economic management and by increasing the power of the solution to support new projects in the future. xiii INTRODUCCIÓN En la búsqueda de la mejora continua y el aprovechamiento de tecnologías emergentes que ayuden al Ministerio de Transportes y Comunicaciones (MTC), se presenta una solución estratégica del área de TI, la cual tiene un enfoque en la virtualización de los servidores del centro de cómputo que se ha convertido en una de las mejores opciones como proyecto de TI en la organización. Esta estrategia es vital, sobre todo cuando los presupuestos de TI tienden a reducirse, incluso el tiempo de recuperación de la inversión continua reduciéndose con el pasar de los años. Esta eficiencia se logra al mismo tiempo que la organización avanza, normalmente cualquier ahorro de costos encarece la calidad de las soluciones; sin embargo, esta tecnología por el contrario la beneficiará. En el capítulo I, se tratará sobre los beneficios del proyecto, como consolidar servidores mediante la virtualización. Disminuyendo el número de xiv servidores físicos en los centros de cómputo, se logran reducciones muy importantes en otros costos asociados al número de servidores. En base de lo plasmado en el capítulo II, se aplicará la metodología relacionada con los importantes costos de refrigeración, infraestructura de red, almacenamiento, administración y mantenimiento de instalaciones, siempre en aumento. Cabe esperar una utilización cuidadosa de la infraestructura de cómputo; sin embargo, existe la práctica muy difundida y solicitada por los proveedores de servicio, de instalar un servidor por cada aplicación que se implementa, lo que ocasiona que estos equipos estén subutilizados, además de que cada uno de los servidores incrementa la complejidad. En el capítulo III, se detalla la estrategia enfocada en la virtualización de servidores en el centro de cómputo para el MTC, en el cual se abordará la situación inicial de la institución, los objetivos y la metodología del proyecto. Posteriormente, se precisarán los riesgos, los factores críticos de éxito, la duración del proyecto, la continuidad del negocio y el análisis de inversión y factibilidad. En el capítulo IV, se mostrará de manera secuencial como se realizaron las pruebas de la solución planteada. Estas pruebas a su vez, generarán resultados, los cuales se podrán apreciar de acuerdo a como cumplen los objetivos específicos de la tesis. Esta tesis servirá para comprender mejor el tema de la virtualización aplicada como estrategia de negocio. Asimismo, se dejan claros sus xv beneficios, tanto de manera general como dentro de un organismo específico como el MTC. xvi CAPÍTULO I: MARCO TEÓRICO 1.1. Problema Inicialmente no existía una solución eficiente dentro del área de la Oficina de Tecnologías de Información del MTC que permita optimizar la administración y desempeño de los Servidores en el centro de cómputo, generando un alto costo en diversos aspectos de infraestructura, además de poner en alto riesgo el nivel de disponibilidad de sus servicios. 1.2. Objetivos Objetivo General Optimizar la administración de los recursos informáticos en el centro de cómputo del MTC y así reducir los altos costos existentes en diversos aspectos de infraestructura además minimizar el riesgo en el nivel de disponibilidad de sus servicios, mediante una estrategia 1 de solución que es la implementación de virtualización de servidores en el centro de cómputo del MTC. Objetivos Específicos: • Garantizar el nivel de disponibilidad de los servicios de la Oficina de Tecnología de Información, mediante una arquitectura de alta disponibilidad. • Lograr un ahorro en la Administración Centralizada de la infraestructura virtual, menos Horas Hombre invertidas en la administración de los ambientes. • Ahorrar espacio físico en el centro de cómputo del MTC. • Impulsar el cambio y desarrollo en la institución, apoyados en una solución tecnológica la cual nos ponga de acorde a las nuevas tendencias informáticas en el mundo. • Generar escalabilidad y fácil implementación de servidores virtuales para facilitar e impulsar nuevos proyectos en la institución. 1.3. Justificación • Con la implementación de la virtualización se reducirán y en algunos casos se eliminarán grandes gastos (energía eléctrica, refrigeración, administración) en el centro de cómputo debido a la gran cantidad de equipos, entre servidores antiguos y PC’s que cumplían la función de servidores. • Con la implementación de la virtualización se logrará la estandarización y garantía de equipos es así que se eliminaran servidores antiguos sin soporte 2 de los fabricantes y piezas de reemplazo que generaban alto riesgo la disponibilidad de los servicios que brinda la oficina de tecnología. • Se conseguirá una administración centralizada de los equipos eliminando la gran cantidad y diversidad de servidores además de ordenar el cableado eléctrico y de red. 1.4. Alcance • El presente proyecto abarcará el tema de la virtualización como solución al plan estratégico del MTC orientado en este caso únicamente a la virtualización de servidores, se explicará las implicancias conceptuales, sus características, arquitectura, funcionamiento; así como sus beneficios, desventajas y limitaciones. • Se contemplará el planteamiento de la arquitectura virtual únicamente sobre el software VMware. • No se contemplará verificar si todas las aplicaciones son compatibles con la nueva arquitectura de virtualización. • Nuestro proyecto se limitará a desarrollar la implementación de la herramienta para virtualizar los servidores dentro del centro de cómputo del Ministerio de Transportes y Comunicaciones. 1.5. Premisas • La virtualización se ha posicionado en el mercado de la informática como una opción económica y efectiva al momento de diseñar, ampliar, y actualizar tecnología de Centros de Cómputos, al punto de que en muchos casos si no 3 se elige la virtualización, se estaría perdiendo recursos económicos y/o la implementación podría ser menos efectiva. • Actualmente el Ministerio de Transportes y Comunicaciones del Perú cuenta con un solo centro de cómputo dentro de sus instalaciones. • No existe un conocimiento adecuado de las tecnologías de virtualización que induzca al uso de estas herramientas. • La gran cantidad de equipos hace que la temperatura en el centro de cómputo sea muy elevada. • Hace algunos años la virtualización no era tomada en cuenta como una alternativa real al momento de instalar servidores y otros equipos de producción en la mayoría de los Data Center de las empresas e instituciones, pero se ha comprobado que ahora es incluso una mejor opción dependiendo las variables y las circunstancias. 1.6. Antecedentes 1.6.1 Un poco de historia Contrario a lo que la mayoría piensa, el tema de la virtualización no es nada nuevo. Durante la década de los 60 los equipos de informática de muchas empresas y entidades tenían un problema similar: contaban con súper-computadoras o “mainframes” de alto rendimiento que deseaban “particionar lógicamente”, o utilizar para múltiples tareas simultaneas (lo que hoy conocemos como “Multitasking”, trabajar más de una aplicación o proceso simultáneamente). Es por esto que IBM desarrolló un método para crear múltiples “particiones lógicas” (similar a lo que conocemos hoy como “máquinas virtuales”) las cuales trabajaban independientemente 4 una de las otras, y cada una utilizando los recursos provistos por el “mainframe”.1 Ya para la década de los 80 y con la llegada de las relativamente económicas maquinas x86, comenzó una nueva era de micro computadoras, aplicaciones cliente-servidor, y “computación distribuida”; en donde los enormes y potentes “mainframes” con mil y una tareas y utilidades en una sola caja gigantesca se comenzaron a cambiar por relativamente pequeños servidores y computadoras personales de arquitectura x86, con “una caja diferente para cada uso”, lo que se convirtió rápidamente en el estándar de la industria. Debido a esto, una vez más, el tema de la virtualización vuelve a quedar prácticamente en el olvido. Figura 1: Virtualización como estrategia Fuente: (NORDIC SOLUTIONS, 2014) 1 (EDDIE, consulta unit, 2009) 5 “La virtualización es la estrategia transversal para toda organización cuyo impacto en la infraestructura, procesos, operaciones y personas es favorable para el cumplimiento de los cambiantes y ambiciosos objetivos del negocio, lo que la convierte en la tendencia de mayor vigencia y relevancia en la actualidad” Y no es hasta finales de la década de los 90 que gracias al alto desarrollo del hardware volvemos a caer en un predicamento similar al que estábamos en los años 60 el hardware existente es altamente eficiente, y utilizar cada “caja” para una sola aplicación sería un desperdicio de recursos, espacio, energía y dinero; y tampoco es conveniente asignarle múltiples usos o instalar varias aplicaciones en un solo servidor convencional, por más de una razón (ej. estas aplicaciones podrían ser conflictivas entre sí, o podrían requerir diferentes configuraciones e inclusive diferentes sistemas operativos, o tener diferentes requerimientos de seguridad, entre otras variables que podrían causar problemas al ejecutar estas funciones simultáneamente). Es por esto que vuelve a resurgir la idea de dividir el hardware, de manera tal que funcione como múltiples servidores independientes pero compartiendo los recursos de un mismo servidor físico. Y es de aquí que nace lo que hoy todos conocemos como “Virtualización”. 2 1.6.2 Casos de Éxito Caso N°01 2 (CONSULTA IT PRO, 2009) 6 La virtualización supera expectativas de Laboratorios RIMSA RIMSA es una empresa con respaldo mundial, que colabora con la industria Mexicana para mejorar la calidad del medio ambiente con visión de responsabilidad social. La compañía realiza una labor fundamental para el desarrollo sustentable de México al apoyar a múltiples actores del sector industrial con sus necesidades de protección al medio ambiente. RIMSA forma parte del grupo internacional VEOLIA ENVIRONNEMENT. Laboratorios RIMSA estaba buscando opciones para renovar los servidores SAP, ya que diferentes problemas se habían estado manifestando. Se virtualizaron un gran número de servidores y aplicaciones críticas para el negocio. Hoy en día, RIMSA cuenta con infraestructura óptima, ahorra energía y presupuesto.3 3 (Julio Cesar Cuevas, 2012) 7 Figura 2: Caso de éxito 1 Fuente: (Julio Cesar Cuevas, 2012) Caso N°02 VMware y SOS presentan caso de éxito de SAP en Hierro Barquisimeto Dedicados a comercializar productos siderúrgicos y ferreteros en la región occidental y andina de Venezuela, Hierro Barquisimeto emprendió la incorporación de la plataforma SAP, tras la evaluación junto a Suministros Obras y Sistemas (SOS) se decidió ejecutar la virtualización de su plataforma hecho que les permitió integrar tres servidores Cisco UCS 200 M1 con doble procesador Intel Xeon, Quad Core con 48 GB de memoria cada uno, 144 GB de disco en cada unidad y una SAN de 7,2 TB en almacenamiento crudo.4 Las soluciones de VMware fueron la opción ideal para virtualizar 95% de la plataforma tecnológica de Hierro Barquisimeto C.A., logrando incrementar 4 (SOS Suministros y Obras, 2011) 8 sustancialmente la asistencia de sus centros de datos, uso de servidores, ahorros en tiempos de respuestas, consumo de energía eléctrica e inversiones en equipos tecnológicos. Jhoanna Terán, Gerente de TI del Departamento de Tecnología de Hierro Barquisimeto resalta "la tecnología de VMware permitió optimizar los recursos de los servidores empresariales al facilitar la administración de varios servidores virtuales dentro del mismo equipo". En la actualidad la compañía está virtualizada en un 95% de sus operaciones en sistemas de información asimismo a comenzado a migrar sus servicios de IT a modelos más ágiles y productivos como lo es cloud computing preparándose así para su transición a la nube pública.5 Figura 3: Caso de éxito 2 Fuente: (Jhoanna Terán, 2011) Caso N°03 El Consorcio de Aguas de Bilbao Bizkaia (CABB) ha abordado un proyecto de virtualización además de poner en marcha un plan de contingencias para los servicios de Tecnologías de la Información. El Consorcio de Aguas gestiona tanto el abastecimiento de agua potable como del saneamiento de 5 (Jhoanna Terán, 2011) 9 las aguas residuales de, aproximadamente, un millón de habitantes de Bizkaia.6 Figura 4: Caso de éxito 3 Fuente: (OMEGA, 2012) Por un lado, el Consorcio de Aguas ha contado con la provisión de servicios por parte de Omega Peripherals, en calidad de consultor técnico y como integrador, con VMware como la tecnología seleccionada. “Nos decantamos por la virtualización por las ventajas que nos ofrecía: concentración, mejor rendimiento de la plataforma, reducción de costos, control de la proliferación de máquinas, facilitación de los diseños de contingencia y un aprovisionamiento de servicios mucho más ágil”, según destaca José Luis Unzueta, director IT del Consorcio de Aguas de Bilbao.7 1.7. Bases Teóricas 1.7.1 Definición de la Virtualización En informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual 6 (redestelecom.es, 2012) 7 (OMEGA, 2012) 10 Machine Monitor) que crea una capa de la abstracción entre el hardware de la maquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest)., siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución, esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico. 8 El presente caso está orientado a la virtualización de servidores en un centro de cómputo pero su alcance puede ser mayor, también se pueden virtualizar equipos de comunicación como firewalls, routers y switches. La virtualización orientará la reorganización de recursos principalmente tecnológicos pero también humanos, brindando respuestas rápidas a futuros requerimientos tecnológicos de la organización por parte de los administradores, mediante un control centralizado se llevará la administración de la nueva infraestructura, el beneficio principal esperado es la reducción sustancial en los costos de adquisición, de operación, y el rendimiento eficiente de los recursos de TI. 9 8 (GRUPO INTELECTOR, 2014) 9 (wikipedia, 2011), (otiasis, 2008) 11 Figura 5: Técnica de Virtualización Fuente: (otiasis, 2008) La técnica de virtualización permite la ejecución de varios equipos virtuales sobre un mismo servidor físico, permitiendo gestionar los recursos del servidor Host de forma dinámica según las necesidades de los servidores virtuales. 1.7.2 Arquitectura y Funcionamiento La primera capa, o capa base que soporta la virtualización es el procesador y la tarjeta madre con arquitectura x86 o de 64 bits, sobre ella corre el hypervisor el cual puede ser de dos tipos: • Hipervisor tipo 1 o nativo, que es el software que se ejecuta directamente sobre el hardware, para ofrecer un mayor rendimiento. • Hipervisor tipo 2 o hosted, que es el software que se ejecuta sobre un sistema operativo como puede ser windows, linux, etc. 12 El Hipervisor crea particiones, segmentos aislados o entornos virtuales en un único servidor HOST físico, también crea una instancia de sistema operativo para cada partición. También se le conoce a la capa base como “kernel” el cual se carga directamente en el servidor. Para distribuir el hardware del servidor HOST y sus recursos a las máquinas virtuales el Hipervisor utiliza un código prediseñado para tales fines. La siguiente capa superior muestra cada chip, placa, etc. que debe dividirse para asignarse a las máquinas virtuales. La capa siguiente es cada uno de los sistemas operativos que utilizarán las máquinas virtuales.10 Figura 6 : Arquitectura y Funcionamiento Fuente: (wikipedia, 2014) El Hipervisor es una capa de abstracción básica que se superpone sobre todo sistema operativo, es el responsable de la partición de la memoria y de la programación del CPU para cada recurso creado. El Hipervisor imita el comportamiento de un sistema operativo habilitando la ejecución de múltiples sistemas operativos sobre máquinas virtuales como un 10 (Pérez, 2012) 13 sólo programa, esto permite la coexistencia de diversos sistemas operativos sobre una sola plataforma de hardware única. En lugar de almacenar diferentes archivos en cada sistema operativo, todos los S.O. dentro de un Hipervisor acceden a los mismos archivos que están localizados en el sistema operativo primario y que son utilizados para ejecutar programas específicos, que sólo son compatibles con algunos sistemas operativos. Ejemplo del uso de recursos en los diferentes ambientes, se sabe que sólo el 15% del CPU es utilizado en cada PC por lo que existe capacidad instalada inutilizada que puede aprovecharse. Figura 7: Aprovechamiento de recursos utilizando la Virtualización Fuente: Propia - MTC 1.7.3 Características de la Virtualización a) Consolidación Se refiere a la ejecución simultánea de varios servidores virtuales dentro de un físico, evitando tener equipos que se encuentren subutilizados. Los distribuidores de software en general, recomiendan que para evitar 14 inconvenientes no se debe instalar más de una aplicación o servicio en el mismo servidor, ya que cada servidor se encuentra dedicado a una carga de trabajo en específico. Entonces, la virtualización permite consolidar las cargas de trabajo en un número más reducido. Lo que implica que menos personal maneje estos servidores, además de la reducción en adquisición de servidores, equipos de enfriamiento, espacio físico ocupado y consumo de energía.11 Figura 8: Consolidación Fuente: (Gómez López, 2011) b) Compatibilidad Las máquinas virtuales son compatibles con la gran mayoría de sistemas operativos Windows y Linux, de modo que se puede utilizar una máquina virtual para ejecutar el mismo software que se puede ejecutar en un ordenador físico.12 11 (ramonmorillo, 2011) 12 (P.Ruiz, 2013) 15 Figura 9: Compatibilidad Fuente: (maxsantito, 2013) c) Aislamiento Aunque las máquinas virtuales pueden compartir los recursos de un mismo hardware físico, permanecen completamente aisladas unas de otras, como si se tratara de máquinas independientes, es decir que un fallo en una aplicación o en una máquina virtual afectará únicamente a esa máquina virtual. El resto de máquinas virtuales y el sistema de virtualización seguirán funcionando normalmente. d) Encapsulamiento Las máquinas virtuales agrupan o encapsulan sistemas enteros, así como configuraciones de hardware, sistema operativo y todas sus aplicaciones, dentro de un paquete de software. El encapsulamiento completo está contenido en archivos (archivo de disco duro virtual, archivos de definición y configuración, etc.), lo que hace que las máquinas virtuales sean extraordinariamente portátiles y fáciles de gestionar. Por ejemplo, puede mover y copiar una máquina virtual de un lugar a otro, como se lo haría con cualquier otro archivo de software, o guardar una máquina virtual en 16 cualquier medio de almacenamiento de datos estándar, desde una memoria USB de bolsillo hasta las redes de almacenamiento SAN o NAS. Figura 10: Encapsulamiento Fuente: (Gonzáles, 2010) 1.7.4 Beneficios La Virtualización como herramienta estratégica es a la vez versátil y potente, ya que proporciona entre muchos, tres grandes beneficios, ahorro en hardware y ahorro en administración de la plataforma, es decir ahorro de horas hombre, además de garantizar la disponibilidad de sus servicios gracias a la alta disponibilidad que puede configurarse.13 También presenta otros sustanciales beneficios como los describiremos a continuación: • Crecimiento flexible, ya que en un solo servidor físico (con mayores recursos) se podrán albergar varias máquinas virtuales, estas máquinas serán creadas bajo demanda y de forma automatizada según lo requiera la empresa. • Administración simplificada, al tener plataformas e infraestructura homogénea simplifica la administración pudiendo crearse tareas automatizadas y agendadas para su ejecución autónoma. 13 (ESTRATEGIAS DE INVERSION .COM, 2012) 17 • Supervivencia de aplicaciones legacy, toda empresa cuenta con aplicaciones legacy que han sido heredadas con el tiempo, se podrán resolver problemas de soporte y mantenimiento que actualmente los proveedores ya no garantizan ni contemplan. • Reducción notable del consumo de energía eléctrica, debido a que en un servidor virtualizado, solo se usa 1 o 2 fuentes de poder, con los servidores físicos esto no sucede. Esto redunda en el uso de UPS, el cual tiene que alimentar a diferentes equipos, en los servidores virtuales, solo se alimenta 1 sola fuente, lo cual hace que la batería del UPS dure más en caso de falla de energía eléctrica. • Facilidad al mover servidores virtuales de un equipo a otro, en caso tenga que actualizar o cambiar de servidor fisico, es posible mover el servidor virtualizado, de un equipo a otro. Basta con apagar, mover y encender en el equipo nuevo y listo. • Reducción de espacio físico para los servidores, se sabe que es costoso preparar un espacio físico y previsión de infraestructura para este nuevo servidor. la virtualización ayuda a reducir estos inconvenientes, poniendo menos servidores y haciéndolos más eficientes. • Tareas de copias de respaldo más simples, los backups son mucho más simples ya basta con copiar el directorio que contiene los archivos de configuración y el servidor virtual y con eso ya tenemos el backup de nuestro servidor virtual, este mismo puede ser montado en otro equipo para virtualizar. • Facilidad en la aplicación de parches y actualizaciones, ya sea para sistemas operativos como para las aplicaciones no serán un problema ni serán de tanto riesgo. En muchos casos, una actualización afecta adversamente al 18 sistema en general, si esto llegara a suceder, se puede retornar a un estado anterior del sistema, mediante la toma de una instantánea o snapshot.14 • Consola de Administración Centralizada, todos estos recursos son gestionados desde una consola de administración centralizada, en la cual, el administrador, puede asignar recursos o ver el estado de los servidores. • Espacio para expansión y escalabilidad. • Máxima utilización del hardware. • Mantenimiento de hardware sin downtime. • Optimización de la administración de recuperación ante desastres, aumenta la disponibilidad, reduce el tiempo de recuperación. • Reducción de horas hombre invertidas en tareas administrativas. • Seguridad y flexibilidad para la asignación de recursos Hardware. 1.7.5 Limitaciones y Desventajas De la misma forma como la virtualización posee inherentes ventajas, también presenta desventajas y limitaciones desde su implementación hasta su operación y ejecución. • Rendimiento inferior, el mismo hecho de adicionar una capa (Hypervisor) reduce el rendimiento de una máquina virtual comparada con una física 14 (NETTIX PERU, 2013) 19 • Crecimiento descontrolado, la facilidad de creación de máquinas virtuales puede generar el crecimiento descontrolado de las mismas, pudiendo perder el control de lo que se tiene. • Disponibilidad afectada, la falla de un servidor Host puede afectar la disponibilidad de todas las máquinas virtuales que alberga • Limitación de hardware, existen tipos de servidores Host que no soportan al Hypervisor de virtualización.15 1.7.6 Costo total de Propiedad Cabe mencionar un concepto importante referente a los costos en los centros de cómputo, el costo total de propiedad: La compra y mantenimiento de hardware y software de cómputo es solo uno de una serie de componentes de costo que los gerentes deben considerar al seleccionar y administrar los activos de tecnología de hardware y software. El costo real de la posesión de recursos de tecnología incluye el costo original de adquirir e instalar computadoras; los costos continuos de administración derivados de las actualizaciones, mantenimiento, soporte técnico y capacitación de hardware y software, e incluso los costos de las instalaciones y los bienes raíces para ejecutar y albergar la tecnología. Se puede utilizar el modelo de costo total de propiedad (TCO) para analizar estos costos directos e indirectos para ayudar a las empresas a determinar el costo real de las implementaciones de una tecnología específica.16 Cuando se consideren todos estos componentes de costos, el TCO para un PC podría ser hasta tres veces más el precio de la compra original del equipo. Los “costos ocultos” del personal de apoyo y la administración de red 15 (VMware corp., 2008) 16 ( C. Laudon & Price Laudon, 2004) 20 adicional pueden hacer que las arquitecturas cliente/servidor distribuidas sean más caras que las arquitecturas de mainframe centralizadas. Los costos de adquisición de hardware y software son responsables de solo el 20% del TCO; por tanto, los gerentes deben poner una atención más estrecha a los costos de administración para comprender el costo total del hardware y software de la empresa. Es posible reducir un poco estos costos mediante una administración más eficiente. 1.7.7 Migración de servidores físicos a virtuales P2V P2V de “Physical to Virtual” se trata de la migración de servidores físicos a un ambiente virtual ya listo para recibir o crear máquinas virtuales. Este se realiza mediante herramientas de conversión dadas por las propias marcas de software de virtualización, uno de los productos más conocidos es “vCenter Converter” de VMware. La conversión de un servidor virtual a uno físico es muy simple siempre que todos los componentes de su actual servidor cumplan con las especificaciones de la guía de compatibilidad del fabricante del hypervisor. 21 Figura 11: Migración P2V (Physical to Virtual) Fuente: (siliconweek, 2009) 1.7.8 Soluciones de Hardware Actualmente los microprocesadores de nueva generación de Intel y AMD incorporan doble núcleo e instrucciones específicas para virtualización. Estas nuevas instrucciones se utilizan en el software de virtualización para generar los elementos virtuales CPU, RAM, HDD, etc.17 Sin meterse a un despliegue profesional, con una CPU de dos o cuatro núcleos, 1 a 4 GB de RAM, disco duro de 300 a 500 GB y tarjeta de red Gigabit Ethernet es suficiente para montar un servidor de máquinas virtuales “doméstico”. Recientemente, tanto AMD como Intel han incorporado en sus CPU’s tecnologías que simplifican y optimizan notablemente los esquemas de virtualización. Los grandes fabricantes de Hardware tienen arquitecturas con configuraciones especiales para virtualización y están asociadas a los Software de virtualización. Ejemplos: 17 (El Diario PRIMERA EDICION, 2014) 22 Figura 12: Soluciones de Hardware Fuente: (El Diario PRIMERA EDICION, 2014) 1.7.9 Soluciones de Virtualización Cuando ya dispongamos de un Hardware adecuado, lo que hace falta es elegir la plataforma de virtualización que se adapte a nuestras necesidades, las opciones a elegir son diversas, pero en este caso utilizaremos las marcas líderes, basándonos el cuadrante de Gartner. 23 Figura 13: Soluciones de Virtualización a través del cuadrante de Gartner Fuente: (technet, 2013) a) VMware Figura 14: Logo de VMware Fuente: (VMware corp., 2008) VMware es un sistema de virtualización por software de la empresa VMware Inc. filial de EMC Corporación. El cual simula un sistema físico (un computador, un hardware) con unas características de hardware determinadas. Cuando se ejecuta el programa (simulador), proporciona un ambiente de ejecución similar a todos los efectos a un computador físico (excepto en el puro acceso físico al hardware simulado), con CPU (puede ser 24 más de uno), BIOS, tarjeta gráfica, memoria RAM, tarjeta de red, sistema de sonido, conexión USB, disco duro (pueden ser más de uno), etc. 18 Una virtualización por software permite ejecutar (simular) varios computadores (sistemas operativos) dentro de un mismo hardware de manera simultánea, permitiendo así el mayor aprovechamiento de recursos. No obstante, y al ser una capa intermedia entre el sistema físico y el sistema operativo que funciona en el hardware emulado, la velocidad de ejecución de este último es menor, pero en la mayoría de los casos suficiente para usarse en entornos de producción. Funcionamiento. La plataforma de virtualización de VMware se construye sobre una arquitectura diseñada para el negocio. Utiliza un software como VMware vSphere y VMware vSphere Hipervisor para transformar o virtualizar los recursos de hardware de una computadora basada en x86 (incluidos la CPU, la memoria RAM, el disco duro y el controlador de red) y crea una máquina virtual totalmente funcional capaz de ejecutar su propio sistema operativo y aplicaciones como si fuera una computadora física. Cada máquina virtual contiene un sistema completo, lo que elimina conflictos potenciales. La virtualización con VMware introduce una capa ligera de software directamente en el hardware de la computadora o en un sistema operativo anfitrión. Esta contiene un monitor de máquina virtual o "hipervisor" que asigna recursos de hardware de forma dinámica y transparente. Varios sistemas operativos funcionan simultáneamente en una sola computadora física y comparten recursos de hardware entre sí. Gracias al encapsulamiento total de una máquina, que incluye la CPU, la memoria, el sistema operativo y los dispositivos de red, la máquina virtual es totalmente compatible con todos los sistemas operativos, aplicaciones y controladores de dispositivos x86 estándar. Puede ejecutar varios sistemas operativos y aplicaciones de forma segura y al mismo tiempo en una computadora y que 18 (Báez Rúales & Benavides Morillo, 2011) 25 cada uno de ellos tenga acceso a los recursos que necesita cuando los necesita. VMware inserta directamente una capa de software (VMware ESX Server) en el hardware del computador o en el sistema operativo host. Esta capa de software crea máquinas virtuales y contiene un monitor de máquina virtual o “hipervisor” que asigna recursos de hardware de forma dinámica y transparente, para poder ejecutar varios sistemas operativos de forma simultánea en un único computador físico. No obstante, la virtualización de un computador físico único es sólo el principio. VMware ofrece una sólida plataforma de virtualización que puede ampliarse por cientos de dispositivos de almacenamiento y computadores físicos interconectados para formar una infraestructura virtual completa. Figura 15: Plataforma de virtualización VMware aplicada a muchos dispositivos de almacenamiento Fuente: (hostingred, 2013) 26 Características de VMware  VMware ESX: Permite que múltiples máquinas virtuales compartan recursos físicos.  VMware vCenter Server: VMware vCenter Server permite centralizar la gestión, automatizar las operaciones, optimizar los recursos y alta disponibilidad en los entornos de IT.  VMware High Availability (HA): VMware HA es una característica que supervisa continuamente todos los servidores físicos y en caso de fallo, reinicia las máquinas virtuales afectadas en otro servidor físico.  VMware Distributed Resource Scheduler (DRS) + (DPM): VMware DRS monitoriza la utilización de recursos y los reparte dinámicamente entre las máquinas virtuales.  VMware VMotion: VMware VMotion permite mover en caliente las máquinas virtuales de un servidor físico a otro. Esto permite hacer mantenimientos de Hardware sin cortar el servicio ni un solo instante.  VMware Storage VMotion: En el caso que las máquinas físicas no compartieran almacenamiento, Storage VMotion permite mover en caliente máquinas virtuales del almacenamiento local de un servidor físico a otro. 27  Tolerancia a fallos (Fault Tolerance): Un innovador servicio de aplicaciones, proporciona disponibilidad sin tiempo de inactividad ni pérdida de datos a todas las aplicaciones frente a fallos de hardware sin el coste y la complejidad de soluciones clústerizadas de hardware o software.  Adición en caliente (Hot Add) de CPUs virtuales, memoria y dispositivos de red en máquinas virtuales permite a las aplicaciones adaptarse perfectamente sin interrupciones o tiempos de inactividad.  VMware Data Recovery: Ofrece unas funciones de backup y recuperación sencillas, rentables y sin agentes de máquinas virtuales para entornos más pequeños. b) Hyper-V. Figura 16: Logo de Hyper-V – Windows Server Fuente: (microsoft, 2014) Hyper-V Server es la plataforma de virtualización lanzada por Microsoft para competir con VMware, más precisamente con el producto ESXI. Ya que es un sistema preparado solo para ser host de máquinas virtuales. El mismo está basado en un Windows Server Core de 64Bits, con un único roll, que es el producto de virtualización Microsoft Hyper-V. Este puede ser administrado 28 remotamente por Windows Server 2008 o 2012 así como también Windows 7 y 8, pero estos dos últimos necesitan tener instalado un paquete de actualizaciones que permite la administración remota de Hyper-V. También puede ser administrado por MMC y Powershell. 19 Windows Server Hyper-V basada en el hipervisor, incluida como un rol de servidor específico de Windows Server 2008 y 2012. Contiene todo lo necesario para la puesta en servicio de escenarios de virtualización. Hyper-V permite reducir costos, mejorar el nivel de utilización de los servidores y crear una infraestructura de IT más dinámica. El aumento de la flexibilidad que proporciona Hyper-V se debe a sus capacidades de plataforma dinámica, fiable y escalable combinadas con un conjunto exclusivo de herramientas de gestión que permiten administrar tanto los recursos físicos como los virtuales, lo que facilita la creación de un datacenter ágil y dinámico y el avance hacia un modelo de sistemas dinámicos auto gestionados.20 Características:  Una arquitectura nueva, muy mejorada  Soporte para sistemas operativos muy diversos  Soporte para memoria  Acceso mejorado al sistema de almacenamiento  Nueva arquitectura de hardware compartido  Migración rápida  Componentes de integración de Linux  Instantáneas de Máquina Virtual  Escalabilidad  Extensible Tabla comparativa: 19 (Ramos Generoso, 2011) 20 29 Figura 17: Tabla comparativa Hyper-V Server vs vSphere4.1 Fuente: (aidan finn, 2013) 1.7.10 Real time Infraestructure El concepto de Infraestructura en Tiempo Real consiste en disponer de ciertos recursos de TI compartidos (relacionados) que se adapten y logren sinergia en beneficio del negocio. Para los CIO’s (Chief Information Officer) y directores de TI lo ideal es disponer de una serie de recursos informáticos compartidos, relacionados entre ellos, que se adaptan dinámicamente a la demanda del negocio. La clave está en conseguir que la infraestructura responda a las necesidades del negocio, y no a la inversa.21 La Virtualización de la infraestructura de TI es fundamental para lograr este dinamismo, pues permite precisamente asignar bajo demanda y en tiempo 21 (Unisys Corporation, 2005) 30 casi inmediato los recursos que los clientes y usuarios necesiten para sus proyectos. Figura 18: Proceso de Consolidación de Servidores Fuente: Propia - MTC La metodología incluye los siguientes pasos: • Valorar la infraestructura Se realiza un análisis y levantamiento de información de toda la infraestructura física del centro de cómputo, se crean fichas para cada servidor físico a evaluar, se recaba información sobre cantidad de procesadores, tipo de procesadores, tipo y cantidad de RAM, de la misma forma el tipo de arreglo y cantidad del disco. Luego se eleva el análisis hacia la siguiente capa de aplicación y se evalúan los sistemas que corren sobre ellos, si cuentan con restricciones físicas, etc. Con toda la información antes descrita se llega a una lista de los servidores candidatos. • Planificación de recursos informáticos y humanos 31 Se creará un equipo de personas idóneo para el levantamiento de información y los futuros procesos de virtualización, también llevarán a cabo las pruebas antes y después de ejecutado el proceso. Se debe planificar la compra de los recursos informáticos y considerar los tiempos de entrega por parte del proveedor. • Implementación de nuevos ambientes virtuales Una vez que se cuente con la lista de servidores candidatos, se crean nuevos ambientes virtuales con similares características a los de la mencionada lista, sobre los mismos se instala el sistema operativo, se aplican las actualizaciones necesarias, se instala el AV y se actualizan los DATs, una vez terminado el proceso se pueden guardar estas imágenes como “plantillas”, las cuales podrán ser distribuidas y copiadas bajo demanda reduciendo los tiempos de entrega a minutos. • Plan de migración y piloto Cuando se encuentren listos los nuevos ambientes se realizan pruebas sobre los denominados servidores “pilotos”, esto con la finalidad de prever errores y corregirlos en un ambiente controlado, una vez realizado los diferentes escenarios de pruebas se procede a la migración de los servidores que quedarán de forma definitiva y los ambientes pilotos podrán ser descartados. 32 Figura 19: Plan de Migración y Piloto Fuente: Propia - MTC 1.8. Definición de Términos Básicos 1.8.1 Glosario  Arquitectura x86: x86 es un conjunto de instrucciones utilizada en la microarquitectura de CPU, siendo también una denominación genérica dada a ciertos microprocesadores.  Backup: Una copia de seguridad, copia de respaldo o Backup (su nombre en inglés) en tecnologías de la información e informática es una copia de los datos originales que se realiza con el fin de disponer de un medio de recuperarlos en caso de su pérdida. Las copias de seguridad son útiles ante distintos eventos y usos: recuperar los sistemas informáticos y los datos de una catástrofe informática, natural o ataque.  Capex: CAPital EXpenditures (CAPEX o capex o inversiones en bienes de capitales) son inversiones de capital que crean beneficios. Un CAPEX se ejecuta cuando un negocio invierte en la compra de un activo fijo o para añadir valor a un activo existente con una vida útil que se 33 extiende más allá del año imponible. Los CAPEX son utilizados por una compañía para adquirir o mejorar los activos fijos tales como equipamientos, propiedades o edificios industriales.  Data Center: Un data center (centro de cómputos, centro de proceso de datos), es una instalación empleada para albergar los sistemas de información y sus componentes asociados, como las telecomunicaciones y los sistemas de almacenamiento. Generalmente incluye fuentes de alimentación redundantes o de respaldo, conexiones redundantes de comunicaciones, controles de ambiente (por ejemplo, aire acondicionado) y otros dispositivos de seguridad.  Downtime: El término tiempo de inactividad (downtime) es usado para definir cuándo el sistema no está disponible.  Escalabilidad: En telecomunicaciones y en ingeniería informática, la escalabilidad es la propiedad deseable de un sistema, una red o un proceso, que indica su habilidad para reaccionar y adaptarse sin perder calidad, o bien manejar el crecimiento continuo de trabajo de manera fluida, o bien para estar preparado para hacerse más grande sin perder calidad en los servicios ofrecidos.  Firewall: Un cortafuegos (firewall en inglés) es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.  Google Chrome: Es un navegador web desarrollado por Google y compilado con base en varios componentes e infraestructuras de 34 desarrollo de aplicaciones (frameworks) de código abierto. Está disponible gratuitamente bajo condiciones de servicio específicas.  Hardware: El hardware es un término genérico utilizado para designar a todos los elementos físicos que lo componen, es decir, gabinete, monitor, motherboard, memoria RAM y demás.  Hipervisor: (En inglés hypervisor) o monitor de máquina virtual (virtual machine monitor) es una plataforma que permite aplicar diversas técnicas de control de virtualización para utilizar, al mismo tiempo, diferentes sistemas operativos en una misma computadora.  Host: Es usado en informática para referirse a las computadoras conectadas a una red, que proveen y utilizan servicios de ella. Los usuarios deben utilizar anfitriones para tener acceso a la red. En general, los anfitriones son computadores monousuario o multiusuario que ofrecen servicios de transferencia de archivos, conexión remota, servidores de base de datos, servidores web, etc.  iSCSI: En informática, es un acrónimo de Internet Small Computer System Interface, un protocolo de Internet estándar de redes de almacenamiento basado en (IP) para conectar las instalaciones de almacenamiento de datos. Al llevar SCSI comandos a través de redes IP, iSCSI se utiliza para facilitar la transferencia de datos a través de intranets y para administrar el almacenamiento en largas distancias. iSCSI puede ser utilizado para transmitir datos a través de redes de área local (LAN), redes de área amplia (WAN), o la de Internet y puede permitir el almacenamiento de datos independiente de la ubicación y recuperación.  Juniper: Juniper Networks es una compañía multinacional dedicada a sistemas de redes y seguridad fundada en 1996. Su sede principal está 35 Sunnyvale, California. Es actualmente junto con Enterasys, la competencia más directa de Cisco, sobre todo en Europa.  Kernel: En informática, un núcleo o kernel (de la raíz germánica Kern, núcleo, hueso) es un software que constituye una parte fundamental del sistema operativo. Es el principal responsable de facilitar a los distintos programas acceso seguro al hardware de la computadora o en forma básica, es el encargado de gestionar recursos, a través de servicios de llamada al sistema.  Linux: Es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) más un gran número de programas / librerías que hacen posible su utilización.  Mainframe: Los mainframes son grandes equipos de cómputo, son rápidos y con un costo elevado, creados principalmente para ser utilizadas por grandes empresas u organizaciones. Su poder de cálculo es menor que el anterior tipo. Su principal característica de este tipo de computadoras es que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida, son computadoras que pueden ejecutar más de un programa de manera simultánea e intervenir en procesos que se ejecuten en los equipos que a ellas se conectan.  Memoria RAM: La memoria de acceso aleatorio (en inglés: random- access memory) se utiliza como memoria de trabajo para el sistema 36 operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan “de acceso aleatorio” porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.  Migración (datos): Consiste en la transferencia de materiales digitales de un origen de datos a otro, transformando la forma lógica del ente digital de modo que el objeto conceptual pueda ser restituido o presentado por un nuevo equipo o programa informático. Se trata de una consideración clave para cualquier implementación, actualización o consolidación de un sistema informático. Se distingue del refresco, que se limita a mantener el flujo de datos transfiriéndolos simplemente de un soporte a otro. Hay varias estrategias que pueden ser consideradas una forma de migración, que difieren en el momento en que se produce la transformación y en los tipos de objetos transformados. El método de migración más propuesto consiste en convertir de manera permanente un formato lógico en otro, de manera que todos los objetos”migrados” puedan ser presentados con una tecnología diferente.  Mozilla Firefox: Es un navegador web libre y de código abierto desarrollado para Microsoft Windows, Mac OS X y GNU/Linux coordinado por la Corporación Mozilla y la Fundación Mozilla.  Multitasking: Multitasking o multitarea es la característica de los sistemas operativos modernos de permitir que varios procesos se ejecuten al mismo tiempo compartiendo uno o más procesadores. 37  Opex: Un OPEX, del inglés "Operating expense", es un costo permanente para el funcionamiento de un producto, negocio o sistema. Puede traducirse como gasto de funcionamiento, gastos operativos, o gastos operacionales. Su contraparte, el gasto de capital (Capex), es el costo de desarrollo o el suministro de componentes no consumibles para el producto o sistema. Por ejemplo, la compra de una fotocopiadora implica gastos de capital, y el documento anual, tóner, potencia y costo de mantenimiento representa los gastos operativos  P2V: Proviene del acrónimo en inglés Physical-to-Virtual, En informática. Implica el proceso de desacoplamiento y la migración de un físico del servidor del sistema operativo, las aplicaciones y los datos de ese servidor físico a una máquina virtual huésped alojado en una plataforma virtualizada.  Partición lógica: Es una partición del disco duro, en mantenimiento, es el nombre genérico que recibe cada división presente en una sola unidad física de almacenamiento de datos. Toda partición tiene su propio sistema de archivos (formato); generalmente, casi cualquier sistema operativo interpreta, utiliza y manipula cada partición como un disco físico independiente, a pesar de que dichas particiones estén en un solo disco físico.  Plataforma: En informática, una plataforma es un sistema que sirve como base para hacer funcionar determinados módulos de hardware o de software con los que es compatible. Dicho sistema está definido por un estándar alrededor del cual se determina una arquitectura de hardware y una plataforma de software (incluyendo entornos de aplicaciones). Al definir plataformas se establecen los tipos de arquitectura, sistema 38 operativo, lenguaje de programación o interfaz de usuario compatibles. Ejemplos de plataformas son:  IBM-PC, que incluye las arquitecturas I386 (x86), IA64 o AMD64 (x86- 64).  Macintosh, que incluye la arquitectura Gecko y PowerPC y SPARC. Existen programas multiplataforma que permiten ejecutarse en diversas plataformas. También existen emuladores, que son programas que permiten ejecutar desde una plataforma programas de otra emulando su funcionamiento.  Redes de almacenamiento SAN: Una red basada en canal de fibra que conecta los servidores y los dispositivos de almacenamiento. Los dispositivos de almacenamiento no se conectan a los servidores sino a la red misma y son visibles para todos los servidores en la red.  Router: También conocido enrutador o encaminador de paquetes, es un dispositivo que proporciona conectividad a nivel de red o nivel tres en el modelo OSI (Modelo de interconexión de red). Su función principal consiste en enviar o encaminar paquetes de datos de una red a otra, es decir, interconectar subredes, entendiendo por subred un conjunto de máquinas IP que se pueden comunicar sin la intervención de un Bridge (otro dispositivo de red) y que por tanto tienen prefijos de red distintos.  SCSI: Es el acrónimo inglés de Small Computers System Interface (Interfaz de Sistema para Pequeñas Computadoras), es una interfaz estándar para la transferencia de datos entre distintos dispositivos del bus de la computadora. 39  Servidor Blade: Un servidor blade es un tipo de computadora para los centros de proceso de datos específicamente diseñada para aprovechar el espacio, reducir el consumo y simplificar su explotación.  Sistemas Legacy: Un sistema heredado (o sistema Legacy) es un sistema informático (equipos informáticos o aplicaciones) que ha quedado anticuado pero continúa siendo utilizado por el usuario (típicamente una organización o empresa) y no se quiere o no se puede reemplazar o actualizar de forma sencilla.  Snapshot: En informática, una copia instantánea de volumen o Snapshot es una instantánea del estado de un sistema en un momento determinado. El término fue acuñado como una analogía a la de la fotografía. Puede referirse a una copia real del estado de un sistema o de una capacidad que ofrecen los sistemas de copia de seguridad.  Software: Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.  Switch: Un conmutador o switch es un dispositivo digital lógico de interconexión de equipos que opera en la capa de enlace de datos del modelo OSI (Modelo de interconexión de red). Su función es interconectar dos o más segmentos de red, de manera similar a los puentes de red, pasando datos de un segmento a otro de acuerdo con la dirección MAC de destino de las tramas en la red. Los switches se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes (otro dispositivo de 40 red), dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las redes de área local.  TI: Abreviación de Tecnologías de Información.  UPS: (En inglés: Uninterrumpible Power Supply). Fuente de alimentación ininterrumpible. Energía de seguridad que se emplea cuando la energía eléctrica de la línea se interrumpe o baja a un nivel de voltaje inaceptable. Los pequeños sistemas UPS proveen energía de baterías durante sólo unos pocos minutos; los necesarios para apagar el computador de manera ordenada. Los sistemas complejos están conectados a generadores eléctricos que pueden proveer energía durante días.  Virtualización: En Informática, virtualización es la creación de una versión virtual de algún recurso tecnológico(a través de software), como puede ser una plataforma de hardware, un sistema operativo, un dispositivo de almacenamiento u otros recursos de red.  VMware: El software de VMware puede funcionar en Windows, Linux, y en la plataforma Mac OS X que corre en procesadores INTEL, bajo el nombre de VMware Fusion. El nombre corporativo de la compañía es un juego de palabras usando la interpretación tradicional de las siglas «VM» en los ambientes de computación, como máquinas virtuales (Virtual Machines).  Windows: Es el nombre de una familia de sistemas operativos desarrollados y vendidos por Microsoft. Microsoft introdujo un entorno operativo denominado Windows el 25 de noviembre de 1985 como un complemento para MS-DOS (una interfaz en computación) en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). Microsoft 41 Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90% de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984. 42 CAPÍTULO II: METODOLOGÍA Durante el estudio de este capítulo se determinará los pasos que se deben seguir para la implementación de una infraestructura virtual y también explicaremos cual será la forma de como dirigiremos la virtualización para lograr los objetivos de la OFICINA DE TECNOLOGÍA DE INFORMACIÓN del MTC. La Virtualización en el MTC De acuerdo a la situación actual del MTC y sus necesidades, la virtualización se presenta como una solución acorde a las nuevas tendencias y que ayudan a cumplir con los objetivos planteados en esta tesis debido a sus innumerables características ya explicadas en el Marco Teórico. La Oficina de Tecnología de Información del MTC lograra la flexibilidad necesaria a los procesos y servicios que brinda, con la virtualización se podrán alcanzar los niveles deseados de soporte al negocio y al mismo tiempo agilidad en los procesos al reducir los tiempos en los que se entregan los proyectos, ya que un importante segmento de los proyectos contemplan la puesta en marcha de la infraestructura. 2.1. Material 43 Los materiales que se han utilizado para realizar a cabo este proyecto, son los siguientes: Materiales disponibles en el Centro de Cómputo del MTC:  Inventario de servidores  Inventario de equipos de red  Diagrama de red.  Inventario de aplicaciones, indicando criticidad de recursos.  Informe de Monitoreo de Servidores.  Documento de Recopilación de información Materiales de Oficina:  Papel Bond Formato A4  Bolígrafos  Lápices y borradores  2 computadoras portátiles(laptops)  Material bibliográfico especializado en el tema Materiales informáticos (Herramientas):  Internet (Navegadores web : Google Chrome v33.0, Mozilla Firefox v28.0)  Microsoft Office 2013  Adobe Acrobat 2010 Repositorio de datos en la nube:  Google Drive  One Drive Personal disponible para realización del proyecto: 44  Edgar Renán, Espinoza Villogas, bachiller de Ingeniería  Lobatón Rosas, Luis Guillermo, bachiller de Ingeniería  León Lescano, Norma; tutor turno mañana del curso taller de tesis del proyecto  León Lamas, Jesús; tutor turno tarde del curso taller de tesis del proyecto Software repositorio de fuentes bibliográficas:  Zotero (En Mozilla Firefox) 2.2. Métodos A continuación y basándonos en la metodología RTI detallada en el Marco Teórico nuestra implementación de virtualización de servidores se desarrollará de la siguiente manera: Figura 20: Secuencia de Pasos de la Metodología Fuente: Propia - MTC 2.2.1 Análisis de la Situación Inicial Se realiza el levantamiento de la información y posteriormente un análisis de información de toda la infraestructura física del centro de cómputo, a base de los inventarios y reportes generados, para con esto poder calcular la cantidad de procesadores, tipo de procesadores, tipo y cantidad de RAM, de la misma forma el tipo de arreglo y cantidad del disco. 45 Con esta información clara se podrá realizar el cálculo de recursos de Hardware para la nueva infraestructura de virtualización. También se eleva el análisis hacia la siguiente capa de aplicación y se evalúan los sistemas que corren sobre ellos, si cuentan con restricciones físicas, etc. Con toda la información antes descrita se llega a una lista de los servidores candidatos a ser virtualizados. 2.2.2 Requerimiento de la nueva Infraestructura virtual Una vez definida las características de Hardware y Software para la nueva infraestructura virtual se procede a elaborar el documento de Términos de Referencia y especificaciones técnicas donde se detalla las características específicas de la compra que necesita hacer el MTC para este propósito. Este sigue un procedimiento institucional y legal para que los proveedores y marcas de Hardware y Software puedan presentarse y ser evaluados con el fin de obtener la propuesta que mejor se adecue a las necesidades del MTC y al presupuesto. Finalmente se obtiene un ganador después de un concurso público y se define el cronograma de implementación. 2.2.3 Implementación de la nueva Infraestructura virtual Teniendo conocimiento del cronograma ya definido se prepara el centro de cómputo en cuanto a espacio físico y cableado eléctrico y de red para la implementación de la nueva Infraestructura virtual. 46 Posteriormente en coordinación con el proveedor ganador del concurso público y el equipo técnico del MTC se procede a implementar la solución de virtualización. Cabe indicar que esta nueva infraestructura no impacta en los servicios del centro de cómputo ya que se trata de una nueva implementación que albergará a futuro los servidores actuales. 2.2.4 Pruebas y capacitación del personal. En esta etapa se prueba el correcto funcionamiento de la nueva infraestructura virtual con la creación de Servidores de prueba y se realizarán pruebas de migración de servidores que no sean críticos para el negocio. También se capacita al equipo técnico del MTC en cuanto al Software y Hardware, para que se pueda realizar las migraciones paulatinamente y sin impactar al negocio. 2.2.5 Migración de los servidores físicos a virtuales Para la migración de servidores físicos a virtuales se utiliza un método ya documentado y conocido de migración llamado “P2V” (Phisical to Virtual). También cabe indicar que a partir de implementada la solución los nuevos servidores solicitados para diferentes proyectos del MTC serán entregados en cuestión de minutos gracias a la flexibilidad de la virtualización. 47 Figura 21: Actividades dentro de la Metodología Fuente: Propia - MTC 48 CAPÍTULO III: DESARROLLO DEL PROYECTO 3.1. Análisis de la Situación Inicial En este primer paso revisaremos la documentación con la cuenta el centro de cómputo del MTC. - Inventario de Servidores (Ver Anexo 9.1) Figura 22: Inventario de Servidores Fuente: Propia - MTC - Inventario de equipos de red (Ver Anexo 9.2) 49 Figura 23: Inventario de Equipos de Red Fuente: Propia - MTC - Diagrama de red. Figura 24: Diagrama de Red Fuente: Propia - MTC 50 - Inventario de aplicaciones, indicando criticidad de recursos( Ver Anexo 9.3) Figura 25: Inventario de Aplicaciones Fuente: Propia - MTC A base de los inventarios de Hardware podemos elaborar una pequeña matriz para saber la cantidad de recursos que se adquirirán en la compra, considerando los aspectos básicos para la configuración de servidores virtuales: ACTUAL PROYECTOS TOTAL MEMORIA 180 GB 540 GB 720 GB PROCESADOR 298.8 GHz 896.4 1195.2 GHz DISCO 14 TB 42 TB 56 TB Nota: Se calcula para los proyectos el triple de las cantidades actuales debido al crecimiento informático y altos consumos de nuevos sistemas. Además se considera también el tiempo de garantía y soporte con el que vienen por defecto las soluciones de Hardware y Software. 51 Fotos de la situación inicial: A continuación se mostrara en imágenes la situación inicial del centro de cómputo del MTC la cual presentaba problemas de electricidad, los tableros eléctricos se encuentran en su capacidad máxima, restricción que limita fuertemente la continuidad de los proyectos de TI. También presentan problemas electro-mecánicos ya que los sistemas de enfriamiento no son los adecuados, actualmente los que se tienen son para uso de “confort” y no de precisión, razón por la cual la temperatura supera los 29°C. Se desea reducir la temperatura para poder incrementar servidores que se encuentran en proceso de compra. Servidores físicos distribuidos alrededor dela sala de cómputo, estos se encuentran dispersos y desordenados. 52 Alto consumo de aire acondicionado. Infraestructura heterogénea, requiere mayor esfuerzo de administración de diversas plataformas. 53 Cables desordenados. Alto consumo de energía eléctrica. Cables desordenados, los servidores utilizan un solo ramal de electrificación. 54 Servidores antiguos con aplicaciones Legacy que ya no cuentan con soporte por parte del proveedor. Los sistemas Legacy requieren mayor especialización y mano de obra que no se encuentra fácilmente en el mercado. Fuente: Propia - MTC 3.2. Requerimiento de la Nueva Infraestructura Virtual Con las cantidades de recursos (Hardware, Software, Red, etc.) ya definidos a base de los reportes y diagramas analizados en el punto anterior y con el apoyo de los proveedores postulantes se realiza el documento formal de las especificaciones técnicas de los equipos a solicitar para el proyecto de IMPLEMENTACIÓN DE VIRTUALIZACIÓN EN EL CENTRO DE CÓMPUTO DEL MINISTERIO DE TRANSPORTES Y COMUNICACIONES. Este documento es entregado a la Oficina de Administración del MTC para ser analizado y puesto en concurso público. (Ver Anexo 9.4) 55 Figura 26: Documento de Requerimiento de la nueva Infraestructura Virtual Fuente: Propia - MTC 3.3. Implementación de la Nueva Infraestructura Virtual Luego de finalizado el proceso de selección y con conocimiento del ganador de la licitación pública, se realiza las coordinaciones con el proveedor ganador y da inicio a la implementación del proyecto. En este caso las marcas ganadoras en cuanto a Software y Hardware fueron VMware y DELL, representadas por COSAPI DATA, uno de sus principales canales de venta en Perú. 56 Figura 27: Nueva Infraestructura Virtual seleccionada Fuente: (centerdigitaled, 2009) 3.3.1 Requisitos previos para la instalación de Hardware: Eléctricos y Físicos: Fuente: Propia - MTC 57 Figura 28: Requisitos Eléctricos y Físicos para la instalación del Hardware Fuente: Propia - MTC 58 Requisitos de red: Figura 29: Requisitos de Red Fuente: Propia - MTC 59 3.3.2 Cronograma de trabajo TAREA DURACION INICIO FIN % Completado IMPLEMENTACIÓN DE VIRTUALIZACIÓN EN EL CENTRO mar mar DE CÓMPUTO DEL MINISTERIO DE TRANSPORTES Y 44 DIAS 0% COMUNICACIONES 10/01/12 06/03/12 Actividades Previas 7 Días mar 10/01/12 mie 18/01/12 100% Instalación de Racks 2 días mar 10/01/12 mie 11/01/12 100% Instalación de Tomas Eléctricas 2.5 días mie 11/01/12 vie 13/01/12 100% Habilitar conexiones de red 2.5 días lun 16/01/12 mie 18/01/12 100% Instalación física de Equipos DELL 8 Días mie 18/01/12 vie 27/01/12 100% Instalación física de servidores BLADE 3 días mie 18/01/12 vie 20/01/12 100% instalación física de Storage EqualLogic 3 días lun 23/01/12 mie 25/01/12 100% Instalación física de switches SAN 1.5 día jue 26/01/12 vie 27/01/12 100% Energización de equipos 0.5 días vie 27/01/12 vie 27/01/12 100% Configuración Inicial de los equipos DELL 6 Días vie 27/01/12 vie 03/02/12 100% Actualización de FW de servidores BLADE 1 días vie 27/01/12 vie 27/01/12 100% Actualización de FW de Storage EqualLogic 1 días lun 30/01/12 lun 30/01/12 100% Actualización FW de switches SAN 1 días mar 31/01/12 mar 31/01/12 100% Interconexiones de Switches SAN - BLADE - EqualLogic 1 días mie 01/02/12 mie 01/02/12 100% Configuraciones de Nueva Infraestructura. 2 días jue 02/01/12 vie 03/02/12 100% Configuración Servidores Blade 7 Días vie 03/02/12 lun 13/02/12 100% configuración inicial de Servidores 3 días vie 03/02/12 mar 07/02/12 100% configuración de SW base 2 días mie 08/02/12 jue 09/02/12 100% Creación de conectividad 2 días vie 10/02/12 lun 13/02/12 100% Configuración Storage EqualLogic 6 días lun 13/02/12 lun 20/02/12 100% configuración inicial de Storage EqualLogic 2 días lun 13/02/12 mar 14/02/12 100% Zonificación del de Storage EqualLogic 2 días mie 15/02/12 jue 16/02/12 100% Creación de hosts en el de Storage EqualLogic 1 día vie 17/02/12 vie 17/02/12 100% Creación de LUN y Pool de discos 1 día lun 20/02/12 lun 20/02/12 100% Configuración Switch SAN 1 día mar 21/02/12 mar 21/02/12 100% configuración inicial de Switch SAN 0.5días mar 21/02/12 mar 21/02/12 100% Zonificación del Switch con SAN y BLADES 0.5 días mar 21/02/12 mar 21/02/12 100% vCenter 5 días mar 21/02/12 lun 27/02/12 100% Instalación y configuración de S.O para servidor vCenter 0.5 días mar 21/02/12 mar 21/02/12 100% Creación de BD para vCenter 0.5 días mar 21/02/12 mie 22/02/12 100% Creación de BD para SSO 0.5 días mie 22/02/12 mie 22/02/12 100% Instalación de vCenter 0.5 días jue 23/02/12 jue 23/02/12 100% Configuración de vCenter con los nodos 0.5 días jue 23/02/12 vie 24/02/12 100% Creación de DataCenter virtual 0.5 días vie 24/02/12 vie 24/02/12 100% Creación de Clúster Vmware 0.5 días lun 27/02/12 lun 27/02/12 100% Asignación de servidores al clúster de Vmware 0.5 días lun 27/02/12 mar 28/02/12 100% Configuración de vSwitch de los Servidores Vmware 0.5 días mar 28/02/12 mar 28/02/12 100% Configuración de vMotion 0.5 días mié 29/02/12 mié 29/02/12 100% Creación de Servidores de Prueba 1 Día jue 01/03/12 jue 01/03/12 100% Creación de 2 Virtual Machine 0.3 días jue 01/03/12 jue 01/03/12 100% Instalación de SO Windows Server 2008 R2 0.3 días jue 01/03/12 jue 01/03/12 100% Instalación de SO Red Hat Linux 0.4 días jue 01/03/12 jue 01/03/12 100% Migración de servidores de Prueba 3 días vie 02/03/12 mar 06/03/12 100% instalación de Vmware converter 1.5 días vie 02/03/12 lun 05/03/12 100% Migración de servidores 1.5 días lun 05/03/12 mar 06/03/12 100% Migración de Servidores XX Días XX% Tarea cargo del Equipo Técnico del MTC la cual se realizara paulatinamente. instalación de Vmware converter 0.5 días mar 06/03/12 mar 06/03/12 100% Inventario de maquinas XX días mar 06/03/12 mar 06/03/12 100% Migración de servidores XX días mar 06/03/12 mar 06/03/12 0% Figura 30: Cronograma de Trabajo Fuente: Propia - MTC 60 3.3.3 Diseño de la Solución La arquitectura siguiente es la propuesta para asegurar la continuidad operacional de la infraestructura, para empezar desglosaremos los elementos:  Almacenamiento SAN Dell EqualLogic PS 6110 XV Los sistemas de almacenamiento EqualLogic, son sistemas avanzados basados en tecnología SAN iSCSI de 10GbE, combinan la inteligencia y la automatización con tolerancia a fallas para proporcionar administración simplificada, implementación rápida, alto rendimiento, confiabilidad empresarial y escalabilidad ilimitada.22 Tienen la capacidad de soportar discos SSD, SAS y SATA y a la vez cuentan con una fácil y adaptable configuración de RAID para adecuarse a los requerimientos de las diferentes aplicaciones que se montarán sobre estos, es también el más recomendado RAID 6 el cual viene por defecto en las configuraciones.  Servidores Blade Power Edge M820 y M620 Son los clásicos servidores con una nueva arquitectura también conocida como cuchillas listas para insertar en el chasis y así evitar las complejas conexiones de red y SAN. Estos serán quienes nos dan la memoria RAM y el procesamiento CPU, para la infraestructura virtual 22 (DELL corp., 2014) 61  Switch SAN DELL Force 10 S41810 Son quienes nos darán la conexión y controlaran la alta disponibilidad entre los CHASIS BLADE (Servidores) y Almacenamiento EqualLogic.  Chasis Blade DELL M100e El gabinete blade modular Dell PowerEdge M1000 constituye una arquitectura de servidores diseñado para combatir la extensión de los centros de datos y la complejidad de TI, es uno de los productos de servidor blade más flexible, administrable y con un uso más eficiente de la energía del mercado.23  Integración de la infraestructura: Para poder integrar una adecuada infraestructura de Hardware para VMware debemos realizar conexiones redundan dantes entre el chasis (servidores) y cada caja de storage EqualLogic, estos interconectados serán mediante los switch, en el grafico siguiente podemos ver las conexiones iSCSI para la SAN y de red para administración y comunicación. 23 (DELL corp., 2011) 62 Figura 31: Diseño de la Solución Fuente: (DELL corp., 2014) 63 El siguiente gráfico muestra la arquitectura real de todo el Hardware adquirido por el MTC Figura 32: Arquitectura del Hardware externa Fuente: Propia - MTC 64 Figura 33: Arquitectura del Hardware interna Fuente: Propia - MTC 65 3.3.4 Instalación de los servidores Blade DELL La siguiente pantalla muestra el inicio y montaje del chasis blade con los servidores que serán utilizados como host VMware ESX. Desde esta pantalla se administran todos los servidores al interior del chasis y sus conexiones con la SAN. Los servidores serán los encargados de darnos el CPU y memoria RAM para nuestras máquinas virtuales. Figura 34: Instalación de Servidores Blade DELL Fuente: Propia - MTC 66 3.3.5 Instalación del storage EQUALLOGIC DELL La siguiente pantalla muestra la administración del storage que nos servirá para la presentación de las LUN asignadas a nuestra solución VMware y serán donde se alojen todas las máquinas virtuales. El storage será el encargado de darnos los discos para nuestros servidores virtuales. Figura 35: Instalación de Storage EQUALLOGIC DELL Fuente: Propia - MTC 67 En la siguiente pantalla se ve a detalle todas las LUN creadas y asignadas a nuestra solución VMware. Figura 36: LUN creadas y asignadas a la solución Hardware Fuente: Propia - MTC 68 3.3.6 Instalación del VMware La siguiente pantalla muestra el inicio de la instalación del VMware ESX que es el sistema operativo que dará la lógica necesaria para montar servidores virtuales, también llamado “Hipervisor”. Estos serán instalados en todos los servidores que formaran la infraestructura Vmware. Figura 37: Instalación de VMware ESX Fuente: Propia - MTC 69 La siguiente pantalla muestra la instalación del VMware vSphere Client que será instalada en una máquina virtual de la nueva solución, este software es el encargado de administrar todos los host ESX, desde que acá podremos administrar crear eliminar modificar las servidores virtuales. También podremos crear las configuraciones de alta disponibilidad y migración de las máquinas virtuales, DataStores, etc. Figura 38: Instalación de VMware vSphere Client Fuente: Propia - MTC 70 Esta pantalla muestra ya los clúster de hosts VMware y las máquinas virtuales del MTC Figura 39: Clústers de host VMware y las máquinas virtuales Fuente: Propia - MTC 71 3.4. Pruebas y Capacitación del Personal. En esta etapa se crearán nuevos servidores para prueba y migrarán algunos de criticidad baja como prueba. La siguiente pantalla es el inicio de la creación de una máquina virtual: Figura 40: Creación de Máquina Virtual Fuente: Propia - MTC 72 A continuación podemos ver ya dos sistemas operativos montados en la nueva infraestructura, Windows Server y Red Hat Linux: Figura 41: Windows Server y Red Hat Linux en la nueva infraestructura Fuente: Propia - MTC 73 Figura 42: Capacitación Linux Fuente: Propia - MTC El equipo técnico del centro de cómputo del MTC será capacitado en cuanto a SERVIDORES, STORAGE y VMware. Figura 43: Certificado VMware Profesional Avanzado Fuente: Propia - MTC 74 Figura 44: Sello de Certificación de DELL Fuente: (DELL corp., 2011) 3.5. Migración de los Servidores Físicos a Virtuales Para la migración de servidores físicos a virtuales se utilizara un método ya documentado y conocido de migración llamado “P2V” (Phisical to Virtual). Figura 45: Migración de Servidores Físicos a Virtuales Fuente: (VMware corp., 2008) 75 Este es el software VMware Converter que nos apoyará para la conversión de servidores físicos a virtuales. Figura 46: Software VMware Converter Fuente: Propia - MTC Deben ingresarse las credenciales de administrador de la solución y además debe cumplirse con todos los requisitos de red que hagan posible la conexión entre los servidores físicos y los ambientes virtuales. 76 Figura 47: Pantalla de Acceso de VMware Converter Fuente: Propia - MTC Podemos definir y modificar las características de Hardware de los servidores al momento de la migración, es decir podemos incrementar o disminuir CPU, RAM o DISCO, esto es de gran ayuda ya que permite optimizar las características de los servidores. 77 Figura 48: Proceso de Conversión del VMware Converter Fuente: Propia - MTC 78 También cabe indicar que a partir de implementada la solución los nuevos servidores solicitados para diferentes proyectos del MTC serán entregados en cuestión de minutos gracias a la flexibilidad de la virtualización. Figura 49: vSphere Client Fuente: Propia - MTC 79 CAPÍTULO IV: PRUEBAS Y RESULTADOS 4.1. Pruebas Este es el listado de las pruebas a realizarse en los siguientes puntos principales: Alta disponibilidad de los servicios informáticos y recursos de Hardware Reducción de costos de energía Ahorro de espacio físico Administración Centralizada Escalabilidad y nuevas implementaciones Figura 50: Listado de pruebas Fuente: Propia - MTC 80 4.2. Resultados de la Pruebas 4.2.1 Alta disponibilidad de los servicios informáticos y recursos de Hardware La arquitectura de la solución de virtualización ya nos permite alta disponibilidad a nivel de Hardware, como se explicó el punto 4.3.3 del capítulo III. Pero el VMware complementa esta infraestructura mediante características como: VMware HA: Permite que múltiples hosts ESX puedan ser configurados como un clúster para proveer de alta disponibilidad y una rápida recuperación ante fallos, para todas las máquinas virtuales en dichos hosts, es así que se protege la disponibilidad de las siguientes formas:  Protege contra fallas de servidores, moviendo las máquinas virtuales en otros hosts dentro del cluster.  Protege contra fallas de aplicaciones monitoreando continuamente una máquina virtual, y reseteándola en caso de detectar una falla.24 24 (Cerda, 2011) 81 Figura 51: Alta Disponibilidad de Servicios Informáticos Fuente: Propia - MTC VMotion: Es una tecnología que permite la migración “en caliente” de una MV desde un host a otro, sin un impacto apreciable por el usuario final. Figura 52: VMotion Fuente: Propia - MTC 82 4.2.2 Reducción de costos de energía Una de las ventajas económicas más tangibles para la empresa es el ahorro de energía eléctrica al disminuir la cantidad de servidores activos. El ahorro lo vemos reflejado en el siguiente gráfico: INICIALMENTE: 0.3 kW.h x 24 horas x 365 días x 80 servidores x 0.18 soles = S/. 37,843 x año 80 servidores APLICANDO LA PROPUESTA: 16 Servidores Físicos 0.4 kW.h x 24 horas x 365 días x 16 servidores x 0.18 soles = S/. 10,092 x año Figura 53: Resultado de Reducción de Costos de Energía Fuente: Propia - MTC Ahorro Total en consumo de energía al año: S/. 37,843 – S/. 10,092 = S/. 27751 anual 83 4.2.3 Ahorro de espacio físico Inicialmente: Como se indicó en el capítulo III, 4.1 (Situación Inicial), se tenía una situación inicial y se mostraban las imágenes del centro de cómputo del Ministerio de Transportes en un estado donde el espacio físico del Data Center no se aprovechaba adecuadamente. Luego de la Virtualización: Situación final. 16 servidores físicos distribuidos alrededor dela sala de cómputo, estos se encuentran ordenados y dentro de un ambiente propicio para su correcta administración. Lo que demuestra el correcto aprovechamiento del espacio físico. Fuente: Propia - MTC 84 Servidores virtualizados distribuidos en un Blade Figura 54 : Resultado de Virtualización en Espacio Físico Fuente: Propia - MTC 4.2.4 Administración Centralizada Como se explicó en el punto 4.1.6 el vShere Client nos permite una administración centralizada de toda mi infraestructura virtual incluída HOST y STORAGE. 85 La imagen muestra todas las máquinas virtuales y sus características y performance: Figura 55: Performance de todas las Máquinas Virtuales y sus características Fuente: Propia - MTC 86 La imagen muestra las máquinas virtuales y diagrama de conexiones e interrelación: Figura 56: Diagrama de conexiones e Interrelación de Máquinas Virtuales Fuente: Propia - MTC Ahorro en Mano de obra Tomando los siguientes datos obtenidos de un Administrador que labora en el MTC se tiene: • Sueldo promedio Administrador de Servidores : 5000 soles • Horas trabajadas mensuales : 240 Horas • Costo /hora por Administrador : 20.83 soles • Cantidad de días de trabajo en un año de L-V : 260 días • Horas de Administración por servidor físico : 3 horas • Horas de Administración por servidores Virtual : 1 hora 87 INICIALMENTE: 3 horas x 360 días x 20.83 soles = S/. 22,496 x año 80 servidores APLICANDO LA PROPUESTA: 16 Servidores Físicos 1 hora x 360 días x 20.83 soles = S/. 7,498 x año Figura 57: Ahorro costo Horas/Hombre Fuente: Propia - MTC Ahorro Total en costo Horas/Hombre al año: S/. 22,496 – S/. 7,498 = S/. 14,998 anual 88 4.2.5 Escalabilidad y nuevas implementaciones Escalabilidad: VMware nos permite monitorear la solución de virtualización y así poder predecir cuál será el consumo de los host que alojan los servidores virtuales, esto nos será de gran utilidad para saber en qué momento debemos adquirir más recursos. En la siguiente imagen podemos ver la disponibilidad de recursos del Hardware: Figura 58: Disponibilidad de Recursos de Hardware Fuente: Propia - MTC 89 Consumo por Host ESX Figura 59: Consumo por Host ESX Fuente: Propia - MTC En las siguientes imágenes podemos el desempeño de los recursos actuales y nos da una proyección de crecimiento y lo que soportará a futuro: Figura 60: Diagrama de desempeño de CPU Fuente: Propia - MTC 90 Figura 61: Diagrama de desempeño de Memoria Fuente: Propia - MTC Figura 62: Diagrama de desempeño de Disco Duro Fuente: Propia - MTC 91 Nuevas Implementaciones La creación de nuevos servidores virtuales es inmediata en base a plantillas de sistemas operativos podemos desplegar servidores virtuales en minutos: Figura 63: Creación de nuevos Servidores Virtuales Fuente: Propia - MTC 92 De igual manera los servidores virtuales existentes pueden ser modificados rápidamente, siendo el único requisito reiniciarlos. Figura 64: Modificación de Servidores Virtuales existentes Fuente: Propia - MTC 93 CAPÍTULO V: DISCUSIÓN Y APLICACIONES Actualmente la virtualización o también llamada “Cloud Privada” es usada en distinta forma por todos, desde el usuario más básico hasta la empresa más sofisticado que tiene un data center virtualizado. La virtualización nos ayuda a optimizar el uso de recursos usando máquinas virtuales, reducir la inversión en hardware y tener una velocidad de reacción más rápida al necesitar mayor capacidad de procesamiento y almacenamiento. Entonces la virtualización es una herramienta que puede ayudar no solo a ser más efectivos y competitivos sino a ser más eficientes en la organización, hoy la mayoría de empresas entienden que la virtualización es una forma de ahorrar costos en general.25 Asimismo, se puede llegar a ahorrar un 80% de energía y reducir hasta un 50% los gastos operacionales (el costo de capex o adquisición de nuevo hardware y de de opex que son los gastos de mantenimiento), según cifras de VMware Perú.26 Sin embargo, para el promedio de las organizaciones la inversión en soluciones de virtualización puede resultar “costosa, pero no cara”, 25 (DIARIO GESTION, 2014) 26 (VMware corp., 2014) 94 entiéndase como una inversión inicial fuerte pero con gran proyección y ahorro a largo plazo. En general el desarrollo de este proyecto debe ayudarnos a entender que la tecnología es inversión no un gasto como generalmente se ve en las organizaciones, debemos hacer entender al negocio que las organizaciones modernas se mueven a la velocidad que su departamento de TI lo permite. En la siguiente tabla se establece una relación en la cual podremos apreciar en qué lugar específico de la tesis se encuentran alineados las soluciones planteadas con los objetivos específicos: OBJETIVO ESPECÍFICO SOLUCIÓN PLANTEADA Alta disponibilidad de los Véase: Capítulo IV – 5.2.1 , Alta disponibilidad de los servicios informáticos y servicios informáticos y recursos de Hardware - Página 77 recursos de Hardware Reducción de costos de Véase: Capítulo IV – 5.2.2, energía Resultado del Consumo de Energía, Página 79 Ahorro de espacio físico Véase: Capítulo IV – 5.2.3 , Ahorro de Espacio Físico - Página 81 Administración Véase: Capítulo IV – 5.2.4 , Administración Centralizada - Centralizada Página 82 Escalabilidad y nuevas Véase: Capítulo IV – 5.2.5, Escalabilidad y nuevas implementaciones implementaciones – Página 84 95 CONCLUSIONES • La virtualización mejora la calidad de los servicios de TI a través de una arquitectura de alta disponibilidad y dividiendo los recursos computacionales tales como memoria, procesador, almacenamiento, redes, entre otros. Esto permite garantizar la continuidad y la disponibilidad operacional de los servicios de TI. • La puesta en práctica de la virtualización implica ahorros en infraestructura ya que se reduce la inversión de hardware en el centro de cómputo (capex y opex) además es implementada en una arquitectura de hardware estándar y que permite consolidar diferentes plataformas en una misma infraestructura. • A través de una administración centralizada mediante la plataforma de virtualización se redujo la cantidad de horas-hombre en un 66%, tiempo que dedicaba el personal de TI a los trabajos de instalación, administración y mantenimiento de cada servidor físico. • Con todas las ventajas descritas en el proyecto los gastos de electricidad se redujeron en un 73.33 % y el espacio físico en un 50% aprox., con esto la refrigeración en el centro de cómputo se vio notablemente favorecida. 96 • El despliegue de nuevos servidores será inmediato debido al uso de plantillas además las copias de seguridad de los servidores virtuales serán más rápidos y sencillos, esto nos ayudara no solo a ser más efectivos y competitivos sino a ser más eficientes en la organización. • Finalmente este proyecto ayudará a entender que la tecnología es inversión no un gasto, como generalmente se ve en las organizaciones a las áreas de tecnología. Debemos hacer entender al negocio que las organizaciones modernas se mueven a la velocidad que sus áreas de TI lo permite. 97 RECOMENDACIONES • El proceso de virtualización no solamente implica comprar e instalar un producto, es necesario tomar en cuenta consideraciones como la evaluación del rendimiento y la capacidad actuales de los sistemas y sus futuras necesidades, así como la planificación del tiempo, el equipo y la asistencia que será necesaria para el proyecto. • Si bien la virtualización permite el crecimiento e implementación de nuevos servidores virtuales con facilidad no debemos perder el control ni la gestión de estos recursos ya que usualmente los administradores comenten este error. • Una vez que se pasa a producción con virtualización, es necesario definir la estrategia de monitoreo de virtualización apropiada para su organización. Esta es un área clave para minimizar los riesgos y asegurar el éxito total del proyecto. 98 FUENTES DE INFORMACIÓN C. Laudon, K., & Price Laudon, J. (2004). Sistemas de información gerencial. PEARSON Prentice Hall. aidan finn. (22 de 03 de 2013). Aidan Finn, IT Pro. Obtenido de http://www.aidanfinn.com/?p=15022 Báez Rúales, D. J., & Benavides Morillo, O. X. (junio de 2011). BIBLIOTECA PUCE-SI. Obtenido de http://dspace.pucesi.edu.ec/bitstream/11010/177/1/T72587.pdf centerdigitaled. (diciembre de 2009). center for digital education. Obtenido de Fuente: Propia - MTC Cerda, P. (19 de setiembre de 2011). Tecnologías Aplicadas. Obtenido de http://patriciocerda.com/2011/09/vsphere-5-como-funciona-ha-y.html 99 CONSULTA IT PRO. (05 de 10 de 2009). CONSULTA IT PRO. Obtenido de http://www.consultaunitpro.com/tag/virtualizacion#sthash.sMSIbJCC.d pbs DELL corp. (2011). DELL. Obtenido de http://www.dell.com/downloads/global/products/pedge/es/m1000e_spe c_sheet_es_xl.pdf DELL corp. (2014). DELL. Obtenido de http://www.dell.com/es/empresas/p/equallogic-ps4110e/pd DIARIO GESTION. (22 de MAYO de 2014). DIARIO GESTION. Obtenido de http://gestion.pe/tecnologia/camino-pymes-hacia-virtualizacion-y-uso- cloud-computing-2097831 EDDIE. (septiembre de 2009). consulta unit. Obtenido de http://www.consultaunitpro.com/introduccion-al-tema-de-la- virtualizacion#sthash.FXnqqOe4.dpbs EDDIE. (octubre de 2009). consulta unit. Obtenido de http://www.consultaunitpro.com/tag/virtualizacion#sthash.x3j4f24x.PbC JCClr.dpbs El Diario PRIMERA EDICION. (12 de junio de 2014). El Diario PRIMERA EDICION. Obtenido de http://www.primeraedicionweb.com.ar/nota/suplemento/1401/virtualiza cion-%C2%A1dos-en-uno-y-mas!.html ESTRATEGIAS DE INVERSION .COM. (19 de enero de 2012). ESTRATEGIAS DE INVERSION .COM. Obtenido de 100 http://www.estrategiasdeinversion.com/comunicados/20120119/red- hat-enterprise-virtualization-3-proporciona-alternativa Gómez López, J. (2011). Administración de Sistemas Operativos 2da. Edición. RA-MA Editorial. Obtenido de http://www.adminso.es/index.php/PFC_Virtualizaci%C3%B3n_de_serv idores_de_telefon%C3%ADa_Ip_en_GNULinux Gonzáles, J. (mayo de 2010). Obtenido de http://www.josemariagonzalez.es/2010/05/10/beneficios-vmware- storage-vmotion.html GRUPO INTELECTOR. (02 de julio de 2014). GRUPO INTELECTOR. Obtenido de http://www.grupointelector.com/index.php?option=com_content&view= article&id=91&Itemid=82 hostingred. (18 de 11 de 2013). HOSTINGRED. Obtenido de http://www.hostingred.com/servicios-cloud/cloud-hosting/ informatica-es. (2010). INFORMATICAHOY. Obtenido de http://www.informatica-hoy.com.ar/aprender-informatica/Que-es- Hardware-y-Software.php informatica-hoy. (2010). INFORMATICAHOY. Obtenido de http://www.informatica-hoy.com.ar/aprender-informatica/Que-es- Hardware-y-Software.php Jhoanna Terán. (08 de 2011). SOS (Suministros Obras y Sistemas). Obtenido de http://www.sos.net.ve/index.php?option=com_content&view=article&id 101 =32:-vmware-y-sos-presentan-caso-de-exito-de-sap-en-hierro- barquisimeto&catid=6:virtualizacion&Itemid=4 Julio Cesar Cuevas. (marzo de 2012). RIMSA. Obtenido de VMware: http://www.vmware.com/files/pdf/customers/VMware- Laboratorios_RIMSA-12Q2-SP-Case- Study.pdf?src=WWW_customers_VMware-Laboratorios_RIMSA- 12Q2-SP-Case-Study.pdf maxsantito. (23 de abril de 2013). MAXSANTITO. Obtenido de http://maxsantito.blogspot.com/2013/04/tipos-de-servidores.html microsoft. (2014). microsoft. Obtenido de http://www.microsoft.com/en- us/server-cloud/products/windows-server-2012- r2/default.aspx#fbid=AW1mAZ5HzCf NETTIX PERU. (2013). NETTIX PERU. Obtenido de http://www.nettix.com.pe/Blog/Soporte/beneficios-de-la-virtualizacion NORDIC SOLUTIONS. (2014). NORDIC SOLUTIONS. Obtenido de http://www.nordicsolutions.net/servicios/virtualizacion/ OMEGA. (11 de enero de 2012). OMEGA. Obtenido de http://www.omega- peripherals.com/casos_de_exito/view/consorcio-de-aguas-de-bilbao- bizkaia otiasis. (26 de 08 de 2008). ECONOM OTIASIS. Obtenido de http://www.osiatis.es/ingenieria_produccion/virtualizacion.php P.Ruiz. (13 de agosto de 2013). Some Books & News. Obtenido de http://somebooks.es/?p=3366 102 Pérez, J. M. (febrero de 2012). revista2. Obtenido de http://revista2.linti.unlp.edu.ar/tesinas/tesis117.pdf Rafael, M. (2012). www.linux-es.org (linux para hispanohablantes). Obtenido de http://www.linux-es.org/sobre_linux ramonmorillo. (23 de 11 de 2011). ramonmorillo. Obtenido de http://ramonmorillo.wordpress.com/2011/11/23/escenarios-de- virtualizacion-en-windows-server-2008/ Ramos Generoso, C. S. (26 de 06 de 2011). CSRG-IT. Obtenido de http://csrg-it.blogspot.com/2011/05/hyper-v-server-2008-r2.html redestelecom.es. (29 de junio de 2012). redestelecom.es. Obtenido de http://www.redestelecom.es/gestion/casos- exito/1061122001403/vmware-virtualiza-infraestructura.1.html siliconweek. (2 de enero de 2009). siliconweek. Obtenido de http://www.siliconweek.es/knowledge-center/knowledge-center- almacenamiento/como-implementar-virtualizacion-y-mantener-un- centro-de-datos-heterogeneo-323 SOS Suministros y Obras. (15 de 08 de 2011). Obtenido de http://www.sos.net.ve/soscol/index.php?option=com_content&view=arti cle&id=34:-vmware-y-sos-presentan-caso-de-exito-de-sap-en-hierro- barquisimeto&catid=6:virtualizacion&Itemid=4 technet. (junio de 2013). Technet. Obtenido de http://blogs.technet.com/b/in_the_cloud/archive/2013/07/02/new- magic-quadrant-from-gartner-for-x86-server-virtualization- infrastructure.aspx 103 Unisys Corporation. (4 de mayo de 2005). DEC Asociación española de Empresas de Consultoría. Obtenido de http://www.consultoras.org/frontend/aec/UNISYS--Disenada-Para- Posicionar-La-Infraestructura-De-TI-Como-Base-Dinamica-De-La- Organizacion--Com-impn2712 VMware corp. (2008). AWERTY (clientes, tecnología,Asistencia). Obtenido de http://www.serviciohelpdesk.com/_crm/Temp/vmware-esx-esp.pdf VMware corp. (2014). VMware corp. Obtenido de http://www.vmware.com/pe/products/datacenter-virtualization.html wikipedia . (12 de diciembre de 2012). Wikipedia La enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/X86 wikipedia . (9 de abril de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Migraci%C3%B3n_de_datos wikipedia . (10 de abril de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Multitarea wikipedia . (01 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Copia_instant%C3%A1nea_de_volumen wikipedia . (03 de abril de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n wikipedia. (2011). WIKIPEDIA. Obtenido de http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n wikipedia. (16 de marzo de 2013). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Alta_disponibilidad 104 wikipedia. (02 de noviembre de 2013). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Juniper_Networks wikipedia. (18 de octubre de 2013). wikipedia la enciclopedia libre. Obtenido de http://en.wikipedia.org/wiki/Physical-to-Virtual wikipedia. (11 de marzo de 2013). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Sistema_heredado wikipedia. (08 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Copia_de_seguridad wikipedia. (3 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Escalabilidad wikipedia. (13 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Cortafuegos_(inform%C3%A1tica) wikipedia. (12 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Google_Chrome wikipedia. (2 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Hipervisor wikipedia. (21 de febrero de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Host wikipedia. (12 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Small_Computer_System_Interface wikipedia. (24 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Juniper_Networks wikipedia. (28 de abril de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Computadora_central 105 wikipedia. (09 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Memoria_de_acceso_aleatorio wikipedia. (08 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Mozilla_Firefox wikipedia. (05 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Partici%C3%B3n_de_disco wikipedia. (12 de febrero de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Plataforma_(inform%C3%A1tica) wikipedia. (27 de marzo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_de_almacenamiento wikipedia. (12 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Small_Computer_System_Interface wikipedia. (06 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Servidor_blade wikipedia. (07 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Conmutador_(dispositivo_de_red) wikipedia. (09 de abril de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Sistema_de_alimentaci%C3%B3n_ininterru mpida wikipedia. (21 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/VMware wikipedia. (2014 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Microsoft_Windows 106 wikipedia. (28 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de http://es.wikipedia.org/wiki/Router wordpress. (03 de 2013). WordPress.com. Obtenido de http://millicomune.files.wordpress.com/2013/03/i1.pdf 107 ANEXOS 108 EQUIPOS INFORMATICOS DEL CENTRO DE COMPUTO Nombre Equipo Tipo Marca Modelo Sistema Operativo Disco (GB) Procesador Memoria (MB) Dirección IP Ubicación Servicio MTCLPCC-AP Servidor IBM X Series 235 Windows Server 2003 R2 (05) discos de 36,4 GB en RAID5 + (02) Intel Xeon 3776 25.0.1.189 Sala Servidores Servidor de archivos. (8671-6AX) Enterprise Edition SP2 expansor de 400 GB E5405 de 2.6 GHz Servidor del Sistema SAGU, SIGA MEF MTCLPCC-AP05 Servidor IBM X Series 235 Linux Fedora 11 ALIA W (8671-6AX) LEONIDAS (05) discos de 36.4 en RAID 5 (02) Intel Xeon de 2.6 GHz 3024 25.0.1.192 Sala Servidores Servidor del sistema de visitas y trámite. MTCLPCC-PX01 Servidor IBM X Series 235 Debian 5.0 i686 (8671-6AX) GNU/Linux kernel 2.6.26- (05) discos de 36.4 GB en RAID 5 (02) Intel Xeon ™ de 2.66 GHz 2048 172.20.1.141 Sala Servidores Servidor de Navegación WEB, Proxy principal 1 MTCSIAF Servidor IBM X Series 235 Windows 2000 Advance (8671-6AX) SP 4 (05) discos de 36.4 GB en RAID 5 (02) Intel Xeon ™ de 2.66 GHz 1024 172.20.1.70 Sala Servidores Servidor de Aplicaciones - SIAF-SP MEF OASVMC Servidor IBM X Series 235 Windows Server 2003 (8671-6AX) Enterprise Edition SP2 (05) discos de 36.4 GB en RAID 5 (02) Intel Xeon ™ de 2.66 GHz 2048 172.20.9.218 Sala Servidores Servidor de Aplicaciones ORACLE Backup IAS MTCLPCC-BKP Servidor IBM System x3550 Windows Server 2003 (01) Quad Core Enterprise Edition SP2 (02) discos de 146 GB en RAID 1 Intel Xeon E5405 2048 25.0.1.18 Sala Servidores Consola ARC Server Backup de 2.0 GHz Aplicaciones (SPIJ), Servidor de aplicaciones y base de datos de sistemas de la DGAC: exámenes, material, t_aéreo, aplicaciones de ASTERISCO Servidor IBM Netfinity 5000 Windows NT SP-6 (02) discos de 8 GB en RAID 0 + (02) (02) Intel Pentium OGRH, aplicaciones de Oga_abast, Tesorería, (8659-41Y) discos de 36.4 GB en RAID 0 de 498 MHz 916 172.20.1.6 Sala Servidores Fuentes del Sistema Gestor. Servicio Wins Sistema de Control de Personal (desarrollado en Fox para DOS) PRUEBANT Servidor IBM Netfinity 5000 Windows NT Server 4.0 (02) discos de 8 GB en RAID 0 (01) Intel Pentium 130 172.20.1.45 Sala Servidores Servidor del sistema presupuestal S10 de la (8659-41Y) III de 500 MHz DGCyF. System x3650 Windows Server 2003 R2 (02) Dual Core MTCLPCC-AP04 Servidor IBM (7979-B1U) Enterprise Edition SP2 (02) discos de 73,4 GB en RAID 1 Intel (R) Xeon(R) 2048 172.20.1.215 Sala Servidores Servidor de aplicación. de 3.0 GHz Servidor de base de datos de aplicaciones de la (02) Quad Core DGTT MTC30 Servidor IBM System x3650 Windows Server 2003 R2 (02) discos de 300 GB en RAID 1 + (7979-B1U) Enterprise Edition SP2 (04) discos de 300 GB Intel Xeon E5405 4096 172.20.1.103 Sala Servidores de 2.0 GHz concesiones, licencias, aplicación brevete, licencias, proyecto SAD. Servidor de Base de datos DGTT (SNS-SNC), MTCLPCC-DB03 Servidor IBM System x3650 Windows Server 2003 R2 (05) discos de 300 GB en RAID 5 + (02) Quad Core (7979-B1U) Enterprise Edition SP2 (01) disco hot spare de 300GB Intel Xeon E5405 4096 25.0.1.37 Sala Servidores Base de datos del SIGA, Base de datos de 2.0 GHz GESTOR (02) Dual Core MTCLPCC-FE01 Servidor IBM System x3650 Windows Server 2003 R2 (7979-B1U) Enterprise Edition SP2 (02) discos de 73,4 GB en RAID 1 Intel (R) Xeon(R) 2048 172.20.1.114 Sala Servidores Servidor de aplicaciones web. de 3.0 GHz MTCLPCC-LN01 Servidor IBM System x3650 Windows Server 2003 (05) discos de 146 GB en RAID5 + (02) Quad Core (7979-B1U) Enterprise x64Edition SP2 (01) disco hot spare de 146 GB Intel Xeon E5405 8192 192.168.220.9 Sala Servidores Servidor IBM Lotus Domino del sistema de trámite de 2.0 GHz documentario (SID) MTCLPCC-ML05 Servidor IBM System x3650 Windows Server 2003 R2 (02) Quad Core (7979-B1U) Enterprise Edition SP2 (02) discos de 146 GB en RAID 1 Intel Xeon E5405 4096 25.0.1.10 Sala Servidores Servidor de Correo Electrónico - Exchange 2003 de 2.0 GHz MTCLPCC-ML06 Servidor IBM System x3650 Windows Server 2003 R2 (02) Quad Core (7979-B1U) Enterprise Edition SP2 (03) discos de 146 GB en RAID 5 Intel Xeon E5405 4096 25.0.1.12 Sala Servidores Servidor de Correo Electrónico - Exchange 2003 de 2.0 GHz MTCLPCC-ML07 Servidor IBM System x3650 Windows Server 2003 R2 (02) Quad Core (7979-B1U) Enterprise Edition SP2 (03) discos de 146 GB en RAID 5 Intel Xeon E5405 4096 25.0.1.13 Sala Servidores Servidor de Correo Electrónico - Exchange 2003 de 2.0 GHz 109 MTCEXCHCLUS Storage IBM DS3400 - (02) discos de 73 GB + (10) discos 25.0.1.15 TER1 de 146 GB - - Sala Servidores Storage de correo 25.0.1.11 MTCLPCC-DB04 Servidor IBM System x3650 Windows Server 2003 R2 (02) Quad Core (7979-B1U) Enterprise Edition SP2 (04) discos de 250 GB en RAID 5 Intel Xeon E5405 4096 172.20.100.100 Sala Servidores Servidor de Base de Datos Oracle Proyecto DGTT de 2.0 GHz MTCLPCC-DC01 Servidor IBM System x3650 Windows Server 2003 R2 (02) Dual Core (7979-B1U) Enterprise Edition SP2 (05) discos de 146.8 GB en RAID 5 Intel (R) Xeon(R) 8192 192.168.220.99 Sala Servidores Controlador de dominio de 3.0 GHz (01) ALPHA UXDGCT Servidor HP Alpha Server ES45 HP Ux Tru64 v. 5.1B 73 + expansor de 500GB EV6.8CB de 1.25 4096 192.168.220.88 Sala Servidores Repositorio de imágenes de licencias de conducir. GHz Servidor de aplicaciones de Licencias de Conducir MTC4 Servidor Digital BA740 Open VMS 6.2 15 + expansor de 22 GB DEC-321064 de LIRA. 275 MHz 640 172.20.1.4 Sala Servidores Infomación histórica del SIGA2003 y Sistema Personal (pensionistas) Windows Server 2003 (02) Intel (R) DBWEB Servidor Acer Altos 1200 Enterprise Edition SP 2 (06) discos de 33 GB en RAID 5 Pentium III de 1.0 1024 172.20.1.76 Sala Servidores Servidor de base de datos de aplicaciones Web GHz WEBSERVER Servidor Acer Altos 1200 Windows Server 2003 Enterprise Edition SP2 (06) Discos de 33 GB en RAID 5 (02) Intel Pentium III de 1.00 Ghz 1024 172.20.1.38 Sala Servidores Servidor Web del Portal Institucional. (02) Dual Core MTCLPCC-FL01 Servidor HP Proliant DL380 Windows Server 2003 R2 Enterprise Edition SP2 (04) discos de 300 GB en RAID 5 Intel Xeon(TM) de 2048 172.20.1.103 Sala Servidores Servidor de archivos. 3.60 GHz MTCLPCC-WM Servidor Dell Power Edge 850 Windows Server 2003 R2 (01) disco de 74,50 GB (01) Intel Pentium Oficina de Enterprise Edition SP2 IV - 2.80 GHz 2048 25.0.1.239 Operaciones y Base Consola Virtual del Blade de Datos Oficina de MTCLPCC-WM02 Servidor Dell Power Edge 850 Linux Fedora 4.0 (01) disco de 74,50 GB (01) Intel Pentium IV - 2.80 GHz 2048 172.20.3.150 Operaciones y Base virtual machine de Datos Windows Server 2003 R2 (01) Intel Pentium Oficina de MTCLPCC-DC06 Servidor Dell Power Edge 850 Enterprise Edition SP2 (01) disco de 74,50 GB IV - 2.80 GHz 2048 172.20.1.1 Operaciones y Base Controlador de dominio de Datos (01) Intel Xeon 3.4 ARGOS Servidor Dell Power Edge Red Hat Enterprise Linux 2800-ECM 3.0 230 GB GHz/2MB Cache, 4096 172.20.1.44 Sala Servidores Servidor de BD Oracle 10g de aplicaciones Xeon, 800 MHz Web de la DGAC PEGASO Servidor Dell Power Edge Red Hat Enterprise Linux 230 GB (01) Intel Xeon de 4096 172.20.1.43 Sala Servidores Servidor de BD Oracle de aplicaciones Web de la 2800-ECM 3.4 GHz DGAC (01) Quad Core MTCLPCC-WB05 Servidor Dell Power Edge Windows Server 2003 R2 2950 Enterprise Edition SP2 (02) discos de 146 GB en RAID 1 Intel Xeon E5440 4090 25.0.1.124 Sala Servidores Servidor de desarrollo web para el Sistema de 2.83 GHz Nacional de Sanciones MTCLPCC-DB05 Servidor Dell Power Edge Windows Server 2003 R2 (01) Quad Core 2950 Enterprise Edition SP2 (02) discos de 146 GB en RAID 1 Intel Xeon E5440 4090 192.168.220.99 Sala Servidores Servidor de Base de Datos. de 2.83 GHz (01) Quad Core MTCLPCC-DC07 Servidor Dell Power Edge Windows Server 2003 R2 2950 Enterprise Edition SP2 (02) discos de 146 GB en RAID 1 Intel Xeon E5440 4090 172.20.1.2 Sala Servidores Controlador de dominio de 2.83 GHz MTCCOLAS1 Servidor HP Proliant ML350 Windows Server 2003 G2 Enterprise Edition SP 1 (01) disco de 160 GB (02) Intel Xeon (TM) de 3.20 GHz 2046 172.20.10.158 Sala Servidores Servidor del sistema Bmatic (Sistema de Colas) 110 BDDGCT Servidor HP Proliant ML350 Windows Server 2003 R2 (01) disco de 72,8 GB (02) Intel Xeon 1024 172.20.8.20 Sala Servidores Servidor de base de datos de aplicaciones del Standard Edition SP2 (TM) de 3.40 GHz sistema de consulta RENIEC y Breve-t MTCGEO2 Servidor HP Proliant ML350 Windows Server 2003 (01) disco de 146 GB (01) Intel Xeon(R) Enterprise Edition SP 2 de 1.86 GHz 2046 172.20.45.147 Sala Servidores Servidor de Sistema Cartográfico ARCIMS Windows Server 2003 R2 (02) Intel Xeon ™ Servidor del Proyecto Ventanilla Única de MTCLPCC-VUCE Servidor HP Proliant ML350 Enterprise Edition SP2 (02) discos de 72,8 GB de 3.40 GHz 3584 172.20.1.165 Sala Servidores Comercio Exterior (VUCE) – SUNAT PER-ELL Servidor SUN Ultra Enterprise 450 Solaris (04) discos en total: 38,6 GB (02) 248 MHz 1024 192.168.56.7 Sala Servidores Servidor de Aplicación Ellipse. PER-ELL2 Servidor SUN Enterprise 3500 Solaris (08) discos en total: 292 GB (04) 400MHz 3072 192.168.56.20 Sala Servidores Servidor de Base de Datos Oracle de la aplicación Ellipse. (03) discos de 18,2 GB + DGTDB Servidor Compaq Alpha ES40 - Unix Tru64 (02) discos de 9,1 GB + (02) 2.66 GHZ 4096 172.25.9.243 Sala Servidores Servidor de BD y aplicaciones de VMC en línea Series EA2002 storage: (03) discos de 18,2 GB + (publicaciones web del sector comunicaciones). (02) de 9,1 GB SAVMC Servidor HP Proliant ML450 Windows Server 2003 (04) discos de 36,4 GB (02) Intel Xeon ™ Enterprise Edition SP2 de 3.06 GHz 5120 172.20.9.47 Sala Servidores Servidor de aplicaciones Oracle 10g – Sistema IAS MTCLPCC-EVA Servidor HP Proliant DL380 Windows Server 2003 (02) Intel Xeon de Standard Edition SP2 (02) discos de 36.4 GB 3.40 GHz 1024 172.25.9.25 Sala Servidores Consola de Administración de discos del EVA MTCDAT2 Servidor HP Integrity Server Windows Server 2003 for (01) Itanium de RX2620 Itanium - based system (03) discos de 73 GB 1.6 Ghz 4076 Sala Servidores VMCDB Servidor HP Integrity RX 4640 HP UX 11i (02) discos de 73 GB Itanium de 1.6 GHz 8192 172.25.9.20 Sala Servidores Servidor de base de datos Oracle Storage HP Storage Works (05) discos de 146.8 GB + Eva 8000 (A) - (02) discos de 30 GB Storage HP Storage Works - (06) discos de 146.8 GB + Eva 8000 (B) (01) disco de 300 GB Oficina de MTCLPCC-AP01 PC Advance Vission 5X55 Windows Server 2003 (02) Intel Pentium Enterprise Edition 74 GB (R) D - 3.40 GHz 998 192.168.251.11 Operaciones y Base Equipo de Ambiente desarrollo Oracle de Datos MTCLPCC-AP02 PC Advanc Vission 5X55 Windows Server 2003 (02) Intel Pentium Oficina de e Enterprise Edition SP2 74 GB (R) D - 3.40 GHz 496 192.168.251.13 Operaciones y Base Equipo de Ambiente desarrollo (Aplicaciones de de Datos Desarrollo) MTCLPCC-AP03 PC Advanc Vission 5X55 Windows Server 2003 (02) Intel Core - Oficina de e Enterprise Edition SP2 148 GB 1.8 GHz 492 172.17.60.83 Operaciones y Base Equipo de desarrollo del Sistema de Tramite de Datos Documentario MTCLPCC-AV02 PC Advanc Vission 5X55 Windows Server 2003 (02) Intel Pentium e Enterprise Edition SP2 80 GB (R) D - 3.40 GHz 2022 172.20.1.150 Sala Servidores Servidor Consola de Antivirus Estaciones MTCLPCC- (02) Intel Core Oficina de BDSIAF PC Advanc e Vission 5X55 Windows Server 2003 Enterprise Edition SP2 149 GB (TM) D - 1.80 2028 172.20.1.174 Operaciones y Base Módulo de Consulta SIAF-MEF Presupuesto GHz de Datos 111 MTCLPCC- Advanc Windows Server 2003 R2 (02) Intel Pentium Oficina de BKP01 PC e Vission 5X55 Enterprise Edition SP2 223,5 GB D de 3.4 Ghz 1024 172.17.60.135 Operaciones y Base Pc de backup de Datos MTCLPCC- Advanc Windows Server 2003 (02) Intel Pentium Oficina de Servidor de aplicaciones y base de datos de APL01 PC e Vission 5X55 Enterprise Edition SP2 74,52 GB D de 3.4 Ghz 2022 172.17.60.55 Operaciones y Base de Datos desarrollo. MTCLPCC-FL02 PC Advanc Vission 5X55 Windows Server 2003 R2 (02) Intel Core e Enterprise Edition SP2 521 GB (TM) D - 1.80 1004 172.20.1.65 Sala Servidores Servidor de archivos de la Oficina de Presupuesto GHz y Planificación. MTCLPCC- PC Advanc Vission 5X55 Windows Server 2003 R2 223 GB (02) Intel Pentium WSUS01 e Enterprise Edition SP2 (R) D - 3.40 GHz 1518 172.20.1.63 Servidor de Actualizaciones Automáticas MTCMQ PC Advanc Vission 5X55 Windows Server 2003 74 GB (02) Intel Pentium 998 192.168.220.71 Sala Servidores Aplicación MQSeries de consulta en línea con la e Enterprise Edition SP2 (R) D - 3.40 GHz RENIEC MTCMQ2 PC Advanc Vission 5X55 Windows Server 2003 74 GB (02) Intel Pentium e Enterprise Edition (R) D - 3.40 GHz 1006 172.20.1.78 Sala Servidores Aplicación MQSeries de interconexión con el Banco de la Nación Advanc Windows Server 2003 R2 (02) Intel Pentium Oficina de Servidor de aplicaciones y base de datos de MTCPRUEBA PC e Vission 5X55 Enterprise Edition SP2 149 GB D de 3.4 Ghz 998 172.17.60.248 Operaciones y Base de Datos desarrollo. Windows 2000 (01) Intel Pentium Oficina de AMANTARI PC Compaq D530 CMT Professional 111,78 GB IV - 2.80 GHz 1016 172.17.60.252 Operaciones y Base Pc de backup de Datos Windows Server 2003 R2 (02) discos de 298 GB FILESERVER PC Compaq D530 CMT Enterprise Edition SP2 (01) disco de 111 GB (01) Intel Pentium IV - 2.80 GHz 760 172.20.9.8 Sala Servidores Servidor de archivos. (01) disco de 37.27 GB Oficina de MTCLPCC-AV01 PC Compaq D530 CMT Windows Server 2003 (01) Intel Pentium Enterprise Edition SP2 37,26 GB IV - 2.8 GHz 3808 172.20.202.150 Operaciones y Base Equipo de Consola de Antivirus para Servidores de Datos MTCLPCC-BD03 PC Compaq D530 CMT Windows Server 2003 R2 111,78 GB (01) Intel Pentium Enterprise Edition SP2 IV de 2.80 Ghz 888 172.25.1.114 Sala Servidores Pc de repositorio. MTCLPCC- PC Compaq D530 CMT Windows Server 2003 R2 (02) discos de 111 (01) Intel Pentium DES01 Enterprise Edition SP2 IV - 2.8 GHz 2040 192.168.251.14 Sala Servidores Pc de desarrollo. Debian 5.0 i686 (01) Intel(R) MTCLPCC-IP01 PC Compaq D530 CMT GNU/Linux kernel 2.6.26- 40 GB Pentium(R) 4 CPU 512 25.0.1.101 Sala Servidores Servidor Principal DHCP 1 2.80GHz MTCLPCC-LIC01 PC Compaq D530 CMT Windows Server 2003 186 GB (01) Intel Pentium Oficina de Enterprise Edition SP2 IV de 2.80 Ghz 1144 172.20.1.53 Operaciones y Base Servidor del licenciamiento de software autocad de Datos Microsoft Windows Server MTCSQLDESA PC Compaq D530 CMT 2003 R2 Enterprise 186 GB (01) Intel Pentium IV de 2.80 Ghz 2040 172.20.1.158 Sala Servidores Equipo de Base de Datos Desarrollo Edition SP1 MTCTTA PC Compaq D530 CMT Windows 2000 Advanced Server SP4 37 GB (01) Intel Pentium IV de 2.80 Ghz 1528 172.20.1.145 Sala Servidores Servidor Terminal Service Tarantella 112 VMCDESA PC Compaq D530 CMT Windows Server 2003 (01) Intel Pentium Enterprise Edition SP2 90 GB IV - 2.8 GHz 504 192.168.251.12 Sala Servidores Servidor de desarrollo Oracle 10g Microsoft Windows Server AIDGCT PC Acer VT5200D 2003 Enterprise Editon 37 GB (01) Intel Pentium 1024 192.168.220.20IV de 1.70 GHz 0 Sala Servidores Terminal service de la DGTT SP 1 MTCGEO PC Acer VT5200D Windows Server 2003 37 GB (01) Intel Pentium 1024 172.20.1.105 Sala Servidores Equipo de aplicaciones ArcGIS ArcIMS (software Enterprise Edition SP1 IV de 1.70 GHz web cartográfico) SQLBDDGCT PC Acer VT5200D Windows 2000 Advanced 74 GB (01) Intel Pentium Server SP4 IV de 1.70 Ghz 1024 172.20.5.26 Sala Servidores Servidor de Base de Datos SQL 2000 de la DGTT y Sistema FiscaTran VIRTUALDGCT PC Acer VT5200D Linux Fedora 4.0 37 GB (02) Intel Pentium IV - 1.7 GHz 1024 192.168.10.14 Sala Servidores Sistema de enseñanza virtual (e-learning) WEBTEMP PC Acer VT5200D Windows Server 2003 (01) Intel Pentium Enterprise Edition SP2 111 GB IV de 1.70 Ghz 1024 172.20.1.48 Sala Servidores Servidor Web de Producción y Desarrollo. MTCSOPORTE PC Compati - Windows Server 2003 111 GB (01) Intel Pentium ble Enterprise Edition SP2 IV de 3.0 Ghz 494 172.20.1.66 Sala Servidores Equipo del sistema HELPDESK 113 Inventario de Equipos de Red INVENTARIO EQUIPOS DE COMUNICACIONES ADMINISTRABLES ITEM Tipo Función equipo Marca Edificio Piso Gabinete Modelo S/N Estado 1 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187190 Instalado 2 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153689 Instalado 3 Switch Switch de Acceso Juniper PRINCIPAL 1 1 EX2200-48T-4G CU0211246047 Instalado 4 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187236 Instalado 5 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X42E Instalado 6 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187261 Instalado 7 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153889 Instalado 8 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2950G-24-EI FOC0946Z52D Instalado 9 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960-24TT-L FOC1409X117 Instalado 2 10 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253873 Instalado 11 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C3560-24PS-S CAT1107ZK1A Instalado 12 Switch Switch de Core Cisco PRINCIPAL 2 WS-4507R FOX081001R1 Instalado 13 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960-48PST-S FOC1428W6PA Instalado 14 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153743 Instalado 15 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2950G-48-EI FOC0814X3SE Instalado 16 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C3560-24PS-S CAT0948Z0BJ Instalado 17 Switch Switch de Acceso Cisco PRINCIPAL 3 1 WS-C3560-24PS-S CAT1107ZJY4 Instalado 18 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C3560-24TS-S FD01207Y0D9 Instalado 19 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2950G-24-EI FOC0945Y48H Instalado 20 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960-48PST-S FOC1428W6MG Instalado 114 21 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153900 Instalado 22 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253830 Instalado 23 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2950T-24 FOC0921Y1K5 Instalado 24 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2950G-24-EI FOC0946Z4SH Instalado 25 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C3560-24PS-S CAT1107ZJWQ Instalado 26 Switch Switch de Acceso Cisco PRINCIPAL 4 1 WS-C2950G-24-EI FOC0946Z5JY Instalado 27 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960-24TT-L FOC1234V50X Instalado 28 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2950T-24 FOC0920Y2QB Instalado 29 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960-48TT-L FOC1351Y1QH Instalado 30 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960-24PC-L FOC1427Z4G2 Instalado 31 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960S-48FPS-L FOC1421Z3ZB Instalado 32 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0210179720 Instalado 33 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211246094 Instalado 34 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153745 Instalado 35 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187173 Instalado 5 36 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187262 Instalado 37 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187216 Instalado 38 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246127 Instalado 39 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960S-48FPS-L FOC1725X413 Instalado 40 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253941 Instalado 41 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246159 Instalado 42 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253863 Instalado 6 43 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211187189 Instalado 44 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246088 Instalado 45 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246156 Instalado 115 46 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253923 Instalado 47 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X420 Instalado 48 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211246058 Instalado 49 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253852 Instalado 50 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211137692 Instalado 51 Switch Switch de Acceso Juniper PRINCIPAL 7 1 EX2200-48T-4G CU0211246118 Instalado 52 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211246137 Instalado 53 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153901 Instalado 54 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X436 Instalado 55 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0210229470 Instalado 56 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253846 Instalado 57 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253880 Instalado 58 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246107 Instalado 59 Switch Switch de Acceso Juniper PRINCIPAL 8 2 EX2200-48T-4G CU0211187133 Instalado 60 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211238244 Instalado 61 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211153893 Instalado 62 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253943 Instalado 63 Switch Switch de Acceso Juniper PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X43C Instalado 64 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211187254 Instalado 65 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253838 Instalado 66 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246085 Instalado 67 Switch Switch de Acceso Juniper PRINCIPAL 9 2 EX2200-48T-4G CU0211246043 Instalado 68 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211187131 Instalado 69 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0210127497 Instalado 70 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211115839 Instalado 116 71 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253912 Instalado 72 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253975 Instalado 73 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246119 Instalado 74 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253853 Instalado 75 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246029 Instalado 76 Switch Switch de Acceso Juniper PRINCIPAL 10 2 EX2200-48T-4G CU0211072408 Instalado 77 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253925 Instalado 78 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253915 Instalado 79 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0210107182 Instalado 80 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211246170 Instalado 81 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X42U Instalado 82 Switch Switch de Distribución Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246092 Instalado 83 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246098 Instalado 84 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211253967 Instalado 85 Switch Switch de Acceso Juniper PRINCIPAL 11 2 EX2200-48T-4G CU0211253965 Instalado 86 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-24P-4G CV0211207011 Instalado 87 Switch Switch de Acceso Juniper PRINCIPAL 2 EX2200-48T-4G CU0211246109 Instalado 88 Switch Switch de Acceso Cisco PRINCIPAL 2 WS-C2960S-48FPS-L FOC1725X415 Instalado 89 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153833 Instalado 90 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153674 Instalado 91 Switch Switch de Acceso Juniper PRINCIPAL 12 1 EX2200-48T-4G CU0211246018 Instalado 92 Switch Switch de Acceso Cisco PRINCIPAL 1 WS-C2960S-48FPS-L FOC1725X438 Instalado 93 Router Router Perimétrico Cisco PRINCIPAL 1 1800 JAC0418AZGU Instalado 94 Switch Switch de Acceso Juniper CIRCULAR 1 EX2200-48T-4G CU0211240628 Instalado 1 95 Switch Switch de Acceso Juniper CIRCULAR 1 EX2200-48T-4G CU0211246095 Instalado 117 96 Switch Switch de Acceso Cisco CIRCULAR 1 WS-C2960S-48FPS-L FOC1725X425 Instalado 97 Switch Switch de Acceso Juniper CIRCULAR 1 EX2200-48T-4G CU0211253899 Instalado 98 Switch Switch de Acceso Juniper CIRCULAR 3 1 EX2200-48T-4G CU0211246025 Instalado 99 Switch Switch de Acceso Cisco CIRCULAR 1 WS-C2960S-48FPS-L FOC1725X3ZQ Instalado 100 Switch Switch de Servidores Juniper INFORMATICA 1 EX2200-48T-4G CU0211253872 Instalado 101 Switch Switch de Servidores Juniper INFORMATICA 1 EX2200-48T-4G CU0211253902 Instalado 102 Switch Switch de Servidores Juniper INFORMATICA EX2200-48T-4G CU0211153741 Instalado 103 Switch Switch de Servidores Juniper INFORMATICA EX2200-48T-4G CU0211253872 Instalado 104 Switch Switch de Servidores Cisco INFORMATICA pvn WS-C3750G-24PS-S FOC0948Y0FB Instalado 105 Switch Switch de Servidores Cisco INFORMATICA pvn WS-C2960-24TT-L FOC1146Z7G8 Instalado 106 Switch Switch de Servidores Cisco INFORMATICA pvn WS-C2960-24TT-L FOC1234U2FD Instalado 107 Switch Switch de Servidores Juniper INFORMATICA pvn EX2200-48T-4G CU0211187226 Instalado 108 Switch Switch de Acceso Internet Juniper INFORMATICA EX2200-48T-4G CU0211253968 Instalado 109 Switch Switch de Equipos Seg. Perimétrica Juniper INFORMATICA EX2200-48T-4G CU0211246087 Instalado 110 Switch Switch de Equipos Seg. 1 Perimétrica Juniper INFORMATICA EX2200-48T-4G CU0211246123 Instalado 111 Switch Switch de Telefonía Juniper INFORMATICA Telefonía EX2200-48T-4G CU0211153894 Instalado 112 Switch Switch de Telefonía Juniper INFORMATICA Telefonía EX2200-48T-4G CU0211187206 Instalado 113 Firewall Firewall Acceso VPN - PVN Cisco INFORMATICA 1 ASA5510 JMX0951K074 Instalado 114 Firewall Firewall Acceso VPN - PVN Cisco INFORMATICA 1 ASA5510 JMX0951K08H Instalado 115 Switch Switch de Core Cisco INFORMATICA 2 WS-4507R FOX081001T8 Instalado 116 Firewall Firewall Acceso VPN - STCTLC Sonicwall INFORMATICA 2 SonicWall PRO 5060 0006B1130A6A Instalado 117 Firewall Firewall Acceso VPN - STCTLC Sonicwall INFORMATICA 2 SonicWall PRO 5060 0006B1130A04 Instalado 118 Switch Switch de Acceso Cisco INFORMATICA 2 WS-C2960-24TT-L FOC1146Z7G1 Instalado 119 Switch Switch de Distribución Juniper INFORMATICA 3 EX2200-48T-4G CU0211153615 Instalado 118 120 Switch Switch de Acceso Juniper INFORMATICA 3 EX2200-48T-4G CU0211240623 Instalado 121 Switch Switch de Acceso Juniper INFORMATICA 3 EX2200-48T-4G CU0211246016 Instalado 122 Switch Switch de Acceso Juniper INFORMATICA 3 EX2200-48T-4G CU0211253991 Instalado 123 Switch Switch de Acceso Juniper INFORMATICA 3 EX2200-48T-4G CU0211246112 instalado 124 Switch Switch de Acceso Cisco INFORMATICA 3 WS-C2960S-48FPS-L FOC1725X427 Instalado 125 Switch Switch de Acceso Juniper INFORMATICA 4 EX2200-48T-4G CU0211153882 Instalado 126 Appliance Monitoreo Enlaces BlueCoat INFORMATICA 5 Packet Shaper 3500 135-10010350 Instalado 127 Appliance Monitoreo Enlaces Packeteer INFORMATICA 5 Packet Shaper 2500 025-10041909 no instalado 128 Appliance Monitoreo Enlaces Packeteer INFORMATICA 5 Packet Shaper 2500 025-10041925 Instalado 129 Switch Switch de Core Juniper INFORMATICA 1 2 EX8208 CA1710160360 Instalado 130 Switch Switch de Core Juniper INFORMATICA 1 3 EX8208 CA1710140323 Instalado 131 NSM Consola de Administración Juniper INFORMATICA 1 3 NS-SM-A2-BSE 0213022011200095 no instalado 132 UAC Unifed Access Control Juniper INFORMATICA 1 2 IC4500 236122010000075 no instalado 133 Switch Switch de Acceso Juniper ATENCION CIUDADANO(Oficinas) 1 EX2200-48T-4G CU0211137653 Instalado 134 Switch Switch de Acceso Juniper ATENCION CIUDADANO(Oficinas) 1 1 EX2200-48T-4G CU0211153700 Instalado 135 Switch Switch de Acceso Juniper ATENCION CIUDADANO(Plataforma) 1 EX2200-48T-4G CU0211246053 Instalado 136 Switch Switch de Acceso Juniper EM. FITEL 1 1 EX2200-48T-4G CU0211246138 Instalado 137 Switch Switch de Acceso Juniper EM. FITEL 1 1 EX2200-48T-4G CU0211187193 Instalado 138 Switch Switch de Acceso Juniper EM. ALMACEN PROVIAS 1 EX2200-48T-4G CU0211137583 Instalado 139 Switch Switch de Acceso Juniper EM. POOL DE CHOFERES 1 EX2200-48T-4G CU0211253918 Instalado 140 Switch Switch de Acceso Juniper EM. OFICINA SILSA 1 EX2200-48T-4G CU0210405023 Instalado 1 141 Switch Switch de Acceso Juniper EM. CENTRO MEDICO (TOPICO) 1 EX2200-48T-4G CU0211253864 Instalado 142 Switch Switch de Acceso Cisco EM. PVN ZONAL LIMA 1 WS-C3560-24PS-S CAT0948R0DV Instalado 143 Switch Switch de Acceso Cisco INFORMATICA (Centro de Computo) 1 WS-C3560-24PS-S CAT1107ZK1B Instalado 119 144 Switch Switch de Acceso Juniper EM. COMEDOR GENERAL 1 EX2200-48T-4G CU0211246110 Instalado 145 Switch Switch de Acceso Cisco EM. DGTT 1 WS-C2960-24TT-L FOC1235V1VJ Instalado 146 Fuente Energía Fuente Energía Cisco INFORMATICA 1 ALMACEN C.C PWR-RPS2300 FDO120356ML no instalado 147 Fuente Energía Fuente Energía Cisco INFORMATICA 1 ALMACEN C.C PWR-RPS2300 FDO120356MG no instalado 148 Fuente Energía Fuente Energía Cisco INFORMATICA 1 ALMACEN C.C CEK-PWR-750WAC DTN1204E0T7 no instalado 149 Fuente Energía Fuente Energía Cisco INFORMATICA 1 ALMACEN C.C CEK-PWR-750WAC DTN1204E0U5 no instalado 150 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1146Z7GC Instalado 151 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1230X78T Instalado 152 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1043Z33Z Instalado 153 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1146Z7UB Instalado 154 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1149X3AL Instalado 155 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1235V1UZ Instalado 156 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1149X2HE Instalado 157 Switch Switch de Acceso Cisco INFORMATICA C. TEMPORAL WS-C2960-24TT-L FOC1235V1UY Instalado 158 Switch Switch de Acceso Cisco INFORMATICA C. TEMPORAL WS-C2960-24TT-L FOC1235V201 Instalado 159 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1235V1ZR Instalado 160 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C3560-24PS-S CAT1039RLVU Instalado 161 Switch Switch de Acceso Cisco EM. ARCHIVO CENTRAL C. TEMPORAL WS-C2960-24TT-L FOC1230X6G7 Instalado 162 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1146Z7FH Instalado 163 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1235V1ZZ Instalado 164 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1235V1VZ Instalado 165 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1230X795 Instalado 120 166 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1234V51Y Instalado 167 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1146Z7HL Instalado 168 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1230X6VK Instalado 169 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1234V4VD Instalado 170 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1234V52W Instalado 171 Switch Switch de Acceso Cisco INFORMATICA C. TEMPORAL WS-C2960-24TT-L FOC1230X6TG Instalado 172 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1235V1VS Instalado 173 Switch Switch de Acceso Cisco PRINCIPAL C. TEMPORAL WS-C2960-24TT-L FOC1234V520 Instalado 174 Router Router Perimétrico cisco CHACRA RIOS (A.ORREGO) 1841 FTX1151200X Instalado 175 Switch Switch de Acceso Juniper CHACRA RIOS (A.ORREGO) EX2200-48T-4G CU0211253842 Instalado 176 Switch Switch de Acceso Juniper CHACRA RIOS (A.ORREGO) EX2200-48T-4G CU0211246082 Instalado 177 Switch Switch de Acceso Juniper CHACRA RIOS (A.ORREGO) EX2200-48T-4G CU0210127420 Instalado 178 Switch Switch de Acceso Juniper CHACRA RIOS (A.ORREGO) EX2200-48T-4G CU0211253926 Instalado 179 Switch Switch de Acceso Cisco CHACRA RIOS (A.ORREGO) WS-C2960-24TT-L FOC1052Z6HE Instalado 180 Switch Switch de Acceso Cisco CHACRA RIOS (C.ESPARCIMIENTO) WS-C2960-24TT-L FOC1235V1ZT Instalado 181 Switch Switch de Acceso Cisco CHACRA RIOS (FITEL / TELECOMUNICACIONES) WS-C2960-24TT-L FOC1235V1U0 Instalado 182 Switch Switch de Acceso Juniper CHACRA RIOS (A.ORREGO) EX2200-48T-4G CU0211253917 Instalado 183 Switch Switch de Acceso Cisco CHACRA RIOS (C.ESPARCIMIENTO) WS-C2960-24TT-L FOC1235V1ZS Instalado 184 Switch Switch de Acceso Cisco CHACRA RIOS WS-C2960S-48FPS-(A.ORREGO) L FOC1725X43Q Instalado 185 Switch Switch de Acceso Cisco ZONAL CONCHAN WS-C2960-24TT-L FOC1235V1V4 Instalado 186 Switch Switch de Acceso Cisco ZONAL STCNSV WS-C2960-48TT-L FOC1427V51T Instalado 187 Switch Switch de Acceso Juniper ZONAL STCTLC EX2200-48T-4G CU0211246036 Instalado 121 188 Switch Switch de Acceso Juniper ZONAL STCTLC EX2200-48T-4G CU0211253931 Instalado 189 Switch Switch de Acceso Cisco ZONAL STCTLC C. TEMPORAL WS-C2960-24TT-L FOC1234V4YT Instalado 190 Switch Switch de Acceso Cisco ZONAL PICHIS WS-C2960-48TT-L FOC1406Y5AG Instalado 191 Switch Switch de Acceso Juniper ZONAL PICHIS EX2200-48T-4G CU0211246080 Instalado 192 DELLFORCE 10 MXL DELL INFORMATICA 193 DELLFORCE 10 MXL DELL INFORMATICA Switch Blade1 194 PowerConnect M6220 DELL INFORMATICA 195 PowerConnect M6220 DELL INFORMATICA 196 DELLFORCE 10 MXL DELL INFORMATICA 197 DELLFORCE 10 MXL DELL INFORMATICA Switch Blade2 198 PowerConnect M6220 DELL INFORMATICA 199 PowerConnect M6220 DELL INFORMATICA 122 Inventario de Aplicaciones LISTADO LIDERES USUARIOS POR SISTEMAS Y/O APLICACIONES MTC CRITERIOS Y CATEGORIAS SISTEMAS AREA USUARIA DESARROLLO INFRAESTRUCTURA SEGURIDAD Area que Servidor Sistema y/o administra el Responsable Lenguaje de de Servidor de Base Lider Usuario Dirección a la que Director/Direct CRITERIOS- CRITICIDAD CRITERIOS- CRITERIOS- Aplicación Módulo Sistema Desarrollo programación Aplicaci de Datos Pertenece or General CATEGORIA DISPONIBILIDAD CRITICIDAD CLASIFICACIO RIESGOS ones N DE ACTIVOS CONFIDENCIA SISTEMA LIDAD- INTEGRADO DE PRESUPUES Todas las Chinchay Power Builder MTCLPC MTCLPC FERNANDO JESUS HERNAN Relativamente Relativamente INTEGRIDAD- GESTION TO Direcciones Bohorquez FINANZAS BURGA PREMIUM PREMIUM SIN RIESGOS ADMINISTRATIVA Generales del MTC Humberto 10.2 C-AP07 C-DB01 MATEO YATACO RAMIREZ Crítica Crítica DISPONIBILIDAD Y PRIVACIDAD 123 CONFIDENCIA SISTEMA INTEGRADO DE Todas las Chinchay LIDAD- LOGISTICA Direcciones Bohorquez Power Builder MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-GESTION Generales del MTC Humberto 10.2 C-AP07 C-DB01 PREMIUM Crítica PREMIUM Crítica DISPONIBILID ADMINISTRATIVA AD Y PRIVACIDAD CONFIDENCIA SISTEMA LIDAD- INTEGRADO DE CONTABILI Chinchay Oficina de Finanzas Bohorquez Power Builder MTCLPC MTCLPC FERNANDO JESUS HERNAN GESTION DAD 10.2 C-AP07 C-DB01 MATEO YATACO FINANZAS BURGA PREMIUM Relativamente Crítica PREMIUM Relativamente INTEGRIDAD- Crítica DISPONIBILID BAJO ADMINISTRATIVA Humberto RAMIREZ AD Y PRIVACIDAD CONFIDENCIA SISTEMA LIDAD- INTEGRADO DE Chinchay JESUS HERNAN TESORERIA Oficina de Finanzas Bohorquez Power Builder MTCLPC MTCLPC FERNANDO INTEGRIDAD-GESTION 10.2 C-AP07 C-DB01 MATEO YATACO FINANZAS BURGA PREMIUM Muy Critica PREMIUM Muy Critica DISPONIBILID MEDIO ADMINISTRATIVA Humberto RAMIREZ AD Y PRIVACIDAD CONFIDENCIA SISTEMA INTEGRADO DE PATRIMONI Todas las Chinchay SERGIO JEAN JESUS HERNAN LIDAD- GESTION O Direcciones Bohorquez Power Builder MTCLPC MTCLPC 10.2 C-AP07 C-DB01 FRANKO PATRIMONIO BURGA PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- DISPONIBILID BAJO ADMINISTRATIVA Generales del MTC Humberto ROMERO LOYOLA RAMIREZ AD Y PRIVACIDAD 124 CONFIDENCIA SISTEMA INTEGRADO DE Todas las Chinchay VILMA JESUS HERNAN LIDAD- GESTION PERSONAL Direcciones Bohorquez Power Builder MTCLPC MTCLPC INTEGRIDAD- Generales del MTC Humberto 10.2 C-AP07 C-DB01 PRIETO/ALEJAND PERSONAL BURGA PREMIUM Muy Critica PREMIUM Muy Critica SIN RIESGOS ADMINISTRATIVA RO GONZALES RAMIREZ DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Sistema de Control registro, abarca a todo el Cortijo Arbulu Visual Studio MTCLPC MTCLPC VILMA JESUS HERNAN LIDAD- y Asistencia de control y Personal que Rafael .NET 2005 C# C-WB01 C-DB01 PRIETO/ALEJAND PERSONAL BURGA NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- DISPONIBILID BAJO Personal - SICAP reportes laboral en el MTC RO GONZALES RAMIREZ AD Y PRIVACIDAD SUTRAN, Entidades GESTION Y Complemenctarias EMISION (Centros Medicos y DE Centro Examenes), CONFIDENCIA Sistema Nacional LICENCIAS Gobiernos Huamani LIDAD- de Conductores - DE Regionales Echevarria Visual Studio MTCLPC MTCLPC INTEGRIDAD- SNC CONDUCIR Dirección General Carlos 2005 C-WB05 C-DB03 PREMIUM Muy Critica PREMIUM Muy Critica DISPONIBILID TRANSPOR de Transporte AD Y TE Terrestre (MTC), PRIVACIDAD TERRESTRE PNP, Municipalidades Provinciales CONFIDENCIA Sistema Nacional Público en General LIDAD- de Conductores - TRAMITES y Dirección General Huamani Echevarria Visual Studio MTCLPC MTCLPCEN LINEA de Transporte 2005 C-WB05 C-DB03 PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- SNC Carlos DISPONIBILIDTerrestre (MTC) AD Y PRIVACIDAD 125 SUTRAN, Entidades GESTION Complemenctarias PROCESO (Centros Medicos y SANCIONA Centro Examenes), CONFIDENCIA DOR- Gobiernos LIDAD- Sistema Nacional SUPERINTE Regionales Huamani Visual Studio MTCLPC MTCLPC INTEGRIDAD- de Sanciones - SNS NDENCIA Dirección General Echevarria Carlos 2005 C-WB05 C-DB03 PREMIUM Muy Critica PREMIUM Muy Critica DISPONIBILID DE de Transporte AD Y TRANSPOR Terrestre (MTC), PRIVACIDAD TE PNP, TERRESTRE Municipalidades Provinciales SISTEMA CONFIDENCIA INTEGRADO DE Módulo de OTI y Dirección LIDAD- REGISTRO DE administrac General de Huamani Visual Studio MTCLPC MTCLPC INTEGRIDAD- TRANSPORTE ión y Transporte Echevarria Carlos 2005 C-WB05 C-DB03 NORMAL Muy Critica NORMAL Muy Critica DISPONIBILID TERRESTRE seguridad Terrestre (MTC) AD Y PRIVACIDAD Registro Nacional CONFIDENCIA de autorizaciones Registro y Dirección General Huamani LIDAD- para las entidades autorizacio de Transporte Echevarria Visual Studio MTCLPC MTCLPC2005 C-WB05 C-DB03 NORMAL Importante NORMAL Importante INTEGRIDAD- complementarias - nes Terrestre (MTC) Carlos DISPONIBILID RAEC AD Y PRIVACIDAD 126 consulta por CONFIDENCIA Sistema de licencias acumulació Huamani LIDAD- de conducir por n de Público en general Echevarria Visual Studio MTCLPC MTCLPC2005 C-WB05 C-DB03 NORMAL Relativamente Relativamente INTEGRIDAD- puntos - SLCP puntos por Carlos Crítica NORMAL Crítica DISPONIBILID infraccione AD Y s PRIVACIDAD Matricula en línea CONFIDENCIA de cursos y registro Huamani LIDAD- jornadas para cursos y Público en general Echevarria Visual Studio MTCLPC2005 C-WB05 VMCDB NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- reducir puntos - jornadas Carlos DISPONIBILID MCJRP AD Y PRIVACIDAD CONFIDENCIA Sistema de LIDAD- Papeletas para registro de Huamani papeletas Publico en general Echevarria Visual Studio MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD- peatones -SPP Carlos 2005 C-WB05 C-DB03 NORMAL Crítica NORMAL Crítica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Matricula en cursos LIDAD- de seguridad vial registro de Huamani para peatones - matricula Publico en general Echevarria Visual Studio MTCLPC Relativamente Relativamente INTEGRIDAD- Carlos 2005 C-WB05 VMCDB NORMAL Crítica NORMAL Crítica DISPONIBILID MCSVP AD Y PRIVACIDAD 127 SUTRAN, Transportistas CONFIDENCIA Registro Nacional Pasajeros, Huamani LIDAD-de Nomina de consulta Transportistas Conductores - nomina Mercancías y Echevarria Visual Studio MTCLPC 2005 C-FE01 VMCDB PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- Carlos DISPONIBILID RNNC Dirección General AD Y de Transporte PRIVACIDAD Terrestre (MTC) SUTRAN, Centros de capacitacion, CONFIDENCIA Registro Nacional consulta conductore Escuelas de Huamani LIDAD- de Capacitación de s conductores y Echevarria Viasual Estudio MTCLPC 2005 C-FE01 VMCDB PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- Conductores- RNCC Dirección General Carlos DISPONIBILID capacitados de Transporte AD Y Terrestre (MTC) PRIVACIDAD CONFIDENCIA LIDAD- Sistema Inteligente gestion y Huamani de Monitoreo- SIM seguimient Inspectores de Echevarria Visual Studio MTCLPC MTCLPC INTEGRIDAD- o DGTT Carlos 2005 C-FE01 C-DB03 SILVER Muy Critica SILVER Muy Critica DISPONIBILID AD Y PRIVACIDAD SUTRAN, Centros de CONFIDENCIA Registro de Inspección, Huamani LIDAD- Inspecciones registro Inspectores de Echevarria Viasual Estudio MTCLPC MTCLPC NORMAL Relativamente NORMAL Relativamente INTEGRIDAD- Tecnicas -CITV CITV DGTT y Usuarios Carlos 2005 C-WB05 C-DB03 Crítica Crítica DISPONIBILID Lima y Regiones AD Y PRIVACIDAD 128 Municipalidades Provinciales, Dirección General CONFIDENCIA Registro Vehícular - registro de Transporte Huamani LIDAD- SUNARP vehicular Terrestre (MTC), Echevarria Viasual Estudio WEBSER MTCLPC 2005 VER C-DB03 NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- Usuarios Lima y Carlos DISPONIBILID Regiones, AD Y Inspectores de PRIVACIDAD DGTT CONFIDENCIA Proceso de emision consultas Dirección General LIDAD- de la placa única placas de Transporte Huamani Echevarria Viasual Estudio WEBSER MTCLPC SILVER Relativamente SILVER Relativamente INTEGRIDAD- PLACA-UNICA emitidas Terrestre (MTC), Carlos 2005 VER C-DB03 Crítica Crítica DISPONIBILIDAAP, SUNARP AD Y PRIVACIDAD CONFIDENCIA Sistema de SUTRAN, Usuarios Huamani LIDAD-informacion consultas DGTT, Usuarios Echevarria Viasual Estudio NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-Gerencial indicadores Regiones, Alta Carlos 2005 Crítica Crítica DISPONIBILID trasnporte terrestre Dirección AD Y PRIVACIDAD CONFIDENCIA LIDAD- Sistema de Cuentas gestion de SUTRAN y Finanzas Huamani Viasual Estudio por Cobrar cuentas (MTC) Echevarria 2005 SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- Carlos DISPONIBILID AD Y PRIVACIDAD 129 CONFIDENCIA Sistema de cobro gestion Huamani LIDAD- de detracciones - detraccione Concesionarias de Echevarria Viasual Estudio WEBSERtransporte 2005 VER MTC30 NORMAL NORMAL INTEGRIDAD- SCD s Carlos DISPONIBILID AD Y PRIVACIDAD Transportistas Pasajeros, CONFIDENCIALIDAD- Hoja de Ruta (en registro y Dirección General Huamani proyecto) -HRUTA control de Transporte Echevarria Visual Studio ******* INTEGRIDAD- Terrestre (MTC), Carlos 2005 * DISPONIBILID Inspectores de AD Y DGTT PRIVACIDAD Transportistas Pasajeros, CONFIDENCIA Manifiesto de registro y Dirección General Huamani LIDAD- pasajeros (en Visual Studio ******* ******* INTEGRIDAD- proyecto)- MP control de Transporte Echevarria Terrestre (MTC), Carlos 2005 * * DISPONIBILID Inspectores de AD Y DGTT PRIVACIDAD Transportistas Registro de Nomina Pasajeros, CONFIDENCIA LIDAD- de Conductores y registro y Dirección General Huamani Tripulantes control de Transporte Echevarria Visual Studio ******* ******* 2005 * * PREMIUM PREMIUM INTEGRIDAD- DISPONIBILID Terrestres -MP Terrestre (MTC), Carlos Inspectores de AD Y DGTT PRIVACIDAD 130 Transportistas Registro de Pasajeros, CONFIDENCIA LIDAD- Contratos con registro y Dirección General Huamani Terminales control de Transporte Echevarria Visual Studio ******* ******* 2005 * * NORMAL NORMAL INTEGRIDAD- Terrestre (MTC), Carlos DISPONIBILID Terrestres -RCTT Inspectores de AD Y DGTT PRIVACIDAD Registro Nacional de Transporte Dirección General CONFIDENCIA Terrestre de de Transporte LIDAD- Mercancías y registro y Terrestre (MTC), Huamani Visual Studio ******* ******* control Gobiernos Echevarria 2005 * * PREMIUM PREMIUM INTEGRIDAD- Materiales y Carlos DISPONIBILID Residuos Peligrosos Regionales y Público AD Y -RENAC V1 en general PRIVACIDAD Registro Nacional CONFIDENCIA de Transporte registro y Huamani LIDAD- Terrestre de Echevarria Visual Studio ******* ******* INTEGRIDAD- Personas -RENAC control Carlos 2005 * * PREMIUM PREMIUM DISPONIBILID V2 AD Y PRIVACIDAD SUTRAN, Dirección Trámites en línea General de CONFIDENCIA de DSTT Transporte Huamani LIDAD- autorizaciones y registro y control Terrestre (MTC), Echevarria Visual Studio ******* ******* INTEGRIDAD- habilitaciones - Público en general Y Carlos 2005 * * DISPONIBILID TRALIN Usuarios miembros AD Y CNSV PRIVACIDAD 131 SUTRAN, Dirección CONFIDENCIA 2da Versión SIIGAT, General de informacion con Transporte Huamani LIDAD- consultas Terrestre (MTC), Echevarria Visual Studio ******* *******gráficos estadísticos 2005 * * INTEGRIDAD- DISPONIBILID -SIIGAT Público en general Y Carlos Usuarios miembros AD Y CNSV PRIVACIDAD 3ra Versión SIIGAT, SUTRAN, Dirección General de CONFIDENCIAinformación con LIDAD- graficos estadísticos Transporte Huamani e informacion consultas Terrestre (MTC), Echevarria Visual Studio ******* ******* INTEGRIDAD- Público en general Y Carlos 2005 * * DISPONIBILID georeferenciada Usuarios miembros AD Y SIIGAT CNSV PRIVACIDAD CONFIDENCIA Georeferenciación Huamani LIDAD- de las rutas de consultas Echevarria Visual Studio ******* ******* INTEGRIDAD- transporte Carlos 2005 * * DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Automatizacion de Huamani LIDAD- los exámenes de examenes Conductores Echevarria Visual Studio ******* ******* INTEGRIDAD- tránsito Carlos 2005 * * DISPONIBILIDAD Y PRIVACIDAD 132 Registro CONFIDENCIA Internacional de Huamani LIDAD-Transporte registro y Echevarria Visual Studio ******* ******* INTEGRIDAD-Terrestre de control Carlos 2005 * * DISPONIBILID Mercancias y AD Y Personas PRIVACIDAD CONFIDENCIA Registro Nacional de Conductores registro y Dirección General Huamani LIDAD- INTEGRIDAD- CONTROLCONDUCT control de Transporte Echevarria Visual Basic 6.0 MTC30 NORMAL NORMAL OR Terrestre (MTC) Carlos DISPONIBILID AD Y PRIVACIDAD Registro Nacional SUTRAN, Dirección CONFIDENCIA General de Huamani LIDAD-de Transporte registro y INTEGRIDAD- Terrestre de control Transporte Echevarria Visual Basic 6.0 MTC30 DISPONIBILID Pasajeros- RNTTP Terrestre (MTC), Carlos Público en general AD Y PRIVACIDAD CONFIDENCIA Emision de Tarjeta Inspectores de Huamani LIDAD- Unica de consulta DGTT Y Usuarios Echevarria Viasual Estudio MTCLPC2005 C-FE01 VMCDB NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- Circulación TUC DGTT Carlos DISPONIBILIDAD Y PRIVACIDAD 133 SUTRAN, Dirección Registro Nacional General de CONFIDENCIA de Transporte registro y Transporte Huamani LIDAD- Terrestre de control Terrestre (MTC), Echevarria ASP WEBSER DBWEB PREMIUM PREMIUM INTEGRIDAD- Mercancías - Público en general y Carlos VER DISPONIBILID RNTTM Direcciones AD Y Regionales PRIVACIDAD CONFIDENCIA Dirección General LIDAD- Sistema Integrado tramite documento de Transporte Huamani de Información SII Terrestre (MTC), Echevarria Visual Basic 6.0 MTC30 NORMAL NORMAL INTEGRIDAD- s DISPONIBILID SUTRAN Carlos AD Y PRIVACIDAD CONFIDENCIA Aplicativo LIDAD- Estadística de Tráfico Aéreo registro DGAC - Regulación y Jauregui Promoción Jauregui Alex Visual Basic 6.0 ASTERIS ASTERIS JAVIER HURTADO DGAC NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-CO CO GUTIERREZ Crítica Crítica DISPONIBILID BAJO (Software Antiguo) AD Y PRIVACIDAD Sistema Estadística CONFIDENCIA de Tráfico Aéreo - LIDAD- Servicio registro DGAC - Regulación y Jauregui Visual Studio WEBSER MTCLPC JAVIER HURTADO Relativamente Relativamente INTEGRIDAD- Internacional Mixto Promoción Jauregui Alex .Net 2005 VER C-DB04 GUTIERREZ DGAC NORMAL Crítica NORMAL Crítica DISPONIBILID BAJO (Software Nuevo) AD Y PRIVACIDAD 134 CONFIDENCIA Aplicativo LIDAD- Estadistica de registro DGAC - Regulación y Jauregui Visual Basic 6.0 ASTERIS ASTERIS JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-Tráfico Aéreo Promoción Jauregui Alex CO CO GUTIERREZ DGAC NORMAL Crítica NORMAL Crítica DISPONIBILID BAJO Semanal Nacional AD Y PRIVACIDAD CONFIDENCIA Aplicativo LIDAD- Estadística de Tráfico Aéreo Diario registro DGAC - Regulación y Jauregui Promoción Jauregui Alex Visual Basic 6.0 ASTERIS ASTERIS JAVIER HURTADO DGAC NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-CO CO GUTIERREZ Crítica Crítica DISPONIBILID BAJO Nacional AD Y PRIVACIDAD CONFIDENCIA Aplicativo LIDAD- Estadística de registro DGAC - Regulación y Jauregui Visual Basic 6.0 ASTERIS ASTERIS JAVIER HURTADO DGAC NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-Tráfico Aéreo Diario Promoción Jauregui Alex CO CO GUTIERREZ Crítica Crítica DISPONIBILID BAJO Internacional Mixto AD Y PRIVACIDAD CONFIDENCIA LIDAD- Sistema Materiales registro DGAC - Seguridad Jauregui Visual Basic 6.0 ASTERIS ASTERISAeronáuticos Aeronáutica Jauregui Alex CO CO SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- DISPONIBILID AD Y PRIVACIDAD 135 CONFIDENCIA Aplicativo DGAC - LIDAD- Exámenes registro Certificaciones y Jauregui Jauregui Alex Visual Basic 6.0 ASTERIS ASTERIS CO CO JORGE LOPEZ DGAC SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- DISPONIBILID BAJO Aeronáuticos Autorizaciones AD Y PRIVACIDAD CONFIDENCIA registro / LIDAD- Interfaz Aeronaves actualizació DGAC Jauregui ASTERIS ASTERIS Relativamente Relativamente INTEGRIDAD- n Jauregui Alex Visual Basic 6.0 CO CO NORMAL Crítica NORMAL Crítica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA LIDAD- Interfaz Compañías registro / Aéreas actualizació DGAC Jauregui Jauregui Alex Visual Basic 6.0 ASTERIS ASTERIS CO CO NORMAL Relativamente Relativamente INTEGRIDAD- n Crítica NORMAL Crítica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Módulo Balotarios LIDAD- de Exámenes DGAC registro / DGAC - Certificaciones y Jauregui Visual Studio ASTERIS ASTERIS SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- via web reportes Autorizaciones Jauregui Alex .Net 2005 CO CO DISPONIBILIDAD Y PRIVACIDAD 136 CONFIDENCIA Adminsitra LIDAD- Sistema Portal de la cion DGAC Jauregui DGAC: Procesos Jauregui Alex PL/SQL WEB PEGASO ARGOS SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- DISPONIBILID DGAC AD Y PRIVACIDAD CONFIDENCIA Adminsitra LIDAD- Sistemas DGAC - cion DGAC Jauregui ASP. Net 2003 y WEBSER DBWEB SILVER Relativamente SILVER Relativamente INTEGRIDAD-Portal MTC Procesos Jauregui Alex ASP VER Crítica Crítica DISPONIBILID MTC AD Y PRIVACIDAD CONFIDENCIA LIDAD- INTRANET - DGAC Intranet- DGAC Jauregui ASP. Net 2003 y WEBSER DBWEB SILVER Relativamente Relativamente INTEGRIDAD-DGAC Jauregui Alex ASP VER Crítica SILVER Crítica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA LIDAD- EXTRANET - DGAC Extranet- DGAC Jauregui ASP. Net 2003, WEBSER DBWEB SILVER Relativamente Relativamente INTEGRIDAD-DGAC Jauregui Alex 2005 y ASP VER Crítica SILVER Crítica DISPONIBILID AD Y PRIVACIDAD 137 Sistema de CONFIDENCIA Notificación LIDAD- Voluntario de Registro DGAC Jauregui C# .Net 2010 MTCLPC MTCLPC Relativamente Incidentes y Jauregui Alex C-AP16 C-DB06 NORMAL Crítica NORMAL Relativamente INTEGRIDAD- Crítica DISPONIBILID Ocurrencias - AD Y SINIOR PRIVACIDAD Intercambio de CONFIDENCIA Información LIDAD- CORPAC DGAC/DSA Reportes DGAC Jauregui C# .Net 2010 ******* ******* Relativamente Relativamente INTEGRIDAD- Seguridad Jauregui Alex * * Crítica Crítica DISPONIBILID Operacional AD Y PRIVACIDAD CONFIDENCIA Centros Médicos LIDAD- Autorizados - Registro/Re DGAC Jauregui C# .Net 2010 ******* ******* SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- (software nuevo) portes Jauregui Alex * * DISPONIBILIDAD Y PRIVACIDAD CONFIDENCIA Sistema Integrado Registros/r JOSE LUIS LIDAD- de Información de eportes DGTA Jauregui Visual Basic 6.0 MTCLPC MTCLPCJauregui Alex C-AP16 C-DB06 RODRIGO LUJAN DGTA QWISTGAARD SILVER Relativamente Crítica SILVER Relativamente INTEGRIDAD- la DGTA (antiguo) /Alertas SUAREZ Crítica DISPONIBILID BAJO AD Y PRIVACIDAD 138 CONFIDENCIA Módulo de LIDAD- Empresas Acuáticas Reportes DGTA Jauregui Visual basic WEBSER MTCLPC NORMAL Relativamente NORMAL Relativamente INTEGRIDAD- - Web DGTA Jauregui Alex 2005 .Net VER C-DB06 Crítica Crítica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Nuevo Sistema Registros/r JOSE LUIS LIDAD- Integrado de eportes DGTA Jauregui Java JSF ******* ******* RODRIGO LUJAN DGTA QWISTGAARD SILVER Muy Critica SILVER Muy Critica INTEGRIDAD- BAJO Información - DGTA /Alertas Jauregui Alex * * SUAREZ DISPONIBILIDAD Y PRIVACIDAD CONFIDENCIA LIDAD- Control de Legajos Registros/R --- Jauregui Visual Basic 6.0 ASTERIS MTCLPC INTEGRIDAD-eportes Jauregui Alex CO C-DB04 NORMAL Muy Critica NORMAL Muy Critica DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Módulo de LIDAD- Administración Registro OTI Jauregui ASTERIS MTCLPC INTEGRIDAD- Web de Usuarios Jauregui Alex Visual Basic 6.0 CO C-WB05 NORMAL Importante NORMAL Importante DISPONIBILID AD Y PRIVACIDAD 139 CONFIDENCIA LIDAD- Mesa de Ayuda - Registros/r Jauregui ASTERIS MTCLPC INTEGRIDAD- HelpDesk eportes OTI Jauregui Alex Visual Basic 6.0 CO C-DB06 NORMAL Importante NORMAL Importante /Alertas DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA JOSE LUIS LIDAD- Sistema de Registro Registro MTC Jauregui Visual Basic 6.0 ASTERIS MTCLPC CARMEN YVETTE OGAC PELAYO NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-de Visitas - MTC Jauregui Alex CO C- DB 07 AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID BAJO PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Oficina de Atención JOSE LUIS LIDAD- Agenda Pública consulta al Ciudadano y Macedo Salas Visual Studio MTCLPC CARMEN YVETTE PELAYO INTEGRIDAD-Ministerial Gestión Yvette 2005 C# C-WB01 DBWEB AGREDA VALDEZ OGAC HERBOZO NORMAL Importante NORMAL Importante DISPONIBILID BAJO Documental PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Solicitud de Acceso Oficina de Atención JOSE LUIS LIDAD- a la Información registro y al Ciudadano y Macedo Salas Visual Studio MTCLPC DBWEB CARMEN YVETTE OGAC PELAYO consulta Gestión Yvette 2005 C# C-WB01 AGREDA VALDEZ HERBOZO NORMAL Importante NORMAL Importante INTEGRIDAD- BAJO Pública (SAIP) DISPONIBILIDDocumental PEREZ-COSTA AD Y PRIVACIDAD 140 Imagen Institucional, Oficina General de Módulo de Asesoría Jurídica, CONFIDENCIA Oficina de Atención JOSE LUIS LIDAD-Información registro y al Ciudadano y Macedo Salas Visual Studio MTCLPC DGTDW CARMEN YVETTE OGAC PELAYO NORMAL Relativamente NORMAL Relativamente INTEGRIDAD-Dinámica del Portal consulta Gestión Yvette 2005 C# C-WB01 H AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID MEDIO (IDM) Documental, PEREZ-COSTA AD Y Oficina de PRIVACIDAD Tecnologia de Informacion Abastecimiento, CONFIDENCIA Proveedores en Oficina de Atención JOSE LUIS LIDAD- consulta al Ciudadano y Macedo Salas Visual Studio MTCLPC SIGADB0 CARMEN YVETTE PELAYO INTEGRIDAD-Línea Gestión Yvette 2005 C# C-WB01 1 AGREDA VALDEZ OGAC HERBOZO NORMAL Importante NORMAL Importante DISPONIBILID BAJO Documental PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Sistema de LIDAD- Convocatoria CAS registro y Oficina de Personal, Macedo Salas Visual Studio MTCLPC INTEGRIDAD- MTC, Provias consulta SUTRAN Yvette 2005 C# C-WB01 VMCDB NORMAL Muy Critica NORMAL Muy Critica DISPONIBILID Nacional, SUTRAN AD Y PRIVACIDAD CONFIDENCIA Módulo de Oficina de Atención JOSE LUIS LIDAD- Contador de Visitas consulta al Ciudadano y Macedo Salas Visual Studio WEBSER VMCDB CARMEN YVETTE OGAC PELAYO Gestión Yvette 2005 C# VER AGREDA VALDEZ HERBOZO NORMAL Importante NORMAL Importante INTEGRIDAD- del MTC DISPONIBILID BAJO Documental PEREZ-COSTA AD Y PRIVACIDAD 141 CONFIDENCIA Oficina de Atención JOSE LUIS LIDAD- Denuncias registro y al Ciudadano y Macedo Salas Visual Studio WEBSER anticorrupción consulta Gestión Yvette 2005 C# VER VMCDB CARMEN YVETTE OGAC PELAYO AGREDA VALDEZ HERBOZO NORMAL Importante NORMAL Importante INTEGRIDAD- DISPONIBILID MEDIO Documental PEREZ-COSTA AD Y PRIVACIDAD Registro de Listado CONFIDENCIA de Ventas LIDAD- Mensuales de Casas registro y Dirección General RAUL RICARDO control de Concesiones en Macedo Salas Visual Studio MTCLPC JUAN CARLOS CONSECIONES EN Yvette 2005 C# C-WB01 VMCDB MEJIA CORNEJO COMUNICACIONES PEREZ REYES- NORMAL Importante NORMAL Importante INTEGRIDAD- BAJO Comercializadoras Comunicaciones ESPEJO DISPONIBILID (RLV) AD Y PRIVACIDAD CONFIDENCIA Registro de Equipos y Aparatos registro, Ciudadanía en LIDAD- consulta y General, Macedo Salas Visual Studio MTCLPCHomologados de Yvette 2005 C# C-WB01 VMCDB NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- control homologación DISPONIBILID EEUU y Canadá AD Y PRIVACIDAD CONFIDENCIA Sistema de Control Oficina de LIDAD-de Visitas registro y (actualmente solo control Tecnología de Macedo Salas Visual Studio MTCLPC SIGADB0 INTEGRIDAD- Información Yvette 2005 C# C-AP04 1 NORMAL Importante NORMAL Importante DISPONIBILID personal OTI) AD Y PRIVACIDAD 142 CONFIDENCIA Fiscalización LIDAD- Posterior Aleatoria consulta Áreas afectas al Macedo Salas Visual Studio ******* *******TUPA Yvette 2005 C# * * NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- (FPA) DISPONIBILIDAD Y PRIVACIDAD CONFIDENCIA Red Especial de Dirección General LIDAD- Comunicaciones en registro y de Control y Macedo Salas Visual Studio MTCLPC DGTDW Relativamente Relativamente INTEGRIDAD- Situación de consulta Supervision de Yvette 2005 C# C-WB01 H SILVER Crítica SILVER Crítica DISPONIBILID Emergencia (RECSE) Comunicaciones AD Y PRIVACIDAD CONFIDENCIA Sistema de LIDAD- Encuesta y registro y Secretaria Técnica Macedo Salas Visual Studio ******* ******* INTEGRIDAD- Exámenes de FITEL consulta FITEL Yvette 2010 C# * * NORMAL Importante NORMAL Importante DISPONIBILID AD Y PRIVACIDAD consulta CONFIDENCIA directorio-- LIDAD- Intranet sistemas en Usuarios MTC Macedo Salas Visual Studio MTCLPCCorporativa v2.0 linea-- Yvette 2005 C# C-WB01 VMCDB NORMAL Importante NORMAL Importante INTEGRIDAD- DISPONIBILID publicacion AD Y es-- PRIVACIDAD 143 Módulo de CONFIDENCIA Permisos para Instalaciones de registro y Dirección General LIDAD- Estaciones consulta de Concesiones en Macedo Salas Visual Studio ******* ******* INTEGRIDAD- Comunicaciones Yvette 2010 C# * * NORMAL Importante NORMAL Importante DISPONIBILID Radioeléctricas AD Y (IER) PRIVACIDAD CONFIDENCIA Módulo de LIDAD- Información sobre registro y Oficina de Personal Macedo Salas Visual Studio MTCLPCCapacitación de consulta Yvette 2005 C# C-WB01 DBWEB NORMAL Importante NORMAL Importante INTEGRIDAD- DISPONIBILID Personal AD Y PRIVACIDAD Dir. Gral. de CONFIDENCIA Intranet de Fibra registro y Regulación y Macedo Salas Visual Studio WEBSER PATRICIA RAUL RICARDO LIDAD- INTEGRIDAD- Óptica consulta Asuntos Yvette 2005 C# VER VMCDB CRITINA DGRAIC PEREZ REYES- NORMAL Importante NORMAL Importante SIN RIESGOS Internacionales CARREÑO FERRE ESPEJO DISPONIBILID de Comunicaciones AD Y PRIVACIDAD Dir. Gral. de CONFIDENCIA Regulación y PATRICIA RAUL RICARDO LIDAD- Foro Fibra Óptica registro y Macedo Salas Visual Studio ******* ******* INTEGRIDAD-consulta Asuntos Yvette 2005 C# * * CRITINA DGRAIC PEREZ REYES- NORMAL Importante NORMAL Importante SIN RIESGOS Internacionales CARREÑO FERRE ESPEJO DISPONIBILID de Comunicaciones AD Y PRIVACIDAD 144 Migración ASP a JUAN CARLOS CONFIDENCIA ASPX: Módulo de Dirección General MEJIA CONSECIONES/CONT LIDAD- Registro Nacional consultas de Concesiones en Macedo Salas Visual Studio MTCLPC DGTDW CORNEJO/CARLO ROL Y SUPERVISION RAUL RICARDO PEREZ REYES- NORMAL Relativamente Yvette 2005 C# C-WB01 H S VALDEZ EN Crítica NORMAL Relativamente INTEGRIDAD- MEDIO de Frecuencias Comunicaciones Crítica DISPONIBILID (RNF) VELASQUEZ- COMUNICACIONES ESPEJO AD Y LOPEZ PRIVACIDAD CONFIDENCIA Contrataciones y MTCLPC LIDAD- Adquisiones del consultas y Ciudadanía en Macedo Salas Visual Studio MTCLPC C-AP INTEGRIDAD- MTC reportes General Yvette 2005 C# C-WB01 (SIGAME NORMAL Importante NORMAL Importante DISPONIBILID F) AD Y PRIVACIDAD CONFIDENCIA Hoja de Vida de JOSE LUIS LIDAD- Funcionarios consultas Ciudadanía en Macedo Salas Visual Studio WEBSER DBWEB CARMEN YVETTE General Yvette 2005 C# VER AGREDA VALDEZ OGAC PELAYO Relativamente Relativamente INTEGRIDAD- HERBOZO NORMAL Crítica NORMAL Crítica DISPONIBILID SIN RIESGOS (Directorio Portal) PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Libro de JOSE LUIS LIDAD- Reclamaciones y registro Ciudadanía en Macedo Salas Visual Studio MTCLPC VMCDBC general Yvette 2005 C# C-WB01 (ADMPR CARMEN YVETTE OGAC PELAYO NORMAL Relativamente NORMAL Relativamente INTEGRIDAD- BAJO Sugerencias OD) AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD 145 MTCNO CONFIDENCIASISTEMA TES MTCNOT JOSE LUIS LIDAD-INTEGRADO DE SID MTC Vilela Giron Lotus notes 6.5 (MTCLP ES CARMEN YVETTE OGAC PELAYO PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD-GESTION Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID BAJO DOCUMENTAL CC-LN01) C-LN01) PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA SISTEMA MTCNO MTCNOT LIDAD- INTEGRADO DE INTERFAZ Vilela Giron Java Eclipse TES ES INTEGRIDAD- GESTION SID-VUCE Telecomunicaciones Pamela Galileo 3.5 (MTCLP (MTCLPC PREMIUM Muy Critica PREMIUM Muy Critica CC- DISPONIBILID BAJO DOCUMENTAL LN01) C-LN01) AD Y PRIVACIDAD CONFIDENCIA SISTEMA MTCNOTES MTCNOT LIDAD-INTEGRADO DE CONSULTA Vilela Giron ES Relativamente Relativamente INTEGRIDAD- GESTION S VUCE Telecomunicaciones Pamela Lotus notes (MTCLPCC- (MTCLPC PREMIUM Crítica PREMIUM Crítica DISPONIBILID BAJO DOCUMENTAL LN01) C-LN01) AD Y PRIVACIDAD REGISTROS Y CONFIDENCIA SISTEMA CONSULTA MTCNO MTCNOT JOSE LUIS LIDAD- INTEGRADO DE S MTC Vilela Giron TES Lotus notes (MTCLP ES CARMEN YVETTE OGAC PELAYO GESTION DOCUMEN Pamela (MTCLPC AGREDA VALDEZ HERBOZO PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- DISPONIBILID BAJO DOCUMENTAL TOS CC-LN01) C-LN01) PEREZ-COSTA AD Y CONGRESIS PRIVACIDAD TAS 146 CONFIDENCIA SISTEMA LIDAD- INTEGRADO DE INTERFAZ GESTION SID-ELLIPSE Telecomunicaciones Vilela Giron Java Eclipse PER_ELL PER_ELL INTEGRIDAD- Pamela Galileo 3.5 2 2 PREMIUM Muy Critica PREMIUM Muy Critica DISPONIBILID BAJO DOCUMENTAL AD Y PRIVACIDAD CONFIDENCIA SISTEMA MTCNO INTEGRADO DE SID Vilela Giron TES MTCNOT LIDAD- SUTRAN Lotus notes (MTCLP ES GESTION SUTRAN Pamela (MTCLPC PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- DISPONIBILID BAJO DOCUMENTAL CC-LN01) C-LN01) AD Y PRIVACIDAD CONFIDENCIA SISTEMA GESTION Y CONSTROL MTCNOT JOSE LUIS LIDAD-INTEGRADO DE DE MTC Vilela Giron Java Eclipse ASTERIS ES CARMEN YVETTE OGAC PELAYO INTEGRIDAD-GESTION MENSAJERI Pamela Galileo 3.5 CO (MTCLPC AGREDA VALDEZ HERBOZO NORMAL Importante NORMAL Importante DISPONIBILID BAJO DOCUMENTAL A C-LN01) PEREZ-COSTA AD Y PRIVACIDAD REGISTROS CONFIDENCIA SISTEMA Y MTCNOTES MTCNOT JOSE LUIS LIDAD-INTEGRADO DE CONSULTA MTC Vilela Giron Lotus notes (MTCLP ES CARMEN YVETTE PELAYO GESTION S Pamela (MTCLPC AGREDA VALDEZ OGAC HERBOZO NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- DISPONIBILID BAJO DOCUMENTAL RESOLUCIO CC- NES LN01) C-LN01) PEREZ-COSTA AD Y PRIVACIDAD 147 CONFIDENCIA SISTEMA JOSE LUIS LIDAD- INTEGRADO DE REPORTES OCI-Organo de Vilela Giron Java Eclipse ******* ******* CARMEN YVETTE PELAYO GESTION OCI Control Interno Pamela Galileo 3.5 * * AGREDA VALDEZ OGAC HERBOZO NORMAL Relativamente Crítica NORMAL Relativamente INTEGRIDAD- Crítica DISPONIBILID BAJO DOCUMENTAL PEREZ-COSTA AD Y PRIVACIDAD REGISTROS CONFIDENCIA SISTEMA DOCUMEN MTCNOOGA-Oficina TES MTCNOT LIDAD-INTEGRADO DE TOS GESTION ORDENES General de Vilela Giron ES INTEGRIDAD- Administracion Pamela Lotus notes (MTCLP (MTCLPC NORMAL Importante NORMAL Importante DISPONIBILID BAJO DOCUMENTAL SERVICIO CC- FINANZAS LN01) C-LN01) AD Y PRIVACIDAD MTCNO CONFIDENCIASISTEMA TES MTCNOT JOSE LUIS LIDAD-INTEGRADO DE TRAMITE MTC Vilela Giron Lotus notes (MTCLP ES CARMEN YVETTE PELAYO GESTION WEB Pamela (MTCLPC AGREDA VALDEZ OGAC HERBOZO PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- DISPONIBILID BAJO DOCUMENTAL CC-LN01) C-LN01) PEREZ-COSTA AD Y PRIVACIDAD SISTEMA MTCNO CONFIDENCIA MTCNOT JOSE LUIS LIDAD- INTEGRADO DE REPORTES TES GESTION OCI Vilela Giron Pamela Lotus notes (MTCLP ES CARMEN YVETTE PELAYO INTEGRIDAD- CC- (MTCLPC AGREDA VALDEZ OGAC HERBOZO NORMAL Importante NORMAL Importante DISPONIBILID BAJO DOCUMENTAL LN01) C-LN01) PEREZ-COSTA AD Y PRIVACIDAD 148 CONFIDENCIA Sistema de Acotaciones y Todas las Villacorta JOSE LUIS LIDAD- IGACC Direcciones Delgado Oracle Forms 10 SAVMC ARGOS PELAYO PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD-Cuentas por Cobrar Generales del VMC. Miguel HERBOZO DISPONIBILID BAJO - IGACC PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Sistema de Todas las Villacorta JOSE LUIS LIDAD- Información Ellipse ELLIPSE Direcciones Delgado Oracle Forms 6 PER_ELL PER_ELL JUAN CARLOS DGCC PELAYO PREMIUM Muy Critica PREMIUM Muy Critica INTEGRIDAD- BAJO Generales del VMC. Miguel 2 MEJIA CORNEJO HERBOZO DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA JOSE LUIS LIDAD- Ellipse Técnico ELLIPSE Todas las Villacorta PER_ELL JUAN CARLOS PELAYO INTEGRIDAD- (Xceed) TECNICO Direcciones Delgado Oracle Forms 6 2 PER_ELL MEJIA CORNEJO DGCC Generales del VMC Miguel HERBOZO PREMIUM Muy Critica PREMIUM Muy Critica DISPONIBILID MEDIO PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Módulo de Dirección General Villacorta JOSE LUIS LIDAD- PER_ELL PER_ELL JUAN CARLOS PELAYO Relativamente Relativamente INTEGRIDAD- Servicios Públicos MSP de Concesiones en Delgado Oracle Forms 6 DGCC NORMAL NORMAL BAJO Comunicaciones Miguel 2 2 MEJIA CORNEJO HERBOZO Crítica Crítica DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD 149 CONFIDENCIA Módulo de Dirección General Villacorta JOSE LUIS LIDAD- Servicios de MSRD de Autorizaciones de Delgado Oracle Forms 6 PER_ELL PER_ELL PELAYO 2 2 HERBOZO NORMAL Muy Critica NORMAL Muy Critica INTEGRIDAD- DISPONIBILID Radiodifusión Telecomunicaciones Miguel PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA JOSE LUIS LIDAD- Módulo de Dirección General Villacorta Homologación MH de Concesiones en Delgado Oracle Forms 6 PER_ELL PER_ELL PELAYO NORMAL Relativamente NORMAL Relativamente INTEGRIDAD- Comunicaciones Miguel 2 2 HERBOZO Crítica Crítica DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Módulo de Dirección General Villacorta JOSE LUIS LIDAD- Registros para los MRSP de Concesiones en Delgado Power Builder PER_ELL PER_ELL JUAN CARLOS CONSECIONES EN PELAYO NORMAL Importante NORMAL Importante INTEGRIDAD- BAJO Servicios Públicos Comunicaciones Miguel 10.2 2 2 MEJIA CORNEJO COMUNICACIONES HERBOZO DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Módulo de registro Dirección General Villacorta JOSE LUIS LIDAD- MRC de Concesiones en Delgado Power Builder PER_ELL PER_ELL PELAYO INTEGRIDAD-de comunicaciones NORMAL Importante NORMAL Importante Comunicaciones Miguel 10.2 2 2 HERBOZO DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD 150 CONFIDENCIA Dirección General de Control y Villacorta JOSE LUIS LIDAD- Módulo de Control MC Delgado Power Builder PER_ELL PER_ELLSupervisión de 10.2 2 2 PELAYO HERBOZO NORMAL Importante NORMAL Importante INTEGRIDAD- DISPONIBILID Comunicaciones Miguel PEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Módulo de CONSULTA Todas las Villacorta JOSE LUIS LIDAD- Power Builder PER_ELL PER_ELL JUAN CARLOS PELAYO INTEGRIDAD- Consultas Ellipse S Direcciones Delgado 10.2 2 2 MEJIA CORNEJO DGCC HERBOZO NORMAL Importante NORMAL Importante BAJO Generales del VMC Miguel DISPONIBILIDPEREZ-COSTA AD Y PRIVACIDAD CONFIDENCIA Dirección General LIDAD- Módulo de de Autorizaciones Villacorta Impresión IMPRESIÓN de Delgado Power Builder PER_ELL PER_ELL 10.2 2 2 NORMAL Importante NORMAL Importante INTEGRIDAD- Telecomunicaciones Miguel DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA JOSE LUIS LIDAD- Modulo de Casas Dirección General Villacorta Comercializadoras REGCAS de Concesiones en Delgado Oracle Forms SAVMC ARGOS JUAN CARLOS PELAYO INTEGRIDAD- Comunicaciones Miguel MEJIA CORNEJO DGCC HERBOZO NORMAL Importante NORMAL Importante DISPONIBILID SIN RIESGOS PEREZ-COSTA AD Y PRIVACIDAD 151 CONFIDENCIA LIDAD- Modulo Subastas SubastasFit Villacorta Fitel el FITEL Delgado Java Eclipse INTEGRIDAD- Miguel Galileo 3.5 SAVMC ARGOS NORMAL Importante NORMAL Importante DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA Modulo de Villacorta LIDAD- Solicitudes de SOLCCPP FITEL Delgado Oracle Forms 6 SAVMC ARGOS NORMAL Importante NORMAL Importante INTEGRIDAD- Antenas Parabolicas Miguel DISPONIBILIDAD Y PRIVACIDAD CONFIDENCIA Sistema de Ministerio de Villacorta LIDAD- Seguimiento de la SISGEC Transporte y Delgado Java Eclipse OASVMIndigo 3.7 C ARGOS NORMAL Importante NORMAL Importante INTEGRIDAD- Gestion Coactiva Comunicaciones Miguel DISPONIBILID AD Y PRIVACIDAD CONFIDENCIA LIDAD- Sistema Integrado Todas las Villacorta PVMC Direcciones Delgado Java Eclipse ******* *******VMC INTEGRIDAD- Generales del VMC. Miguel Galileo 3.5 * * DISPONIBILIDAD Y PRIVACIDAD 152 Sistema para CONFIDENCIA Licencias de Dirección General Huamani LIDAD- Conductores SLCVF de Circulación y Echevarria Visual Studio NORMAL NORMAL INTEGRIDAD- Vehículos Ferrocarriles Carlos 2005 DISPONIBILID Ferroviarios AD Y PRIVACIDAD CONFIDENCIA Inventario Vial de Dirección General Huamani LIDAD- IVC de Circulación y Echevarria Visual Studio HERNAN GARRO WALTER INTEGRIDAD- Carreteras Ferrocarriles Carlos 2005 LOPEZ DGCF ZECENARRO NORMAL NORMAL MATEUS DISPONIBILID SIN RIESGOS AD Y PRIVACIDAD CONFIDENCIA Registro Nacional Dirección General Huamani Visual Studio HERNAN GARRO WALTER LIDAD- de Carreteras RENAC de Circulación y Echevarria 2005 LOPEZ DGCF ZECENARRO NORMAL NORMAL INTEGRIDAD- MEDIO Ferrocarriles Carlos MATEUS DISPONIBILIDAD Y PRIVACIDAD 153 Requerimiento de la nueva Infraestructura Virtual ESPECIFICACIONES TÉCNICAS PARA LA ADQUISICIÓN DE SERVIDORES 1. OBJETIVO DE LA ADQUISICIÓN: Adquirir los equipos necesarios para implementar la infraestructura de virtualización y el sistema de almacenamiento, en capacidad y rendimiento tanto para alojar a los nuevos proyectos informáticos en desarrollo como a los sistemas actualmente en producción 2. DESCRIPCIÓN DEL OBJETIVO: La finalidad de esta adquisición propuesta es implementar la solución de virtualización y almacenamiento actual del MTC, para consolidar una capacidad adicional de servicios que actualmente se ejecutan en diversos servidores físicos, muchos de ellos tecnológicamente obsoletos, fuera de garantía de servicio y soporte, con un alto consumo de espacio y energía que representan altos costos operativos y de administración, que es necesario reducir a su mínima expresión. Para este fin, se adquirirán servidores adicionales para soportar la carga adicional de servicios virtualizados dentro del pool actual de infraestructura virtual, así como una mejora y ampliación de capacidad de almacenamiento, incluyendo aumentar el rendimiento con controladoras y puertos adicionales, asegurando la total integración nativa con la infraestructura actual, tanto a nivel de pool de virtualización conformado por servidores DELL | Poweredge r710, así como con el sistema de almacenamiento actual conformado por equipos Dell | Equallogic PS6010. 3. FINALIDAD PÚBLICA: Optimizar la solución de infraestructura de TI de virtualización y almacenamiento actualmente en producción, en el centro de datos de la OTI, a fin de reducir los costos operativos y en administración que representan el trabajar con dispositivos tecnológicamente obsoletos. 154 4. ESPECIFICACIONES TÉCNICAS: Los bienes a adquirir deberán cumplir con las siguientes especificaciones técnicas de acuerdo a los siguientes puntos: DETALLE CANTIDAD 1 Servidores y Chasis 1.1 Servidores de media altura. 12 1.2 Servidores altura completa. 4 1.3 Chasis para Servidores tipo BLADE 2 2 Sistema de Almacenamiento y Conectores redundantes (SAN) 2.1 Equipos Equallogic PS6110XV o modelo superior 5 2.2 Switches de ampliación a la SAN 2 3 Gabinetes 6 4 Memorias RAM 66 5 Tarjeta de RED iSCSI 4 1. SERVIDORES Y CHASIS 1.1 Servidores de media altura Características Descripción Cant. Factor de forma Formato Blade de media altura 12 Dos (2) procesadores de última generación Procesador de seis (6) núcleos o procesadores lógicos de mínimo 2.5 GHz y 15MB de cache  96 GB RAM, DDR3, con módulos RDIMM (máx 50% de cantidad total de Memoria RAM DIMMs)  Capacidad de escalar con 24 DIMMs de memoria Dos (2) Discos SAS de 300GB 15Krpm hot-Almacenamiento swap/hot plug (RAID-1) 155 2 Dual Port 10Gb: Interfaces SAN (iSCSI)  TCP/IP Offload Engine  iSCSI Offload Engine 4 puertos 10/100/1000 Mbps Ethernet con Interfaces de red soporte de:  TCP/IP Offload Engine  Red Hat Enterprise Linux 5.x o superior Soporte de sistemas operativos  SUSE LINUX Enterprise Server 10 o certificados superior  VMware ESX Server 4.x o superior  Microsoft Windows Server 2008 R2  Administración y monitoreo a través de Administración un procesador de servicio dedicado, con una conexión virtual o local La instalación y puesta en marcha del Instalación equipo deberá ser realizada por el postor, integrándolo a la SAN actual del MTC. Garantía de 3 años con cobertura 24 x 7, Soporte Técnico: con un tiempo de respuesta de 4 horas (On- Site, partes y mano de obra) Dos (2) licencias de software de virtualización. Cada licencia soportará un (1) Software de virtualización (*) procesador físico, el cual deberá soportar hasta seis (6) núcleos o procesadores lógicos. Voltaje 100-240 VAC, 50/60 Hz 1.2 Servidores de altura completa Características Descripción Cant. Factor de forma Formato Blade de altura completa. 04 Procesador Cuatro (4) procesadores de última generación de ocho (8) núcleos o procesadores lógicos, 16 subprocesos y frecuencia de 2.20GHz y 16MB de cache Memoria RAM  128 GB RAM instalados, DDR3, con módulos RDIMM  Capacidad de crecimiento de hasta 1.5 156 TB de memoria RAM distribuidos en un total de 48 DIMMs de memoria Almacenamiento Dos (2) Discos SAS de 300GB 15Krpm hot- swap/hot plug (RAID-1) Capacidad soportar hasta 4TB en discos hot- swap/hot plug Interfaces SAN (iSCSI) 2 puertos 10Gb Ethernet:  TCP/IP Offload Engine  iSCSI Offload Engine Interfaces de red 4 puertos 10/100/1000 Mbps Ethernet con soporte de:  TCP/IP Offload Engine Sistemas operativos certificados  Red Hat Enterprise Linux 5.x o superior  SUSE LINUX Enterprise Server 10 o superior  VMware ESX Server 4.x o superior  Microsoft Windows Server 2008 R2 Administración  Administración y monitoreo a través de un procesador de servicio dedicado, con una conexión virtual o local Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a la SAN actual del MTC. Dos (2) licencias de software de virtualización. Cada licencia soportará un (1) Software de virtualización (*) procesador físico, el cual deberá soportar hasta seis (6) núcleos o procesadores lógicos. Garantía de 3 años con cobertura 24 x 7, Soporte Técnico: con un tiempo de respuesta de 4 horas (On- Site, partes y mano de obra) Voltaje 100-240 VAC, 50/60 Hz 1.3 CHASIS PARA SERVIDORES TIPO BLADE Características Descripción Cant. Servidores blades Soportados Capacidad mínima para 8 servidores 02 blades de altura completa o 16 de media 157 altura o cualquier combinación entre estos. del mismo modelo que los ofertados (incluyendo sus accesorios) Factor de forma Chasis Rackeable Redundantes y sin componentes que representen elementos únicos de falla. Presentar direcciones WWN/MAC Módulo de Administración persistentes para permitir realizar cambios, reemplazos o movimientos de servidores blade en los chasises sin necesidad de requerir cambios en la red LAN y SAN. Tipos de servidores Blades Tecnología x86 (INTEL, AMD) tal como se soportados especifica en el ítem 1.1 Redundantes y Hot Plug, que garanticen el correcto funcionamiento a su máxima capacidad Es necesaria la conexión física Fuentes de poder redundante “N+N” para garantizar alta disponibilidad. Entiéndase N+N como la capacidad de falla de cualquier combinación de “N” fuentes de poder manteniendo el 100% del chasis y sus componentes operativos. Redundantes y Hot Plug, que garanticen Ventiladores el correcto funcionamiento a su máxima capacidad Bahías de conectividad Como mínimo 6 bahías. Dos (02) Switches Gigabit Ethernet L2/L3 con capacidad de 16 puertos internos y 4 uplinks GbE. Deben incluir módulos de Conectividad LAN stacking (con cable) así como un uplink de 2 puertos 10GbE con transceivers Short-Range para cable de fibra óptica multimodo con terminales LC. Dos (02) Switches iSCSI 10 Gbps con Conectividad SAN iSCSI capacidad minima de 8 puertos externos (SFP+) y 16 puertos internos todos iSCSI 10 Gbps o superior. Dicho 158 switch debe ser internos en el enclousure. 24 puertos activos y licenciados. Capacidad de acceder y administrar Software de Administración y simultáneamente funcionalidades de monitoreo del Enclosure vKVM y/o vMedia a todos los blades del chasis por uno o más usuarios. Garantía de 3 años con cobertura 24 x 7, Soporte Técnico con un tiempo de respuesta de 4 horas (On-Site, partes y mano de obra) Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a la SAN actual del MTC. El equipo deberá ser compatible con los servidores blade de altura media y completa. 2. SISTEMA DE ALMACENAMIENTO Y CONECTORES REDUNDANTES (SAN) SITUACIÓN ACTUAL: El MTC dispone de los siguientes equipos: Cantidad Equipo Detalle Dell EqualLogic PS6110XV, 10Gb, High Performance, 7.2TB 4 Almacenamiento SAN Equallogic PS6010 capacity, Dual Controllers, 10Gb, HA with failover PowerConnect 8024F, 20-24 10 GbE SFP+ Ports, Four 3 Switch SAN Combo Ports Estos equipos deberán ser tomados en cuenta, según corresponda, en la solución propuesta, ya que la solución deberá integrarse a la tecnología actual del Ministerio de Transportes y Comunicaciones. Requerimiento: Upgrade del Sistema de Almacenamiento de discos 159 Actualmente el Sistema de almacenamiento del MTC cuenta con 04 Storage EqualLogic para los cuales solicitamos: Ampliación y mejora del sistema de almacenamiento SAN actual, agregando e integrando: 2.1 Equipos Equallogic PS6110XV o modelo superior Características Descripción Cant. Sistema de Almacenamiento Dos (2) controladoras con puertos 05 iSCSI de 10Gbps Unidades de disco duro Deberá contar con mínimo veinticuatro (24) unidades SAS hot- pluggable, de 600 GB y 15kRPM c/u. Interface Red 10GBE Dos (2) SPF+ por controlador Soporte Red TCP Compatible con IPV4, IPV6 Opción de expansión Deberá tener la capacidad de poder combinar con otros arreglos EqualLogic serie PS, en el mismo grupo de SAN y con una única administración. Interfaces de administración SNMP, telnet, SSH, HTTP, Web (SSL) Consola Serial Sistemas Operativos Windows Server 2003, Windows soportados Server 2008 R2 con Hyper-V, Windows Server 2008, VMware ESX Server 3 / 3.5 / 4 / 5 ESXi 3.5, Citrix® XenServer, Red Hat Enterprise Linux, SUSE Linux Enterprise, SunTM Solaris, IBM AIX, HP-UX, Mac OS® X, Novell NetWare® Métodos de notificación SNMP, e-mail, syslog Seguridad Autentificación CHAP Control de acceso para iSCSI Control de acceso para administración de interfaces, incluida la compatibilidad con RADIUS 160 Modelo Optimizado para rack Temperatura de funcionamiento 5 to 35 °C / 41 to 95 °F Voltaje 100-240 VAC, 50/60 Hz Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a la SAN actual del MTC. Garantía de 3 años con cobertura 24 x Soporte Técnico: 7, con un tiempo de respuesta de 4 horas (On-Site, partes y mano de obra) 161 2.2 Switches de ampliación a la SAN actual (iguales o superiores a los actualmente utilizados por el MTC certificados por el proveedor para EqualLogic) Características Descripción Cant. Switch capa 2 y 3 de 48 puertos SPF+ 10GB 02 Cuatro (4) puertos de 40Gb QSFP Detalles técnicos y Fuente de poder redundante interna puertos Cuatro (4) cables QSFP+ to 4 x 10GbE SFP+ pasivos de cobre, 5m Juego de Brackets para montar en Rack Rendimiento Capacidad de conmutación total de hasta 1.2 Tb/s full duplex Velocidad de reenvío de 960 Mpps Link Agreggation: 8 links por grupo Hasta 128K direcciones MAC Búfer de paquetes de 9 MB Enrutamiento RIP V1/V2, OSPFv2, CIDR, ICMP, VRRP, ARP, IGMPv1,v2,v3. VLAN Hasta 4,000 VLAN Temperatura de 0 a 40 °C (de 32 a 104 °F) funcionamiento 162 Soporte Red TCP IPV4, IPV6 Cables Deberá incluir ocho (8) cables twinax de 5mt con terminales SPF+ Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a la SAN actual del MTC. Garantía de 3 años con cobertura 24 x 7, Soporte Técnico: con un tiempo de respuesta de 4 horas (On- Site, partes y mano de obra) Voltaje 100-240 VAC, 50/60 Hz 3. GABINETES Características Descripción Cant. Factor Rack 42RU formato Wide 06 Forma y Altura Ancho: 29.8” Altura: 42.1” Peso: 152 Kg aproximadamente PDU´s Dos (02) PDU´s 24A con todos sus cables de poder para cada toma. Adicionales - Puertas traseras y Delantera con llave. - Incluir Kit de Ventilación. Kit de Video Consola retráctil de 1U con monitor de 17” con teclado y Mouse integrado. Switch KVM KVM digital de 08 puertos RJ45 con sus cables de conexión. Garantía 03 Años de Garantía. 4. MEMORIAS RAM 163 SITUACIÓN ACTUAL: El MTC dispone de los siguientes equipos: Cantidad Equipo Detalle 11 Servidores DELL 2 CPUs Quad core x 2.659 GHz Intel Xeon CPU PowerEdge R710 E5640 Tienen un total de 24GB de RAM en distribución de 6 módulos de 4GB cada uno. Todos estos equipos conforman la actual arquitectura de virtualización. Estos equipos deberán ser tomados en cuenta, según corresponda, en la solución propuesta, ya que la solución deberá integrarse a la tecnología actual del Ministerio de Transportes y Comunicaciones. Requerimiento: Upgrade de los bancos de memoria RAM y tarjetas de red ISCSI Actualmente los servidores de virtualización del MTC se encuentra ya limitados en los recursos de memoria RAM para los cuales solicitamos: Ampliación de la capacidad de memoria RAM, agregando e integrando: Características Descripción Cant. Memoria DDR3 Velocidad de Bus 1333 Mhz Dual Ranked de 8 66 RDIMM – 8 GB GB por módulo de memoria, y 100 % compatibles con los servidores actuales del MTC Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a los servidores actuales del MTC, que ya han sido descritos. Soporte Técnico: Garantía integrada a la garantía original del 164 servidor en cuestión. 5. TARJETA DE RED iSCI SITUACIÓN ACTUAL: El MTC dispone de los siguientes equipos: Cantidad Equipo Detalle 4 Servidores DELL 2 CPUs Quad core x 2.659 GHz Intel Xeon CPU E5640 Estos PowerEdge equipos R710 Una tarjeta de red ISCSI deberán ser Todos estos equipos conforman la actual arquitectura tomados en de virtualización. cuenta, según corresponda, en la solución propuesta, ya que la solución deberá integrarse a la tecnología actual del Ministerio de Transportes y Comunicaciones. Requerimiento: Upgrade de las tarjetas de red ISCSI Actualmente los servidores de virtualización del MTC se encuentra con una única tarjeta de red iSCSI que no garantizan la alta disponibilidad de los servicios que soportan estos equipos para los cuales solicitamos: Ampliación de la conexión agregando e integrando: Características Descripción Cant. Características Tarjeta de Red PCIe. Dual Port 10GB, Data 4 técnicas bus PCI Express 2.0, Transfer Rate 10 GbPS. Con connector SFP+/Direct Attach Instalación La instalación y puesta en marcha del equipo deberá ser realizada por el postor, integrándolo a los servidores actuales del MTC, que ya han sido descritos. Soporte Técnico: Garantía integrada a la garantía original del 165 servidor en cuestión. 6. PLAZO DE ENTREGA: cuarenta (40) días calendario, contabilizados a partir del día siguiente de la firma del contrato. La instalación, configuración e implementación de los bienes será de (40) días calendario contados a partir del día siguiente de emitida la conformidad de la entrega de los bienes. 7. LUGAR DE ENTREGA: Almacén de la Dirección de Abastecimientos del MTC, sito en Jr. Zorritos Nº 1203, Cercado de Lima. 8. FORMA DE PAGO: Se realizará al 100%, una vez dada la conformidad de la instalación, configuración e implementación de los bienes adquiridos. 9. GARANTIA: El tiempo de garantía es de 3 años y debe iniciar a partir de la conformidad otorgada por el MTC a la implementación de los equipos debidamente certificada por el fabricante dando fe del correcto funcionamiento de estos. Durante el periodo de garantía, el Proveedor brindará servicio técnico capacitado, material y mano de obra, sin costo durante dicho período. Esta garantía cubre cualquier desperfecto de fábrica. Dicha garantía incluye el cambio de piezas o partes que presenten defectos de fábrica. 10. CONSIDERACIONES ADICIONALES DE LA GARANTIA COBERTURA DEL SERVICIO SOPORTE Y MANTENIMIENTO (NIVEL DE SERVICIO 24X7X4): 166 La modalidad del servicio a prestar es de 24x7x4, 24 horas del día, de lunes a domingo incluyendo los feriados, con un tiempo de respuesta de cuatro (4) horas, con los recursos locales que el proveedor cuenta, durante un período de TRES (3) años. El Soporte será ON – SITE y ON LINE y atenderán incidentes relacionados a la plataforma implementada, asesoría y orientación técnica, auditoría o atender requerimientos técnicos durante cualquier día de la semana. El postor debe contar con el servicio de recepción de incidentes 24x7x4, 24 horas del día, de recepción de llamadas y de correos de soporte de los equipos. El tiempo máximo de atención para un incidente reportado debe ser de 4 horas. En caso de no resolverse el incidente suscitado en un plazo máximo de 12 horas a partir de reportado, el postor brindara el componente o equipo de respaldo mientras dure el proceso de reparación o cambio del componente o equipo averiado. El plazo máximo de devolución del equipo debe ser de 30 días, luego del cual el proveedor deberá brindar un equipo nuevo con características iguales o superiores como remplazo definitivo del equipo averiado. Adicionalmente el postor debe entregar la siguiente documentación: • Carta de compromiso del postor especificando que cuentan con sistema de Mesa de Ayuda para recibir solicitudes de atención (debe indicarse el procedimiento, los teléfonos, horario, correo electrónico, contactos y números preferenciales con el fabricante), tiempos de respuesta y tiempos de solución. • Carta de garantía del postor especificando la cobertura del soporte técnico pro el tiempo que dure la garantía. • Carta de garantía del postor en la cual se certifique que los bienes a ofertar deberán de ser nuevos (de primer uso) y deben de ser adquiridos por un canal regular con la garantía del fabricante, lo que asegura que el producto llega en iguales condiciones desde que fue manufacturado. SERVICIO DE MANTENIMIENTO PREVENTIVO – REVISION DE ESTADISTICAS: El Servicio de Mantenimiento Preventivo es un servicio periódico basado en las necesidades específicas del MTC. Este servicio será proporcionado según el plan o programa determinado por el Ministerio según se detalla en el punto 11 para mantener en buenas condiciones técnicas de funcionamiento los equipos. CONDICIONES GENERALES 167 Vigencia Tecnológica y Escalabilidad  En el caso de presentarse una “actualización tecnológica” en los bienes y/o elementos que formen parte de la oferta del Proveedor, en cualquier momento anterior a la entrega definitiva de la totalidad de los bienes, el Proveedor debe entregar tales equipos y/o elementos actualizados, contando con autorización previa del MTC y sin que esto implique un cargo adicional.  Se entenderá que ha ocurrido una actualización tecnológica cuando se presenta una nueva versión del mismo producto en el mercado, que reemplaza a este en la línea de productos ofrecida por el Proveedor a la generalidad de sus clientes, y que sustituye al modelo ofrecido al MTC.  El Proveedor podrá, sin costos adicionales para el MTC, entregar equipos más avanzados o con características superiores a las ofrecidas, siempre y cuando cuente con la aprobación previa del MTC.  En ningún caso el Proveedor podrá presentar soluciones que estén destinadas a perder su vigencia tecnológica (hayan anunciado su “end-of-life”) o dejen de ser fabricadas, comercializadas y/o soportadas, durante los 3 años siguientes a la instalación, configuración e implementación de los bienes adquiridos. GARANTÍA Y BUEN FUNCIONAMIENTO La garantía ofrecida por el postor debe cumplir con los siguientes requisitos mínimos:  Considerar el cambio, sin costo alguno para el MTC, del equipo completo o de las partes (repuestos originales) que presenten defectos de fabricación durante el período de garantía ofertado por el postor. El postor debe responsabilizarse a que dichos cambios permitirán el buen funcionamiento del equipo en forma individual y como componente de la solución, cuya acta de conformidad aprobó la correcta implementación de la solución, materia del presente proceso de adjudicación.  Considerar el software incluido como parte de la solución, mediante la actualización de la versión entregada y configurada, a través del suministro de nuevas versiones (releases) y reparaciones (en general denominadas comercialmente como patches, temporary fixes, etc.), que el proveedor libere y ponga a libre disponibilidad (sin costo) de los propietarios de las licencias del software componente de la solución implementada.  Garantizar que todos los bienes ofertados son nuevos y sin uso, que están libres de defectos y adulteraciones que puedan manifestarse durante su uso, ya sea por el resultado de alguna acción u omisión o provengan del diseño, los materiales o la mano de obra.  Emitir la garantía de buen funcionamiento de la solución (hardware y software) por un período de tres (03) años con el correspondiente respaldo del proveedor, contabilizado a partir de la conformidad de instalación, configuración e implementación de los bienes adquiridos.  Proporcionar el mantenimiento de hardware y actualizaciones de software por un período de tres (03) años. 168  La solución propuesta debe ser 100% compatible con el Sistema de Almacenamiento instalado en el MTC. SERVICIO DE SOPORTE TÉCNICO Y MANTENIMIENTO El Servicio de Soporte Técnico y Mantenimiento ofrecido por el postor debe cumplir con los siguientes requerimientos mínimos:  Garantizar la disponibilidad de los servicios básicos y adicionales de soporte técnico y mantenimiento descritos líneas abajo, por un período mínimo de 5 años a partir de la fecha del acta de conformidad, mediante una carta firmada por el representante legal del postor.  Incluir como parte de la propuesta técnica y económica, los servicios básicos de soporte técnico y mantenimiento para un periodo de tres (03) años, a partir de la conformidad de instalación, configuración e implementación de los bienes adquiridos.  Disponer del personal técnico idóneo y en cantidad suficiente como para brindar oportunamente los servicios básicos, que fueran solicitados como necesarios para el buen funcionamiento de la solución implementada. Estos son:  Disponibilidad de los especialistas de la empresa para brindar soporte técnico especializado a través de la línea telefónica, correo electrónico, sistemas en línea o sitios cuando se requiera. Entregar al MTC al momento de la instalación de los bienes una nómina del personal técnico autorizado a interactuar con los bienes contratados. Dicha nómina debe ser actualizada cuando se produzcan cambios.  Garantizar un tiempo de respuesta máximo de 4 horas para visitas de soporte técnico a l MTC.  Reposición temporal del equipo o componente con fallas por un equipo o componente igual o superior en un plazo máximo de cuatro (4) horas, con la finalidad de mantener la operatividad mientras se hace efectiva la garantía.  Garantizar en toda circunstancia la posibilidad de escalamiento del servicio con el postor para una oportuna solución de los eventos presentados.  Revisión periódica de los equipos y/o programas implementados como parte de la solución ofertada, al menos una (01) vez al año y según un calendario establecido en consenso entre el postor adjudicado y el MTC, a fin de que dichas tareas no interfieran en el desarrollo de las actividades de la institución. SERVICIOS ADICIONALES DE SOPORTE TÉCNICO Y MANTENIMIENTO 169  Los servicios adicionales de Soporte Técnico y Mantenimiento son los servicios de mayor alcance y/o especialización que el postor debe garantizar su disponibilidad y que pueden ser incluidos como parte de la propuesta técnica. El MTC podrá contratarlos según los requiera. 11. INSTALACIÓN Y CONFIGURACIÓN: La instalación, configuración e implementación de los bienes será de (40) días calendario contados a partir del dia siguiente de emitida la conformidad de la entrega de los bienes. Asimismo deberá considerarse que se efectuara un (01) mantenimiento preventivo (Revisión de salud de Servidores, Softwsare de Virtualización y solución de Almacenamiento de la implementación, entregada en un documento con las observaciones y recomendaciones sugeridas a la institución), por año de garantía la misma que será contada a partir de la conformidad de la configuración e implementación de la infraestructura. Cabe indicar que dicho mantenimiento será no disruptivo, para lo cual la implementación debe garantizar la continuidad operativa ante fallas. El postor debe garantizar que el personal que implementara la solución esté debidamente certificado por la marca del producto que ofrece. El postor al finalizar la implementación debe, junto con un representante certificado de la marca emitir una carta y/o constancia asegurando que la implementación es correcta, se encuentra en perfecto funcionamiento y cumple con las buenas prácticas de la marca de los equipos ofertados. El proveedor deberá presentar un plan de implementación de la solución ofertada, esta deberá incluir la instalación y configuración de los servidores Blade, Chasis para servidores Blade, Unidad de almacenamiento y switches ofrecidos para la solución, adicionalmente a ello se debe de instalar todos los componentes de los gabinetes, por personal certificado, puesta en producción y capacitación del personal que designe el MTC, el cual deberá contener los requerimientos de reestructuración física, lógica y consideraciones de seguridad definas por el MTC. Dicho plan estará sujeto a la revisión, modificación y aprobación por parte del MTC, de tal modo que cubra todas las tareas a llevar a cabo desde la firma del contrato hasta la aceptación definitiva de los bienes. El plazo para presentarlo es de 5 días a partir del día siguiente de la firma del contrato. Dicho plan debe establecer plazos mínimos y máximos para cada una de las tareas a cumplir, debiéndose discriminar las que debe cumplir el MTC, el proveedor en forma exclusiva, y las que deben asumir en forma compartida. 170 El proveedor debe incluir todos los equipos, componentes, accesorios o materiales necesarios que se requiera para el correcto montaje de la solución y puesta en funcionamiento. Esta solución deberá estar montada en un Rack que será definido por el MTC. El postor deberá entregar al MTC, en formato electrónico e impreso, el informe técnico correspondiente, el mismo que deberá incluir toda la documentación generada, así como un archivo con la relación descriptiva de los equipos y software entregados, incluyendo el número de serie y código de producto de cada uno de ellos si fuera el caso, así como su valor individualizado según factura. 12. OTRAS CONSIDERACIONES  Capacitación: Presencial teórico/práctico para 6 personas sobre la plataforma implementada, dictado en el local del MTC. Jr. Zorritos Nº 1203, Cercado de Lima, dictado por personal certificado por la marca del producto que ofrece el proveedor. La capacitación deberá incluir:  Uso, monitoreo y administración de Servidores propuestos (Rackeables y blades) con sus respectivas herramientas de Hardware y Software (02 sesiones de 04 Horas cada una).  Uso, monitoreo y administración del Sistema de Almacenamiento propuesto. (02 sesiones de 04 Horas cada una)  Incluye constancia de asistencia.  Entregar, por cada equipo, toda bibliografía considerada necesaria para utilizar los elementos (equipos y/o software ofrecidos), actualizada a la última versión y con la obligación permanente, durante la vigencia de la garantía, de remitir toda modificación. La documentación deberá contener al menos los manuales de instalación, operación y mantenimiento básico, siendo proporcionada en formato impreso o en disco (DVD o CD-ROM).  El proveedor deberá acreditar experiencia en implementaciones similares.  La instalación e implementación de la solución será efectuada por el proveedor a todo costo. 13. DETALLE DE LA PRESTACIÓN Incluye los siguientes aspectos: • Entrega de equipos instalación. • Configuración, implementación y Documentación. (Incluye Hardware y Software). Incluye las garantías del hardware. 171 • Servicio de Soporte Técnico y Mantenimiento Preventivo. • El mantenimiento Preventivo deberá realizarse una (01) vez por año, por el tiempo que dure la garantía. • Debe realizarse en las instalaciones del MTC, en fecha y horario a coordinar con personal de la OTI del MTC, el proveedor deberá adjuntar el informe del mantenimiento preventivo a su informe periódico de servicio. • El servicio de soporte técnico, incluye el mantenimiento correctivo por el tiempo que dure la garantía, bajo la modalidad de 24x7x4, 24 horas del día, de lunes a domingo incluyendo los feriados, con un tiempo de respuesta de cuatro (4) horas contados a partir del momento del reporte de la incidencia. • En caso de no resolverse el incidente suscitado en un plazo máximo de 12 horas a partir de reportado, el postor brindara el componente o equipo de respaldo mientras dure el proceso de reparación o cambio del componente o equipo averiado. El plazo máximo de devolución del equipo debe ser de 30 días, luego del cual el proveedor deberá brindar un equipo nuevo con características iguales o superiores como remplazo definitivo del equipo averiado. 14. CONFORMIDAD La conformidad del servicio será otorgada por el Director de la Oficina de Tecnología de Información, una vez finalizados los trabajos de integración con la SAN actual de MTC y presentados los entregables. 15. PLAZO MAXIMO DE RESPONSABILIDAD DEL CONTRATISTA Garantía de 3 años en modalidad 7x24x4, sustentado mediante carta de la marca. Soporte Técnico a través de línea gratuita 0-800. (*) ESPECIFICACIONES TÉCNICAS PARA EL SOFTWARE PARA VIRTUALIZACIÓN CARACTERÍSTICAS DEL REQUERIMIENTO El software de virtualización debe ser de clase empresarial, con los mejores niveles de fiabilidad y rendimiento, permitiendo virtualizar servidores, almacenamiento y redes. El postor deberá ofertar la cantidad de licencias necesarias para los servidores blade ofertados para la virtualización Las licencias deben cumplir con las siguientes funcionalidades: 172 Característica • La Licencias deberá de ser del tipo portable a otros servidores es decir no ser dependientes del hardware. • Debe incluir soporte para: Multiproceso y sistemas de archivos para clustering. • Deberá soportar la ejecución en sistemas operativos diferentes como Windows, Solaris y Linux. • Deberá incluir una herramienta que permita asignar recursos de procesador, memoria, almacenamiento de información y redes en múltiples máquinas virtuales, considerando rendimiento, escalabilidad y flexibilidad. • Permitir agregar CPU y memoria a las máquinas virtuales cuando sea necesario, sin interrupción ni tiempo fuera de servicio. • Permitir establecer prioridades según la calidad de servicio, para garantizar el acceso a los recursos de almacenamiento y a los recursos de red. • Permitir la migración en vivo (caliente) de discos de máquina virtual sin ocasionar interrupciones a los usuarios, lo cual elimine la necesidad de planificar tiempo fuera de servicio de aplicaciones para realizar el mantenimiento del almacenamiento planificado o durante las migraciones de almacenamiento. • Permitir un reinicio automático en solo minutos de todas las aplicaciones en caso de que se produzcan fallas de hardware o del sistema operativo. • Permitir proporcionar equilibrio de carga dinámico e independiente del hardware y asignación de recursos para máquinas virtuales en un clúster mediante automatización regida por políticas para reducir la complejidad de la administración. • Permitir automatizar la eficiencia energética en los clústeres, optimizando continuamente la energía que consume cada clúster. • Permitir brindar disponibilidad constante de cualquier aplicación, en caso de fallas de hardware, sin pérdida de datos ni tiempo fuera de servicio. • Poder administrarse de manera unificada. • Contar con derecho a actualizaciones y soporte 7x24 por un (01) año, provisto por el fabricante. • Capacidad de maximizar el uso de entornos computacionales en forma simultánea sin agregar nuevo hardware. • Deberá incluir una herramienta que permita configurar de manera rápida y segura máquinas virtuales, así como monitorear la performance de los servidores físicos y de las máquinas virtuales. • Capacidad de crear reglas y políticas para priorizar la asignación de 173 los recursos a las máquinas virtuales. • Deberá incluir una herramienta de realice un backup de una máquina virtual en cualquier momento, así como un respaldo centralizado. • Deberá tener la opción de Alta Disponibilidad para protección ante caídas con otro servidor similar. SERVICIOS ADICIONALES • El licenciamiento deberá incluir el servicio de soporte técnico y mantenimiento anual (01) un año del producto como de las herramientas de monitoreo y afines, proporcionado por la marca del producto. • Deberá contemplar la entrega de una versión actualizada del producto cuando se presente una nueva versión con características técnicas superiores. • Deberá incluir la instalación y configuración de la licencia de servidor de virtualización, así como la configuración de inicio de los sistemas operativos de cada servidor virtual. • Deberá incluir una capacitación de la instalación, configuración y administración del software de virtualización con las siguientes características:  Capacitación: Presencial teórico/práctico para 6 personas sobre la plataforma implementada, dictado en el local del MTC. Jr. Zorritos Nº 1203, Cercado de Lima, dictado por personal certificado por la marca del producto que ofrece el proveedor. Incluye constancia de asistencia.  Entregar, por cada equipo, toda bibliografía considerada necesaria para utilizar los elementos (equipos y/o software ofrecidos), actualizada a la última versión y con la obligación permanente, durante la vigencia de la garantía, de remitir toda modificación. La documentación deberá contener al menos los manuales de instalación, operación y mantenimiento básico, siendo proporcionada en formato impreso o en disco (DVD o CD- ROM).  El proveedor deberá acreditar experiencia en implementaciones similares.  La instalación e implementación de la solución será efectuada por el proveedor a todo costo. REQUISITOS DE LA EMPRESA PROVEEDORA DEL BIEN Persona jurídica con experiencia en la venta de software de virtualización o a fines, lo que acreditará mediante un certificado de la marca que se ofrezca. El proveedor deberá contar con profesionales certificados en el software de virtualización quienes deben formar parte de su planilla. 174 Manual Dell Blade Enclosure PS Series SAN Best Practices Dell PowerEdge M1000e Blade Enclosure and EqualLogic PS Series SAN Design Best Practices Using Force10 Switches A Dell EqualLogic Best Practices Technical White Paper Dell Storage Engineering February 2013 175 Acknowledgements This best practice white paper was produced by the following members of the Dell Storage team: Engineering: Clay Cooper Technical Marketing: Guy Westbrook Editing: Camille Daily Additional contributors: Jeremy Hitt, Kirt Gillum, Lin Lancaster, Marc Snider, Mike Kosacek, Bob Spear, Steve Williamson, and Ujjwal Rajbhandari Feedback We encourage readers of this publication to provide feedback on the quality and usefulness of this information by sending an email to SISfeedback@Dell.com. SISfeedback@Dell.com 176 1 Introduction Dell™ EqualLogic™ PS Series arrays provide a storage solution that delivers the benefits of consolidated networked storage in a self-managing iSCSI storage area network (SAN) that is affordable and easy to use, regardless of scale. By eliminating complex tasks and enabling fast and flexible storage provisioning, these solutions dramatically reduce the costs of storage acquisition and ongoing operation. A robust, standards-compliant iSCSI SAN infrastructure must be created to leverage the advanced features provided by an EqualLogic array. When using blade servers in a Dell PowerEdge™ M1000e blade enclosure (also known as a blade chassis) as hosts, there are a number of network design options for storage administrators to consider when building the iSCSI SAN. For example, the PS Series array member network ports can be connected to the switches within the M1000e blade chassis or the blade server network ports can be connected to top of rack (ToR) switches residing outside of the blade chassis. After testing and evaluating a variety of different SAN design options, this technical white paper quantifies the ease of administration, the performance, the high availability, and the scalability of each design. From the results, recommended SAN designs and practices are presented. The SAN designs in this paper converge both SAN and LAN into a single network fabric using Data Center Bridging (DCB). The final SAN design is the pre-integrated Active System 800, the first Active System offering from the Dell Active Infrastructure family of converged infrastructure offerings. It consists of PowerEdge M620 blade servers in a PowerEdge M1000e blade enclosure with PowerEdge M I/O Aggregator modules uplinked to Force10 S4810P ToR switches and EqualLogic PS Series PS6110 array members. Active System 800 is deployed and managed by the Active System Manager application. For more information on the PowerEdge M1000e blade enclosure solution, EqualLogic SAN architecture, Data Center Bridging and Dell Active Infrastructure see Section 2 titled, “Concept Overview”. 1.1 Audience This technical white paper is intended for storage administrators, SAN/NAS system designers, storage consultants, or anyone who is tasked with integrating a Dell M1000e blade chassis solution with EqualLogic PS Series storage for use in a production storage area network. It is assumed that all readers have experience in designing and/or administering a shared storage solution. Also, there are some assumptions made in terms of familiarity with all current Ethernet standards as defined by the Institute of Electrical and Electronic Engineers (IEEE) as well as TCP/IP and iSCSI standards as defined by the Internet Engineering Task Force (IETF). 177 1.2 Terminology This section defines terms that are commonly used in this paper and the context in which they are used. Blade I/O module (IOM) switch – A switch that resides in an M1000e Fabric slot. Blade IOM switch only – A category of SAN design in which the network ports of both the hosts and the storage are connected to the M1000e blade IOM switches, which are isolated and dedicated to the SAN. No external ToR switches are required. The switch interconnect can be a stack or a LAG and no uplink is required. The Force10 MXL does not currently (as of February 2013) support VLT. Blade IOM switch with ToR switch – A category of SAN design in which host network ports are internally connected to the M1000e blade IOM switches and storage network ports are connected to ToR switches. A switch interconnect stack, LAG or VLTi between each ToR switch is required. An uplink stack, LAG, or VLT LAG from the blade IOM switch tier to the ToR switch tier is also required. Converged network adapter (CNA) – Combines the function of a SAN host bus adapter (HBA) with a general-purpose network adapter (NIC). Data Center Bridging (DCB) – An enhancement of the IEEE 802.1 bridge specifications for supporting multiple protocols and applications in the data center. It supports converged infrastructure implementations to carry applications and protocols on a single physical infrastructure. Data Center Bridging Exchange (DCBX) – Protocol standard for the discovery and propagation of DCB configuration between DCB-enabled switches, storage array members, and CNA. Host/storage port ratio – The ratio of the total number of host network interfaces connected to the SAN divided by the total number of active PS Series array member network interfaces connected to the SAN. A ratio of 1:1 is ideal for optimal SAN performance, but higher port ratios are acceptable in specific cases. The host/storage port ratio can negatively affect performance in a SAN when oversubscription occurs, that is when there are significantly more host ports or significantly more storage ports. Link aggregation group (LAG) – Where multiple switch ports are configured to act as a single high- bandwidth connection to another switch. Unlike a stack, each individual switch must still be administered separately and function as such. Multiple switch tier SAN design – A SAN design with both blade IOM switches and ToR switches. Host and storage ports are connected to different sets of switches and an uplink stack, LAG, or VLT LAG is required. Blade IOM switch with ToR switch designs are multiple switch tier SAN designs. Single switch tier SAN design – A SAN design with only blade IOM switches or ToR switches but not both. Host and storage ports are connected to the same type of switch and no uplink is required. Blade IOM switch only and ToR switch only designs are single switch tier SAN designs. Stack – An administrative grouping of switches that enables the management and functioning of multiple switches as if they were one single switch. The switch stack connections also serve as high-bandwidth interconnects. 178 Switch interconnect – An inter-switch link that connects either the two blade IOM switches or the two ToR switches to each other. A switch interconnect unifies the SAN fabric and facilitates inter-array member communication. It can be a stack, a LAG, or a VLTi. Switch tier – A pair or more of like switches connected by a switch interconnect which together create a redundant SAN Fabric. A switch tier might accommodate network connections from host ports, from storage ports, or from both. If all switches in a switch tier are reset simultaneously, for example the switch tier is stacked and the firmware is updated, then the SAN is temporarily offline. ToR switch – A top of rack switch, external to the M1000e blade chassis. ToR switch only – A category of SAN design in which the network ports of both the hosts and the storage are connected to external ToR switches. For this architecture, 10 GbE (10 Gigabit Ethernet) pass-through IOM are used in place of blade IOM switches in the M1000e blade chassis. The switch interconnect can be a stack, a LAG, or a VLTi. Uplink – A link that connects the blade IOM switch tier to the ToR switch tier. An uplink can be a stack, a LAG, or a VLT LAG. Its bandwidth must accommodate the expected throughput between host ports and storage ports on the SAN. Virtual link trunking (VLT) – A Force10 feature which enables the LAG of an edge device to link to two separate upstream switches (referred to as VLT peer switches) in a loop-free topology without the need for a Spanning Tree protocol. VLT domain – Refers to the VLT peer switches, the VLT interconnect, and any VLT LAG. VLT LAG – A port channel which links VLT peer switches to edge devices. VLTi – The VLT interconnect used to synchronize states between VLT peer switches. 179 2 Concept Overview 2.1 PowerEdge M1000e blade chassis solution The following section describes the M1000e blade chassis networking Fabrics consisting of I/O modules, a midplane, and the individual blade server network adapters. 2.1.1 Multiple Fabrics Each M1000e can support up to three separate networking Fabrics that interconnect ports on each blade server to a pair of blade I/O modules within each chassis Fabric through a passive chassis midplane. Each Fabric is associated with specific interfaces on a given blade server. Each blade server has a LAN on Motherboard (LOM) or a Network Daughter Card (NDC) that is mapped to the blade IOM located in the Fabric A slots in the M1000e chassis. In addition, each blade server has two mezzanine sockets for adding additional networking options such as 1 Gb or 10 Gb Ethernet, Infiniband, or Fibre Channel cards. These mezzanine cards are mapped to either the Fabric B or the Fabric C blade IOM. Figure 1 illustrates the layout of the three Fabric blade IOMs located in the back of the M1000e chassis. Figure 1 Blade I/O Modules and M1000e Chassis 180 2 .1.2 Blade I/O modules The following table lists the 10 GbE blade I/O module options (available at the time of this publication) and the number of ports available for EqualLogic SAN solutions. Table 1 1 GbE Blade I/O Module options for EqualLogic 10 GbE external ports 40 GbE ports Force10 MXL Up to 24 Up to 6 PowerEdge M I/O Aggregator Up to 24 Up to 6 10 GbE Pass-through 16 N/A PowerConnect M8428-k* 8 N/A PowerConnect M8024-k* Up to 8 N/A * Only the Force10 MXL, the PowerEdge M I/O Aggregator and the 10 GbE Pass-through IOM were tested for this white paper, not the PowerConnect M8428-k or the PowerConnect M8024-k. 2.2 EqualLogic SAN Architecture Figure 1 illustrates the basic SAN components involved when deploying an M1000e blade chassis with blade servers into an EqualLogic PS Series array SAN. When creating the SAN to connect blade server network ports to storage array member network ports, the SAN might consist of only blade IOM switches, only ToR switches, or both switch types together in two separate tiers. Note that the blade servers connect to the blade IOM switches internally with no cabling required. Blade servers can also be directly connected to ToR switches if the blade IOM switches are replaced with pass-through IOM. It is a best practice to create a redundant SAN fabric using at least two switches, with PS Series array members and storage hosts each having connections to more than one switch. To unify the SAN fabric, the switches must be interconnected to create a single layer 2 SAN Fabric over which all PS Series array member network ports and host ports can communicate with each other. This switch interconnection can be a stack, a LAG, or a VLT interconnect (VLTi). SAN traffic will often have to cross the switch interconnect since iSCSI connections are distributed across all available host network ports by the EqualLogic Host Integration Toolkit. Assuming a worst case scenario of 100% of all SAN traffic crossing the switch interconnect in both directions (half going one way and half going the other) the interconnect bandwidth requirements are 50% of the aggregate bandwidth of all active PS Series array member ports. For example, four array members with one active 10 GbE port each would require 20 Gbps of interconnect bandwidth. If there are blade IOM switches and ToR switches in the SAN, these two switch tiers will need to be connected by an uplink, which can be a stack (if there is stack compatibility between the blade IOM and ToR switch types), a LAG, or a VLT LAG (if there is a VLT interconnect between the ToR switches). Uplink bandwidth should be at least equal to the aggregate bandwidth of all active PS Series array member ports. 181 182 2.3 Data Center Bridging DCB standards are enhancements to IEEE 802.1 bridge specifications to support multiple protocols and applications in the data center. They support converged infrastructure implementations to carry applications and protocols on a single physical infrastructure. For more information on using DCB with EqualLogic SANs see Data Center Bridging: Standards, Behavioral Requirements, and Configuration Guidelines with Dell EqualLogic iSCSI SANs at http://en.community.dell.com/dell- groups/dtcmedia/m/mediagallery/20283700/download.aspx. 2.3.1 IEEE DCB technologies • Data Center Bridging Exchange Protocol (DCBX), IEEE 802.1Qaz – Discovery and configuration of devices that support PFC, ETS • Enhanced Transmission Selection (ETS), IEEE 802.1Qaz - bandwidth allocation per traffic class and sharing • Priority Based Flow Control (PFC), IEEE 802.1Qbb – ability to pause individual traffic classes and enable lossless behavior • Quantized Congestion Notification (QCN), IEEE 802.1Qau - end-to-end flow control in a L2 network to eliminate sustained congestion caused by long lived flows 2.3.2 Minimum requirements for iSCSI in converged I/O environments with DCB Table 2 The minimum requirements for iSCSI in converged I/O environments with DCB DCB Technology Requirement Standards Version Purpose DCBX Required with support IEEE 802.1Qaz-2011 Discovery, configuration and for iSCSI application mismatch resolution priority ETS Required with iSCSI IEEE 802.1Qaz-2011 Minimum bandwidth allocation per mapped to dedicated traffic class during contention and traffic class or priority additional bandwidth allocation group during non-contention PFC Required with PFC IEEE 802.1Qbb-2011 Independent traffic priority pausing turned on for iSCSI and enablement of lossless traffic along with lossless classes queue support 183 2.4 Dell Active Infrastructure Dell’s Active Infrastructure is a family of converged infrastructure offerings that combine servers, storage, networking, and infrastructure management into an integrated system that provides general purpose virtual resource pools for applications and private clouds. These systems blend intuitive infrastructure management, an open architecture, flexible delivery models, and a unified support model to allow IT to rapidly respond to dynamic business needs, maximize efficiency, and strengthen IT service quality. Active Infrastructure includes vStart, as well as Active System, a new converged infrastructure offering from Dell. Designed from the ground up as a converged infrastructure system, Active System integrates new unified infrastructure management, a new plug-and-play blade chassis I/O module – the PowerEdge M I/O Aggregator, modular servers and storage, and a converged LAN/SAN fabric. Key to Active System is Active System Manager, an intelligent and intuitive converged infrastructure manager that leverages templates to automate infrastructure on-boarding and re-configuration. This automation greatly simplifies and speeds up operations while also significantly reducing errors associated with manual configuration. The result is better infrastructure quality with fewer costly configuration errors. 2 .4.1 Dell Active System Manager Active System Manager is a workload-centric converged infrastructure manager that streamlines infrastructure configuration and on-going management. Active System Manager is a member of the Active Infrastructure Family and supports Active System compliant environments, which may be pre-integrated, based on a reference architecture or custom built using the Active System Matrix. Below is a list of technical capabilities that customers can expect: • Template-based provisioning and automated configuration to easily encapsulate infrastructure requirements and then predictably apply those requirements based on workload needs • Management of the entire lifecycle of infrastructure, from discovery and on-boarding through provisioning, on-going management and decommissioning • Workload failover, enabling rapid and easy migration of workload to desired infrastructure resources • Wizard-driven interface, with feature-guided, step-by-step workflows • Graphical logical network topology view and extended views of NIC partitions 2.4.2 Active System 800 The first pre-integrated offering from Active System is the Active System 800. In addition to Active System Manager for intuitive infrastructure management, and PowerEdge I/O Aggregator for simplified networking and a converged iSCSI fabric using DCB, Active System 800 incorporates EqualLogic PS6110 storage showcasing fluid data and PowerEdge M620 blade servers for modular compute, all inside the most power efficient blade chassis on the market today, the M1000e. It provides an ideal foundation for private cloud and comes complete with turnkey integration services and unified single-number support. 184 3 Summary of SAN designs and recommendations This section provides the high level conclusions reached after the course of comprehensive lab testing and analysis of various EqualLogic PS Series array SAN designs which incorporate M1000e blade server hosts on a 10 GbE network. The following assumptions were made: • Two SAN ports per host • Two Force10 MXL, two PowerEdge M I/O Aggregators, or two 10 GbE pass-through I/O modules per blade chassis • Two Force10 S4810P ToR switches (if the design includes ToR switches) For complete results and recommendations see Section 5 titled, “Detailed SAN design analysis and recommendations”. For an illustration of each SAN design see Section 4 titled, “Tested SAN designs”. Table 3 Summary of SAN designs and recommendations Switch tier topology Administration Performance High availability Scalability MXL with Single • No ToR • Equivalent • Blade IOM • Supports up to 16 LAG switches performance switch failure array members interconnect required and bandwidth reduces host using 2x 40 GbE • Fewest cables ports by 50% expansion • VLT not modules per supported blade switch • 4x 40 GbE ports available if using 8 array members or less S4810P with Single • No blade IOM • Equivalent • ToR switch • Supports up to 16 VLTi switches performance failure reduces array members required and bandwidth host ports by with no • VLT supported 50% expansion modules required • 32x 10 GbE and 4x 40 GbE ports available S4810P with Multiple • Four switches • Equivalent • VLT LAG • Supports up to 16 VLTi / MXL to manage performance preserves host array members with VLT LAG • Uplink and bandwidth connectivity with no uplinks configuration during ToR expansion required switch failure modules required • 48x 10 GbE and 4x 40 GbE ports available 185 Switch tier Administration Performance High availability Scalability topology Active Multiple • Pre-integrated • Equivalent • VLT LAG • Supports up to 16 System 800 - Active System performance preserves host array members - 800 and bandwidth connectivity using 1x 40 GbE S4810P with configuration during ToR expansion VLTi / IOA • Rapid switch failure module per blade with VLT LAG deployment switch uplinks with Active • 48x 10 GbE and System 4x 40 GbE ports Manager available 3 .1 Administration When reducing administrative overhead is the primary goal, a single switch tier design with a stacked interconnect is the simplest option. Because the storage is directly attached to the blade IOM switches, fewer cables are required than with the ToR switch only design, and the stacked interconnect allows the switches to be administered as a single switch. If the availability of the SAN is critical, a LAG or VLTi interconnect is recommended over stacking. If a switch interconnect is stacked, then a switch stack reload (required for tasks such as switch firmware updates) will temporarily make the SAN unavailable. In this case, SAN downtime for switch firmware updates would have to be scheduled. DCB configuration should be configured at a single source switch at the core, aggregation, or ToR switch tier and allowed to flow down via DCBX to blade IOM switches, CNAs, and EqualLogic PS Series array members. If ToR switches from a different vendor are used, the simplest choice is to implement the ToR only design by cabling M1000e pass-through IOM directly to the ToR switches. If multiple switch tiers are desired, plan for an uplink LAG using the high bandwidth ports of the blade IOM switches. Lastly, the pre-integrated Active System 800 converged infrastructure offering provides a compelling mix of flexibility, manageability and simplicity. Taking advantage of the simplified behavior of the PowerEdge M I/O Aggregator and the features of the Active System Manager application, Active System 800 provides a solid foundation for a virtualized private cloud. 3 .2 Performance The throughput values were gathered during the performance testing of each SAN design with four hosts and four arrays members using three common workloads. Among all SAN designs, there were no significant performance differences measured for any of the three tested workloads. 186 3 .3 High availability ToR switch failures always collapse the fabric to a single switch as array member network ports failover to the remaining ToR switch. Host connectivity can be preserved during a ToR switch failure with redundant VLT LAG uplinks from the blade IOM switches. This is made possible by having a VLTi interconnect between the ToR switches, rather than a standard LAG. Stacked interconnects should be avoided because the SAN becomes unavailable during a switch stack reload. Blade IOM switch failures always result in a loss of 50% of the host ports and in multiple-tier SAN designs a 50% loss in uplink bandwidth. 3 .4 Scalability All tested SAN designs can support up to 16 array members and provide adequate bandwidth within the SAN. While the Blade IOM only SAN design has no ports remaining for additional connectivity or uplinks when using 16 array members, the other three SAN designs have ample ports remaining for additional edge device connectivity and high bandwidth uplinks to a core switch. Considering the fact that the Force10 S4810 supports VLT and doesn’t require expansion modules, the simple ToR switch only SAN design is an excellent option. It creates a robust aggregation layer that accepts highly available VLT LAG from downstream edge devices and switches and also from the upstream Layer 3 core. Note: The scalability data presented in this paper is ba sed primarily on available port count. Actual workload, host to array port ratios, and other factors may affect performance. 187 4 Tested SAN designs This section describes each tested M1000e blade chassis SAN design in detail including diagrams and a table for comparison of important values such as bandwidth, maximum number of supported array members, and the host to storage port ratio. The information below assumes a single M1000e chassis and 16 half- height blade servers with two network ports each. There are three categories of SAN designs for M1000e blade chassis integration: 1. Blade IOM switch only – Network ports of both the hosts and storage are connected to the M1000e blade IOM switches. No ToR switches are required. The switch interconnect can be a stack or a LAG, and no uplink is required. 2. ToR switch only – Network ports of both the hosts and the storage are connected to external ToR switches. 10 GbE pass-through IOM are used in place of blade IOM switches in the M1000e blade chassis. The switch interconnect can be a stack, a LAG, or a VLTi. 3. Blade IOM switch with ToR switch – Host network ports are connected to the M1000e blade IOM switches and the storage network ports are connected to ToR switches. The switch interconnect can be a stack, a LAG, or a VLTi and should connect the ToR switch to better facilitate inter-array member traffic. An uplink stack, LAG or VLT LAG from the blade IOM switch tier to the ToR switch tier is also required. 4 .1 Blade IOM switch only This SAN design category includes configurations in which the EqualLogic PS Series array member ports are directly connected to the blade IOM switch ports within the blade chassis. For this SAN design, dual Force10 MXL switches in the M1000e chassis were used. A LAG interconnect was chosen for highest SAN availability and because the Force10 MXL did not support VLT at the time of writing. 4 .1.1 Force10 MXL with LAG interconnect This SAN design provides 80 Gbps of interconnect bandwidth between the two MXL switches using two integrated 40 GbE QSFP ports on each switch to create a LAG. Since there is only a single tier of switches, there is no uplink to ToR switches. Using two 40 GbE QSFP expansion modules per MXL switch and 40 GbE to four 10 GbE breakout cables allows sixteen 10 GbE SFP+ external connections on each switch (32 total) which can accommodate the connection of sixteen 10 GbE PS series array members, each of which requires two ports for the active and passive controllers combined. However, when using 16 array members there will be no remaining 40 GbE QSFP ports available on the MXL switch for creating an uplink to a core switch, and the SAN itself would be isolated. The host/storage port ratio with the maximum number of array members is 2:1. The following diagram illustrates how four PS6110XV array members directly connect to the two MXL switches in Fabric C of the M1000e blade chassis and how the two MXL switches are connected by a LAG using two 40 GbE QSFP ports on each switch. This network design requires the use of two 40 GbE expansion modules in each of the MXL switches. Note that the port on the passive storage controller is connected to a different switch than the port on the active storage controller, ensuring that the port-based failover of the PS6110 array member will connect to a different switch upon port, cable or switch failure. The management network is shown for reference. 188 Figure 3 Force10 MXL with LAG interconnect 189 4.2 ToR switch only These SAN designs include configurations where the storage ports and blade server host ports are directly connected to ToR switches. A 10 GbE pass-through IOM rather than a blade switch is used to connect the host ports to the ToR switches. For this SAN design, dual Force10 S4810P switches were used as the ToR switch. Because a stacked interconnect makes the SAN unavailable during stack reloads and because the S4810P switches support VLT, a VLTi was used to connect the two ToR switches. When operating as VLT domain peers, the ToR switches appear as a single virtual switch from the point of view of any connected switch or server supporting Link Aggregation Control Protocol (LACP). 4.2.1 Force10 S4810P with VLTi This SAN design provides 80 Gbps of interconnect bandwidth between the two S4810P switches using two 40 GbE QSFP ports on each switch to create a VLTi. Since the pass-through module is connecting to the ToR switches separately for each blade host there is no uplink required. Sixteen 10 GbE SFP+ ports on each ToR switch are required for the connections of the 16 hosts with two network ports each. The remaining 32 ports on each S4810P (64 ports total) can easily accommodate the connection of sixteen 10 GbE PS Series array members, each of which requires two ports for the active and passive controllers combined. Two 40 GbE QSFP ports per S4810P switch are available for uplinks to a core switch. The host/storage port ratio with the maximum number of array members is 2:1. The following diagram illustrates how four PS6110XV array members directly connect to the two ToR S4810P switches and how the two switches are connected by a VLTi using two 40 GbE QSFP ports on each switch. It also shows the connection of four server blades each with two host ports to the S4810P switches using the 10 GbE pass-through IOM in Fabric C of the M1000e chassis. Note that the port on the passive storage controller is connected to a different switch than the port on the active storage controller. This ensures that the port-based failover of the PS6110 array member will connect to a different switch upon port, cable, or switch failure. The management network is shown for reference. 190 Figure 4 Force10 S4810P with VLTi 191 4.3 Blade IOM switch with ToR switch These SAN designs include configurations in which the EqualLogic PS Series array member ports are connected to a tier of ToR switches while the server blade host ports are connected to a separate tier of blade IOM switches in the M1000e blade chassis. With the multiple switch tier designs, it is a best practice to connect all array member ports to the ToR switches and not the blade IOM switches in the M1000e chassis. This allows the M1000e chassis to scale independently of the array members. The ToR switches rather than the blade IOM switches are interconnected by a stack, a LAG, or a VLTi to better facilitate inter-array member communication. The switch tiers themselves are connected by an uplink stack, LAG, or VLT LAG. For the two SAN designs in this category, Force10 S4810P switches were used as the ToR switches while two different blade IOM switches were tested – the Force10 MXL and the PowerEdge M I/O Aggregator. Note that because the S4810P switch is not stack compatible with either the MXL or the M I/O Aggregator, SAN designs with stacked uplinks were not possible. Because a stacked interconnect makes the SAN unavailable during stack reloads and because the S4810P switches support VLT, a VLTi was used to connect the two ToR switches. When operating as VLT domain peers, the ToR switches appear as a single virtual switch from the point of view of any connected switch or server supporting LACP. 4 .3.1 Force10 S4810P with VLTi / MXL with VLT LAG uplinks This SAN design uses two of the four integrated 40 GbE QSFP ports on each Force10 S4810P to create a VLTi between each ToR switch. 40 GbE to four 10 GbE breakout cables were used to uplink the Force10 MXL switches to the ToR switches to save two integrated 40 GbE QSFP ports on each S4810P for VLT LAG uplinks to core switches. Because the ToR switches are operating as VLT domain peers, each MXL LAG can connect to both ToR switches in a redundant but loop-free topology. This SAN design provides 160 Gbps of uplink bandwidth while providing 80 Gbps of interconnect bandwidth, more than enough to accommodate the maximum theoretical traffic of sixteen 10 GbE PS Series array members. Even with 16 array members, each of which requires two ports for the active and passive controllers combined, switch port count is not an issue. The host/storage port ratio with the maximum number of array members is 2:1. The following diagram illustrates how four PS6110XV array members connect to the two ToR S4810P switches, how the ToR switches are interconnected with a VLTi, and how each MXL is connected to both ToR switches with a VLT LAG. Note that the port on the passive storage controller is connected to a different switch than the port on the active storage controller, ensuring that the port-based failover of the PS6110 array member will connect to a different switch upon port, cable, or switch failure. The management network is shown for reference. 192 Figure 5 Force10 S4810P with VLTi / MXL with VLT LAG uplinks 193 4.3.2 Active System 800 - Force10 S4810P with VLTi / PowerEdge M I/O Aggregator with VLT LAG uplinks This SAN design uses two of the four integrated 40 GbE QSFP ports on each Force10 S4810P to create a VLTi between each ToR switch. Eight 10 GbE SFP+ ports will need to be set aside on each S4810P switch to provide a 160 Gbps uplink from the two PowerEdge M I/O Aggregators (IOA). This is because the IOA only supports using its integrated 40 GbE QSFP ports for interconnect stacking and because it only supports 40 GbE to four 10 GbE breakout cables for use with the other expansion module 40 GbE QSFP ports. Note that stacking the IOA is only supported when using Active System Manager for administrative setup. Because the ToR switches are operating as VLT domain peers, each IOA LAG can connect to both ToR switches in a redundant but loop-free topology. Two 40 GbE QSFP ports per S4810P switch are available for uplinks to a core switch. This SAN design provides 160 Gbps of uplink bandwidth while providing 80 Gbps of interconnect bandwidth; more than enough to accommodate the maximum theoretical traffic of 16 10 GbE PS Series array members. Even with 16 array members, each of which requires two ports for the active and passive controllers combined, switch port count is not an issue. The host/storage port ratio with the maximum number of array members is 2:1. The following diagram illustrates how four PS6110XV array members connect to the two ToR S4810P switches, how the ToR switches are interconnected with a VLTi, and how each IOA is connected to both ToR switches with a VLT LAG. Note that the port on the passive storage controller is connected to a different switch than the port on the active storage controller, ensuring that the port-based failover of the PS6110 array member will connect to a different switch upon port, cable, or switch failure. The management network is shown for reference. 194 Figure 6 Active System 800 -- Force10 S4810P with VLTi / IOA with VLT LAG uplinks 195 4.4 Summary table of tested SAN designs The following table assumes one fully populated M1000e blade chassis with 16 half-height blade servers each using two network ports (32 host ports total) and the maximum number of PS Series array members accommodated by the available ports of the array member switches -- either dual ToR S4810P switches or dual MXL switches in a single M1000e blade chassis I/O Fabric. In single switch tier designs, increasing the number of total host ports per chassis decreases the number of ports available for array member port connection. Total host ports can be increased either by increasing the number of host ports per server blade or increasing the number of blade servers per chassis. Table 4 A comparison of all tested SAN designs Array Port ratio Host member Total Total inter- Maximum Maximum number of with switch switch uplink connect number of maximum array type type bandwidth bandwidth hosts members hosts/array members MXL with LAG Blade Blade N/A 80 Gbps 16 16 2:1 interconnect S4810P with ToR ToR N/A 80 Gbps 16 16 2:1 VLTi S4810P with Blade ToR 160 Gbps 80 Gbps 16 16 2:1 VLTi / MXL with VLT LAG uplinks Active System Blade ToR 160 Gbps 80 Gbps 16 16 2:1 800 -- S4810P with VLTi / IOA with VLT LAG uplinks 196 5 Detailed SAN design analysis and recommendations The following section examines each M1000e blade chassis and EqualLogic PS Series SAN design from the perspectives of administration, performance, high availability, and scalability. In addition, SAN bandwidth, host to storage port ratios, and SAN performance and high availability test results are provided as a basis for SAN design recommendations. 5 .1 Administration In this section, SAN designs are evaluated by the ease of hardware acquisition and installation as well as initial setup and ongoing administration. Administrative tasks such as physical installation, switch configuration, and switch firmware updates play a role in determining the merits of a particular SAN design. The following paragraphs provide a list of common administration considerations and how each is affected by SAN design choice. 5 .1.1 Uplinks and interconnects One characteristic that all SAN designs share is the requirement for connections between switches. Even designs with a single tier of switches, like the blade IOM only designs, still have a switch interconnect. For multiple switch tier designs, the uplink between switch tiers needs sufficient bandwidth to prevent constraining the throughput of SAN traffic. High bandwidth ports or proprietary stacking ports are the best solution for an interconnect or an uplink and should be used whenever possible. The Force10 S4810P, the Force10 MXL, and the PowerEdge M I/O Aggregator all have integrated 40 GbE QSFP ports which can be used to create high bandwidth interconnects. Keep in mind that the integrated ports on the IOA can only be used for a stacked interconnect. The high bandwidth integrated ports on the S4810P and MXL can also be used for creating uplinks. However, uplinks from the IOA can only be created using 40 GbE QSFP expansion modules and 40 GbE to 10 GbE breakout cables or using 10 GbE SFP+ expansion modules. From an administrative perspective, a switch stack may be preferred because it allows the administration of multiple switches as if they were one physical unit. On the Force10 switches, the initial stack is defined by configuring the correct cabling and completing a few simple steps. Then, all other tasks such as enabling flow control or updating firmware must be done only once for the entire stack. One important thing to note is that the reloading of a switch stack will bring down all switch units in the stack simultaneously. This means that the SAN becomes unavailable during a stack reload if the switch interconnect is stacked. The resulting SAN downtime must be scheduled. Another important note is that the S4810P is not stack compatible with either the MXL or the IOA, so for these devices creating stacked uplinks is not possible. A second high bandwidth option for switch uplinks and interconnects is a link aggregation group (LAG). Multiple switch ports are configured to act as a single connection to increase throughput and provide redundancy, but each individual switch must still be administered separately. Creating a LAG between two Force10 switches using LACP is a very straightforward process and administrative complexity is not a concern. Lastly, there is a Force10 feature called virtual link trunking (VLT) which enables switch interconnects and uplinks of a special type. For example, a VLT interconnect (VLTi) between two ToR S4810P switches 197 enables an uplink LAG from a blade IOM switch to link to both ToR switches (referred to as VLT peer switches) in a loop-free topology. VLT reduces the role of Spanning Tree protocols by allowing LAG terminations on two separate distribution or core switches, and by supporting a loop free topology. A Spanning Tree protocol is still needed to prevent the initial loop that may occur prior to VLT being established. After VLT is established, RSTP may be used to prevent loops from forming with new links that are incorrectly connected and outside the VLT domain. When operating as VLT domain peers, the ToR switches appear as a single virtual switch from the point of view of any connected switch or server supporting LACP. This has many benefits including high availability, the use of all available uplink bandwidth, and fast convergence if either the link or the device fails. For more information on VLT, see the FTOS Configuration Guide for the S4810 System. VLT is not currently supported on the Force10 MXL or the PowerEdge M I/O Aggregator. 5 .1.2 Force10 MXL vs. PowerEdge M I/O Aggregator Though physically identical and very similar in functionality, the MXL and the IOA blade IOM switches run different firmware and have different features and behavior. The MXL switch requires complete configuration prior to deployment while the IOA has a set of default behavior meant to simplify deployment and to be easily integrated into Active System converged infrastructure. IOA default behavior includes the following: • All ports are active and configured to transmit tagged and untagged VLAN traffic • External and internal port roles are set to receive DCB configuration from upstream switches and to propagate to connected blade servers • All 40 GbE QSFP ports operate in 4x10GbE mode • Stacking is disabled • All uplink ports are configured in a single LAG (LAG 128) • iSCSI optimization is enabled • Jumbo frames are enabled 5 .1.3 DCB configuration It is a best practice to configure desired DCB settings at the core, aggregation, or ToR switches and allow DCBX to propagate the DCB configuration to edge devices such as initiators (NICs with software initiators/CNAs), PS Series array members, and downstream switches such as the blade IOM switches. Instructions for enabling and configuring DCB on a Force10 S4810P can be found in the following Dell Tech Center document: http://en.community.dell.com/techcenter/storage/w/wiki/4250.switch-configuration-guides-by-sis.aspx 5.1.4 Active System Much of the complexity of deploying a blade chassis and EqualLogic SAN is alleviated by Active System Manager. ASM has the following features: • Template-based provisioning and automated configuration to easily encapsulate infrastructure requirements and then predictably apply those requirements based on workload needs 198 • Management of the entire lifecycle of infrastructure, from discovery and on-boarding through provisioning, on-going management and decommissioning • Workload failover, enabling rapid and easy migration of workload to desired infrastructure resources • Wizard-driven interface, with feature-guided, step-by-step workflows • Graphical logical network topology view and extended views of NIC partitions As an official Active System offering, the Active System 800 configuration provides an ideal foundation for private cloud and comes complete with turnkey integration services and unified single-number support. Active System integration services provide a complete end-to-end deployment including switch configuration, DCB enablement, EqualLogic PS Series array member initialization, blade enclosure/server setup, and hypervisor installation. 5.1.5 Hardware requirements The SAN design will determine the type and quantity of hardware and cabling required. Implementing a multiple tier switch SAN design will require at least twice the number of switches as more simple designs. A blade IOM switch only SAN design requires the fewest cables, with only the array member ports and a single interconnect stack or LAG at the M1000e chassis to cable. The blade IOM switch with ToR switch SAN designs require the addition of two uplink stacks, LAGs, or VLT LAGs. The ToR switch only designs (with pass-through IOM) need a stack, LAG, or VLTi interconnect as well as a cable for each of the host ports; up to 32 cables for an M1000e chassis with 16 half-height blade servers with two host ports per server. 5 .1.6 Using alternate switch vendors While the choice of switches for use within an M1000e blade chassis is limited to the blade IOM product offering, ToR switches can be of any type or vendor. So for example if a SAN consisting of EqualLogic PS Series array members and an M1000e blade chassis were being deployed in a datacenter with an existing layer of non-Dell switches, there are blade IOM switch with ToR switch designs and ToR switch only designs which could accommodate such a scenario. For more information on EqualLogic SAN components see the EqualLogic Compatibility Matrix at http://en.community.dell.com/techcenter/storage/w/wiki/2661.equallogic-compatibility-matrix.aspx. 5 .1.7 Recommendations In summary, when reducing administrative overhead is the primary goal, a single switch tier design with a stacked interconnect is the simplest option. Because the storage is directly attached to the blade IOM switches, fewer cables are required than with the ToR switch only design, and the stacked interconnect allows the switches to be administered as a single switch. If the availability of the SAN is critical, a LAG or VLTi interconnect is preferred over stacking. If a switch interconnect is stacked, then a switch stack reload (required for tasks such as switch firmware updates) will temporarily make the SAN unavailable. In this case, SAN downtime for firmware updates would have to be scheduled. 199 DCB configuration should be configured at a single source switch at the core, aggregation, or ToR switch tier and allowed to flow down via DCBX to blade IOM switches, CNAs, and EqualLogic PS Series array members. If ToR switches from a different vendor are used, the simplest choice is to implement the ToR only design by cabling M1000e pass-through IOM directly to the ToR switches. If multiple switch tiers are desired, plan for an uplink LAG using the high bandwidth ports of the blade IOM switches. Lastly, the pre-integrated Active System 800 converged infrastructure offering provides a compelling mix of flexibility, manageability and simplicity. Taking advantage of the simplified behavior of the PowerEdge M I/O Aggregator and the features of the Active System Manager application, Active System 800 provides a solid foundation for a virtualized private cloud. 5 .2 Performance The second criterion by which SAN designs will be evaluated is their performance relative to each other. This section reports the performance results of each SAN design under three common I/O workloads. Note: The results provided in this paper are intended f or the purpose of comparing the specific configurations used in our lab environment. The results do not portray the maximum capabilities of any system, software, or storage. 5 .2.1 Test environment In order to determine the relative performance of each SAN design we used the performance tool, vdbench, to capture throughput values at three distinct I/O workloads. Vdbench is “a disk and tape I/O workload generator for verifying data integrity and measuring performance of direct attached and network connected storage.” (http://sourceforge.net/projects/vdbench/) Since this project consists of network designs which converge SAN and LAN traffic using DCB, each vdbench test run was accompanied by a base level of LAN traffic generated by iperf, a tool used to measure maximum TCP and UDP bandwidth performance. (http://sourceforge.net/projects/iperf/) Each performance test was conducted with the hardware and software listed below. Note: All EqualLogic SAN best practices, such as enab ling flow control and Jumbo frames, were implemented. See Appendix A for more detail about the hardware and software infrastructure. See Appendix 0 for a list of vdbench and iperf parameters 5.2.1.1 Hosts: • Four PowerEdge M620 blade servers each with: - Windows Server 2008 R2 SP1 - Dell EqualLogic Host Integration Toolkit v4.0.0 - Two Broadcom BCM57810 10Gb ports with iSCSI Offload Engine enabled and separate IP address configured for SAN and LAN 200 5 .2.1.2 Storage: • Four EqualLogic PS6110XV array members each with: - Firmware: 6.0.2 - One active 10 GbE ports on the SAN • Four iSCSI volumes dedicated to each host Note: There were a total of eight host ports and four st orage ports for a 2:1 ratio. 5 .2.1.3 I/O The following three vdbench workloads were defined: • 8 KB transfer size, random I/O, 67% read • 256 KB transfer size, sequential I/O, 100% read • 256 KB transfer size, sequential I/O, 100% write Each vdbench workload was run for thirty minutes and the I/O rate was not capped (the vdbench “iorate” parameter was set to “max”). The throughput values used in the relative performance graphs are the sums of the values reported by each of the four hosts. Each host ran one instance of iperf server and one instance of iperf client. Hosts ran iperf traffic in pairs such that one of the network ports on each host acted as an iperf server and the other network port acted as an iperf client, thus ensuring that LAN traffic was evenly distributed across the host network ports. Table 5 An example distribution of iperf LAN traffic Host 1 NIC1 (client)  Host 2 NIC1 (server) Host 1 NIC2 (server)  Host 2 NIC2 (client) 5.2.1.4 DCB The following table lists the DCB configuration in place during performance testing. Table 6 DCB configuration Traffic Class DCB Traffic Class 802.1p QoS ETS Bandwidth Settings PFC setting iSCSI 1 4 60 Lossless OTHER 2 0,1,2,3,5,6,7 40 Non-lossless 201 5.2.2 Bandwidth The following table shows the uplink and interconnect bandwidth of each tested SAN design. Each of the single switch tier designs provide adequate interconnect bandwidth for the maximum number of array members that their ports can accommodate. Table 7 A comparison of the bandwidth provided by all SAN designs Total uplink bandwidth Total interconnect bandwidth MXL with LAG interconnect N/A 80 Gbps S4810P with VLTi N/A 80 Gbps S4810P with VLTi / MXL with VLT LAG uplinks 160 Gbps 80 Gbps Active System 800 160 Gbps 80 Gbps S4810P with VLTi / IOA with VLT LAG uplinks 5.2.3 Results The following three figures show the relative aggregate vdbench throughput of all four hosts within each SAN design at three different I/O workloads. Each throughput value is presented as a percentage of a baseline value. In each chart, the MXL with LAG interconnect design was chosen as the baseline value. All of the throughput values were achieved during a single thirty minute test run. 8 KB random I/O, 67% read workload The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at an 8 KB random I/O, 67% read workload. The SAN designs yielded throughput results within 2% of the baseline value. Figure 7 Aggregate vdbench throughput as a percentage of the baseline value in each SAN design during an 8 KB random I/O, 67% read workload 202 256 KB sequential I/O, read workload The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at a 256 KB sequential I/O, read workload. The SAN designs yielded throughput results within 5% of the baseline value. Figure 8 Aggregate Vdbench throughput as a percentage of the baseline value in each SAN design during a 256 KB sequential I/O, read workload 256 KB sequential I/O, write workload The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at a 256 KB sequential I/O, write workload. The SAN designs yielded throughput results within 8% of the baseline value. 203 Figure 9 Aggregate Vdbench throughput as a percentage of the baseline value in each SAN design during a 256 KB sequential I/O, write workload 5 .2.4 Recommendations The throughput values were gathered during the performance testing of each SAN design with four hosts and four arrays members at three common workloads. Among all SAN designs, there were no significant performance differences during any of the three tested workloads. 5 .3 High availability The third criterion by which SAN designs will be evaluated is how each design tolerates a switch failure. This section quantifies how the loss of different switches within the SAN fabric affects the available bandwidth and the total number of connected host ports. The results below assume a single M1000e chassis and 16 half-height blade servers with two SAN ports each for a total of 32 host ports. Note that storage port disconnection is not addressed i n the tables because the PS6110XV controller port failover ensures that no single switch failure will cause the disconnection of any array member ports. For more information on EqualLogic PS Series failover features and behavior see the EqualLogic Configuration Guide at: http://en.community.dell.com/dell-groups/dtcmedia/m/mediagallery/19852516/download.aspx To test SAN design high availability, an ungraceful switch power down was executed while the SAN was under load. The test environment was the same as the environment that was used during performance testing, and the workload was 256 KB sequential I/O write using vdbench. LAN traffic was generated with iperf. In cases where host ports were disconnected, iSCSI connections were appropriately migrated to the remaining host ports. In these cases, even with the loss of 50% of the host ports there was at least a 1:1 host/storage port ratio. 204 5.3.1 ToR switch failure The following table shows how each SAN design is affected by the loss of a ToR switch. Note that this failure is not applicable to the blade IOM switch only designs in which both host and storage ports are connected to blade IOM switches. In the ToR switch only SAN design, a ToR switch failure reduces the number of connected host ports by 50% since the host ports connect directly to the ToR switches using a pass-through module. In multiple-tier SAN designs, all host port connections can be maintained during a ToR switch failure when the ToR switch interconnect is a VLTi. This allows each blade switch uplink LAG to be distributed across both ToR switches, maintaining each blade switch’s connectivity in the event of a ToR switch failure. However, the loss of 50% of uplink bandwidth in the event of a ToR switch failure cannot be avoided in multiple switch tier SAN designs. Interconnect bandwidth becomes irrelevant after a ToR switch failure in all applicable SAN designs as all array member ports migrate to the remaining ToR switch to which all remaining host ports have either a direct or an uplinked connection. Table 8 A comparison of the way each SAN designs tolerates a ToR switch failure Reduction in connected host Reduction in uplink Reduction in inter- ports bandwidth connect bandwidth MXL with LAG N/A N/A N/A interconnect S4810P with VLTi 32-->16 N/A 80Gbps-->N/A** S4810P with VLTi / MXL 32-->32 160Gbps-->80Gbps 80Gbps-->N/A** with VLT LAG uplinks Active System 800 32-->32 160Gbps-->80Gbps 80Gbps-->N/A** S4810P with VLTi / IOA with VLT LAG uplinks **Interconnect bandwidth is no longer relevant because the ToR switch failure eliminates the interconnect. 5.3.2 Blade IOM switch failure The following table shows how each SAN design is affected by the loss of a blade IOM switch. Note that this failure is not applicable to ToR switch only designs in which both host and storage ports are connected to the ToR switches. In all applicable SAN designs, a blade IOM switch failure reduces the number of connected host ports by 50% and in the multiple switch tier SAN design the uplink bandwidth is also reduced by 50%. Interconnect bandwidth becomes irrelevant after a blade IOM switch failure in a single switch tier SAN design. This is because all array member ports migrate to the remaining blade IOM switch to which the remaining host ports a direct connection. However, the multiple switch tier SAN designs retain all interconnect bandwidth as the interconnect is between the ToR switches and not subject to a blade IOM switch failure. 205 Table 9 A comparison of the way each SAN designs tolerates a blade IOM switch failure Reduction in connected host Reduction in uplink Reduction in inter- ports bandwidth connect bandwidth MXL with LAG 32-->16 N/A 80Gbps-->N/A** interconnect S4810P with VLTi N/A N/A N/A S4810P with VLTi / 32-->16 160Gbps-->80Gbps 80Gbps-->80Gbps MXL with VLT LAG uplinks Active System 800 32-->16 160Gbps-->80Gbps 80Gbps-->80Gbps S4810P with VLTi / IOA with VLT LAG uplinks **Interconnect bandwidth is no longer relevant because the switch failure eliminates the interconnect 5.3.3 Recommendations ToR switch failures always collapse the fabric to a single switch as array member network ports failover to the remaining ToR switch. Host connectivity can be preserved during a ToR switch failure with redundant VLT LAG uplinks from the blade IOM switches made possible by having a VLTi interconnect between the ToR switches, rather than a standard LAG. Stacked interconnects should be avoided because the SAN becomes unavailable during a switch stack reload. Blade IOM switch failures always result in a loss of 50% of the host ports, and in multiple-tier SAN designs a 50% loss in uplink bandwidth. 206 5.4 Scalability The final criterion by which SAN designs will be evaluated is scalability. Note that the scalability data presented in this section is based primarily on available port count. Actual workload, host to array port ratios, and other factors may affect performance. The following tables show the number of host ports and array members, the host/storage port ratio, the number of blade IOM switch expansion modules required and most importantly the total number of SAN ports available for additional edge device connectivity or for a high bandwidth uplink from the converged SAN/LAN to a core switch. The number of available SAN ports includes both ToR switches (or blade IOM switches if no ToR switches are present) and assumes the following: • Two Force10 MXL, two PowerEdge M I/O Aggregator or two pass-through I/O modules per blade chassis, and if applicable, two Force10 S4810P ToR switches • 16 blade servers with two network ports each • 16 array members with one active and one passive network port • 80 Gbps of interconnect bandwidth • 160 Gbps of uplink bandwidth between host and storage tier if applicable Table 10 Scalability information for all SAN designs Host ports Maximum Host / with 16 number of storage Blade switch expansion Total available SAN blade arrays port port count servers members ratio modules required MXL with 32 16 / 8 2:1 / 4:1 2x 40 GbE per None / 4 x 40 GbE* LAG inter- switch connect S4810P 32 16 2:1 None 32 x 10 GbE and 4 x with VLTi 40 GbE S4810P 32 16 2:1 None 64 x 10 GbE or with VLTi / 48 x 10 GbE and 4 x MXL with 40 GbE** VLT LAG uplinks Active 32 16 2:1 1x 40 GbE per 48 x 10 GbE and 4 x System switch 40 GbE** 800 -- S4810P with VLTi / IOA with VLT LAG uplinks * Requires the use of 40 GbE QSFP to 10 GbE SFP+ breakout cables from the blade IOM switch to the PS Series array members 207 ** Requires the use of 40 GbE QSFP to 10 GbE SFP+ breakout cables from the blade IOM switch to the ToR switch A pair of Force10 MXL switches can accommodate up to 16 PS Series array members with no ToR switch using two 40 GbE QSFP expansion modules per switch. However when using 16 array members there will be no remaining 40 GbE QSFP ports for creating an uplink to a core switch, creating an isolated SAN. Two ToR Force10 S4810P switches and two 10GbE pass-through modules in the blade chassis can accommodate up to 16 array members with no expansion modules required. Furthermore, this SAN design has an additional thirty-two 10 GbE ports and four 40 GbE ports available for edge device connectivity and high bandwidth uplinks with no extra hardware needed. Two ToR Force10 S4810P and two Force10 MXL switches can also accommodate up to 16 array members with no expansion modules required. This SAN design has the highest number of available ports - an additional sixty-four 10 GbE ports or, if 40 GbE QSFP to 10 GbE SFP+ breakout cables are used to uplink the MXL to the S4810P, forty-eight 10 GbE ports and four 40 GbE ports. Finally, two ToR Force10 S4810P and two PowerEdge M I/O Aggregator switches can accommodate up to 16 array members, however one 40 GbE QSFP expansion modules per switch and 40 GbE QSFP to 10 GbE SFP+ breakout cables between the IOA and S4810P are required. With this SAN design, forty-eight 10 GbE ports and four 40 GbE ports are available. 5 .4.1 Recommendations In summary, all SAN designs can support up to 16 array members and provide adequate bandwidth within the SAN. While the Blade IOM only SAN design has no ports remaining for additional connectivity or uplinks when using 16 array members, the other three SAN designs have ample ports remaining for additional edge device connectivity and high bandwidth uplinks to a core switch. Considering the fact that the Force10 S4810 supports VLT and doesn’t require expansion modules, the simple ToR switch only SAN design is an excellent option. It creates a robust aggregation layer that accepts highly available VLT LAG from downstream edge devices and switches and also from the upstream Layer 3 core. 208 A Solution infrastructure detail The following table is a detailed inventory of the hardware and software configuration in the test environment. Table 11 A detailed inventory of the hardware and software configuration in the test environment Solution configuration - Hardware components: Description Blade Enclosure Dell PowerEdge M1000e chassis: Storage host enclosure CMC firmware: 4.20 10 GbE Blade (4) Dell PowerEdge M620 server: Storage hosts for configs: Servers Windows Server 2008 R2 SP1 Force10 MXL with LAG BIOS version: 1.4.9 interconnect iDRAC firmware: 1.23.23 Force10 S4810P with VLTi (2) Intel® Xeon® E5-2650 Force10 S4810P with VLTi / MXL 128GB RAM with VLT LAG uplinks Dual Broadcom 57810S-k 10 GbE CNA Force10 S4810P with VLTi / Driver v7.4.23.0 PowerEdge M I/O Aggregator with Firmware v7.4.8 VLT LAG uplinks Dell EqualLogic Host Integration Toolkit v4.0.0 10 GbE Blade I/O (2) Dell Force10 MXL IO modules for configs: modules FTOS v8.3.16.2 Force10 MXL with LAG (2) 40 GbE QSFP expansion module interconnect (2) Dell PowerEdge M I/O Aggregator Force10 S4810P with VLTi FTOS v8.3.17.0 Force10 S4810P with VLTi / MXL (1) 40 GbE QSFP expansion module with VLT LAG uplinks (2) Dell 10 Gb Ethernet Pass-through module Force10 S4810P with VLTi / PowerEdge M I/O Aggregator with VLT LAG uplinks 10 GbE ToR (2) Dell Force10 S4810P Switches for configs: switches FTOS v8.3.12.0 Force10 S4810P with VLTi Force10 S4810P with VLTi / MXL with VLT LAG uplinks Force10 S4810P with VLTi / PowerEdge M I/O Aggregator with VLT LAG uplinks 10 GbE Storage (4) Dell EqualLogic PS6110XV: Storage arrays for configs: (24) 146GB 15K SAS disks – vHN63 Force10 MXL with LAG (2) 10 GbE controllers interconnect Firmware: v6.0.2 Force10 S4810P with VLTi Force10 S4810P with VLTi / MXL with VLT LAG uplinks Force10 S4810P with VLTi / PowerEdge M I/O Aggregator with VLT LAG uplinks 209 B I/O parameters • Vdbench SAN workloads were executed using the following parameters in the parameter file. - Common parameters: hd=default hd=one,system=localhost - iSCSI volumes (random IO): sd=sd3,host=*,lun=\\.\PhysicalDrive3,size=256000m,threads=5 sd=sd4,host=*,lun=\\.\PhysicalDrive4,size=256000m,threads=5 sd=sd5,host=*,lun=\\.\PhysicalDrive5,size=256000m,threads=5 sd=sd6,host=*,lun=\\.\PhysicalDrive6,size=256000m,threads=5 - iSCSI volumes (sequential IO): sd=sd3,host=*,lun=\\.\PhysicalDrive3,size=1m,threads=5 sd=sd4,host=*,lun=\\.\PhysicalDrive4,size=1m,threads=5 sd=sd5,host=*,lun=\\.\PhysicalDrive5,size=1m,threads=5 sd=sd6,host=*,lun=\\.\PhysicalDrive6,size=1m,threads=5 - 8KB 67% read, random I/O workload: wd=wd1,sd=(sd3- sd6),xfersize=8k,rdpct=67 - 256KB read, sequential I/O workload: wd=wd1,sd=(sd3-sd6),xfersize=262144,rdpct=100,seekpct=sequential - 256KB write, sequential I/O workload: wd=wd1,sd=(sd3- sd6),xfersize=262144,rdpct=0,seekpct=sequential - Runtime options: rd=rd1,wd=wd1,iorate=max,elapsed=3600,interval=30 • Iperf LAN workloads were executed using the following parameters at the command line. - Server: iperf.exe –s - Client: iperf.exe –c -i 5 –t 86400 –P 5 210 Additional resources Support.dell.com is focused on meeting your needs with proven services and support. DellTechCenter.com is an IT Community where you can connect with Dell Customers and Dell employees for the purpose of sharing knowledge, best practices, and information about Dell products and your installations. Referenced or recommended Dell publications: • EqualLogic Configuration Guide: http://en.community.dell.com/dell-groups/dtcmedia/m/mediagallery/19852516/download.aspx • EqualLogic Compatibility Matrix (ECM): http://en.community.dell.com/techcenter/storage/w/wiki/2661.equallogic-compatibility- matrix.aspx • EqualLogic Switch Configuration Guides: http://en.community.dell.com/techcenter/storage/w/wiki/4250.switch-configuration-guides-by- sis.aspx • The latest EqualLogic firmware updates and documentation (site requires a login): http://support.equallogic.com • Force10 Switch documentation: http://www.force10networks.com/CSPortal20/KnowledgeBase/Documentation.aspx • PowerConnect Switch documentation: http://support.dell.com • DCB Capability Exchange Protocol Specification Rev 1.0: http://download.intel.com/technology/eedc/dcb_cep_spec.pdf • DCB Capability Exchange Protocol Base Specification Rev 1.01: http://www.ieee802.org/1/files/public/docs2008/az-wadekar-dcbx-capability-exchange- discovery-protocol-1108-v1.01.pdf • IEEE DCB task group: http://www.ieee802.org/1/pages/dcbridges.html • Data Center Bridging: Standards, Behavioral Requirements, and Configuration Guidelines with Dell EqualLogic iSCSI SANs: http://en.community.dell.com/dell-groups/dtcmedia/m/mediagallery/20283700/download.aspx For EqualLogic best practices white papers, reference architectures, and sizing guidelines for enterprise applications and SANs, refer to Storage Infrastructure and Solutions Team Publications at http://dell.to/sM4hJT 211 This white paper is for informational purposes only. The content is provided as is, without express or implied warranties of any kind. 212