Etiqueta: centro de datos

  • El camino de IBM hacia la nube híbrida

    El camino de IBM hacia la nube híbrida

    En su conferencia Interconnect 2015, llevada a cabo en Las Vegas, IBM está revelando su camino hacia la nube híbrida, algo que tiene ahora mucho más coherencia que en el pasado

    IBM Interconnect 2015
    IBM Interconnect 2015
    COBERTURA ESPECIAL desde Las Vegas. IBM se está repensando y eso es, o debería ser, algo bueno. Las viejas estructuras por marcas o grandes áreas quedaron obsoletas y han obligado a la empresa y a su CIO, Ginny Rometty, a plantear una IBM más moderna, más ágil y orientada hacia la nube híbrida, esa realidad que crece cada día más.

    Es una reestructuración que parece llegar en buen momento, que a todas luces era necesaria y que hará que inversionistas como Buffet bajen la presión sobre el directorio. Pero tendrá que empezar a dar resultados muy pronto.

    La creación de una unidad para atender todo lo relacionado con la Nube deje bien claro que el concepto cambió para IBM. Y no se trata de tener marcas y productos que soporten la idea de nube que tenga cada uno, sino más bien de proponer un solo concepto, claro, con la posibilidad de ser tan público o privado como requiera el cliente.

    De hecho la empresa dedicará al menos la mitad de sus recursos dedicados a nube al desarrollo de propuestas híbridas –que combinan nube privada y pública con infraestructura ya existente en el centro de datos de la empresa.

    Estos desarrollos incluyen algunos conceptos muy interesantes, como los “Contenedores Empresariales” que permitirán mover fácilmente cargas de trabajo, con visibilidad, control y seguridad de nivel empresarial.

    Otro desarrollo realmente importante es una versión “local” de BlueMix, que permite ofrecer “plataforma como servicio” desde el centro de Datos de cada cliente.

    Bases de datos y conocimiento sobre APIs tambien forman parte de la oferta. Bajo el nombre de API Harmony y usando una Pasarela segura la idea es que los usuarios puedan conectar datos y servicios a BlueMix, usando un mecanismo conocido como Pasaporte, que permite mejorar la seguridad de los datos y la administración de los privilegios.

    Watson, la plataforma de cómputo cognitivo de IBM, también estuvo presente en los anuncios realizados. Watson Personality Insights Service, por ejemplo, permite a los desarrolladores integrar capacidades cognitivas que se pueden aplicar a SocialMedia u otras entradas de datos, usando BlueMix.

    También se hablo de que mejoras de Watson en areas como reconocimiento visual, conversión de voz a texto y al revés, y otros, también estarán disponibles a través de BlueMix.

    Además, para brindar soporte a las nuevas nubes híbridas se mencionó que se habilitaran nuevas centros de datos con SoftLayer, a la par que se abrirán nuevos centros en Italia, Australia y Canadá. Esto pone presión a IBM para mejorar su infraestructura de centros de datos al nivel de la de sus competidores, Amazon Web Services, Oracle, Microsoft y otros.

    Seguiremos entonces hablandodeti IBM y de cómo preparas el camino hacia la nube híbrida, mientras dura el InterConnect 2015.

  • Enseñanzas que deja el incendio del DataCenter de IBM Venezuela

    Enseñanzas que deja el incendio del DataCenter de IBM Venezuela

    Hace poco más de un año ocurrió un incendio en las instalaciones de IBM en Venezuela que afectaron el Data Center de la empresa. Esta semana conversamos con el presidente de la empresa para comprender y aprender sobre el hecho

    incendio Torre IBM
    El incendio en la Torre IBM afectó su DataCenter y a los clientes sin planes de Disaster Recovery
    Juan José Denis –más conocido como JJ– es el presidente actual de IBM Venezuela, y también lo era durante el incendio ocurrido el 22 de Noviembre de 2013. La causa del siniestro fue un corto circuito en una lámpara en el Lobby, que generó un incendio que no pudo ser sofocado de manera inmediata, por su gran altura. Además el edificio se encontraba en reparaciones –incluyendo reforzamiento anti-sísmico—y eso complicó más el incidente. Finalmente los cables que llevan los datos hicieron ignición y el humo producido, junto a los esfuerzos por controlar el fuego, terminaron impactando el corazón del centro de datos.

    El resultado fue que muchos clientes de IBM , y la infraestructura interna de la empresa, se vieron afectados, incluyendo a una de las principales redes de cajeros automáticos del país, conocida como Suiche 7B, que tomó seis días para volver a estar operativa.

    Pero no es de las consecuencias inmediatas de lo que hablaremos en este post, sino de las consecuencias a largo plazo sobre los clientes y sobre la forma de actuar de la misma IBM, tanto en Venezuela, como en el resto de la región.

    Por mucho tiempo el accidente fue tema de conversación con colegas, que me preguntaban sobre la tardanza en la restitución de algunos servicios, las consecuencias sobre la operación de las empresas afectadas y especialmente preguntaban por qué estas empresas guardaban silencio en su gran mayoría y no culpaban públicamente a IBM por los inconvenientes. Mi respuesta siempre era la misma “sin conocer el contrato de cada empresa, me atrevo a aventurar que muchas de ellas no contrataron servicios extra de respaldo de datos, de operación en casos contingencia, lo que normalmente se conoce como Disaster Recovery”. La respuesta de Denis a esta pregunta confirmó mi sospecha. Según afirma “sólo un 20% tenía contratado este tipo de servicios” y habían firmado cartas de descarga de responsabilidad para IBM. Sin embargo la empresa no escatimó en gastos, a decir del ejecutivo, para ayudar a los clientes para recuperar su información, y el 100% de los clientes que estaban con ellos antes del incidente, siguen contratando los servicios de IBM Venezuela, e incluso casi el 85% están funcionando desde el Centro de Datos recuperado, y el 15% restante funciona desde sus propios centros de Datos o desde algunos de terceros, y varios están planeando regresar al Centro de Datos de IBM en los próximos meses.

    Lo más resaltante aquí es la actuación de IBM una vez ocurrido el siniestro, tomando responsabilidades que fueron más allá de lo estipulado en el contrato. Denis afirma que el comportamiento del personal, comprometido con el cliente, fue una de las bases de esta actitud.

    Actualmente el 100% de los clientes tiene contemplado, además del servicio de Centro de Datos, un servicio de respaldo y funcionamiento alterno, para lo que IBM de Venezuela ha realizado alianzas con otros Centros de Datos en Venezuela, para remediar problemas de ancho de banda, conexión y acceso a divisas, así como para cumplir con regulaciones locales de empresas como bancos.

    Normalmente las empresas suelen rechazar planes de “Disaster Recovery” por considerarlos altos, pero después de este incidente, muchas empresas venezolanas comenzaron a reconsiderar esta idea. Dependiendo de la empresa, su nivel de negocios y su responsabilidad con sus clientes, las empresas pueden considerar planes más sencillos o complicados. Preguntas cómo ¿cuanto tiempo puede estar mi empresa fuera del aire? ¿cuanto cuesta el día/hora de estar sin sistemas? ¿puede haber pérdidas humanas o consecuencias sobre personas por estar fuera de línea? son las que debe plantearse cada directorio ejecutivo antes de considerar “costoso” un plan de “Disaster Recovery”. Por su parte IBM aprendió a insistir aún más en que los clientes cuenten con estos servicios, explicando de manera muy detallada, y usando el ejemplo ocurrido en Venezuela, las consecuencias de no contar con estos planes de contingencias.

    Así quizás el día de mañana amigo empresario, evites que esté hablandodeti y de como tu empresa quedó sin funcionar por culpa de no contar con un plan adecuado para contingencias.

  • Apple aterriza en el Caribe con un centro de datos en Curazao

    Apple aterriza en el Caribe con un centro de datos en Curazao

    apple-ctex

    El centro de datos de CTEX, certificado como Tier IV, y basado en Curacao es ahora operado por UIG una firma estrechamente relacionada con el manejo de los centros de datos de Apple

    A pesar de que Apple ha sido vista en los últimos años como una empresa centrada en dispositivos de usuarios, de hecho hasta abandonó sus servidores de rack, algunos movimientos interesantes revelan que cuenta con una estrategia importante y poco conocida para el desarrollo de centros de datos. Y esto tiene mucha lógica en un mundo donde todos los datos parecen destinados a vivir en la nube.

    La empresa CTEX, Curacao Technology Exchange que maneja un centro de datos ubicado en la isla de Curacao –con excepcionales cualidades geográficas en zona de bajo riesgo sísmico y alejado de trayectorias de huracanes—según reportes aparecidos en el sitio Antilliaans Dagblad, habría vendido sus instalaciones a UIG, Unique Infraestructure Group, muy ligado a la operación de centros de datos de Apple en el mundo. Los rumores de venta aseguran que los inversores originales de CTEX tuvieron que aceptar una oferta menor a la que esperaban debido a ciertas dificultades administrativas. Curacao ofrece además políticas fiscales muy atractivas para este tipo de empresas, que incluyen cero arancel a las importaciones de equipos y un impuesto sobre ganancias muy reducido, del orden del 2%. Además la isla cuenta con una refinería propia y su cercanía con Venezuela asegura también el suministro de energía barata

    Sin embargo a Apple se le ha criticado por muchos años de tener sus centros de datos en lugares donde se usaba energía altamente contaminante, como en Carolina del Norte, pero recientemente se le ha visto revelar proyectos de energía limpia de gran envergadura, como las granjas solares construidas alrededor del centro de datos de Carolina del Norte, instalación que convierte a Apple en el operador privado que produce más energía limpia para su propio consumo, en los EUA. Curacao con su buen clima, podría fácilmente sostener proyectos de energía sustentable, ya sea eólica, solar o incluso proveniente del mar.

    Si se toma en cuenta la nueva sede de Cupertino, al que recientemente Tim Cook, CEO de Apple, calificó como el edificio más verde del mundo, y los esfuerzos por eliminar materiales peligrosos en los equipos, se ve que Apple busca limpiar su perfil ecológico. Cook aseguró que Apple usa 94% de energías renovables o limpias, y que están trabajando para convertir ese 6% restante, lo que implicará mejoras en el centro de datos de Curacao.

    Para Apple y su iCloud, contar con centros de datos seguros es fundamental en su proceso de crecimiento futuro. Este centro de Datos tiene además otras ventajas para Apple, ya que depende de las reglas de privacidad europeas, del Reino de los Paises Bajos más específicamente, y puede ayudar a eliminar recelos de espionaje de la NSA en muchos casos.

    Esta compra del CTEX se convierte así en otra razón para seguir hablandodeti Apple, y de tu estrategias a futuro.

  • Kraken: un monstruo formado por HP y SAP

    Kraken: un monstruo formado por HP y SAP

    kraken
    Ya he hablado en este blog sobre los sistemas optimizados o “ingenierados” de Oracle y de IBM. Ahora toca el turno a Kraken, una plataforma de HP altamente optimizada para ejecutar HANA, la plataforma de “computación en memoria” de SAP.

    Se trata de una plataforma poderosa –casi podría decirse monstruosa– dotada de una gran cantidad de memoria, hasta 12 Terabytes en principio, que ejecuta en memoria grandes bases de datos –de hasta 24 Terabytes— todo en tiempo real.

    Conversé recientemente con Paul Miller, Vice Presidente de Converged Application Systems, Enterprise Group de HP, sobre estos nuevos sistemas, así como otros anuncios realizados recientemente por la empresa, en el área de servidores. Y es que la gran ventaja de HP sobre los demás fabricantes, a decir de Miller, es el poder contar con toda la tecnología de Converged Infraestructure, diseñada para optimizar centros de datos, dentro de la plataforma. Los sistemas están finamente ajustados a las cargas de trabajo que deben procesar, según el ejecutivo, por lo que el rendimiento se incrementa de manera importante.

    Sin embargo, esto es más o menos lo que ocurre en todos los sistemas optimizados de que hemos hablado en este blog, por lo que decidí indagar más profundamente sobre las ventajas y cambios que traerá esta plataforma, y reproduzco a continuación parte de la entrevista que realice a Miller.

    “Si se fijan en nuestra estrategia y la compara con los Pure Systems [de IBM] o con la de Oracle, verán que nuestros equipos conllevan más ingeniería y son diseñados de manera más específica para ciertos tipos de cargas de trabajo” señala Miller “La inclusión de hasta 12 Terabytes de memoria que nos permiten manejar bases de datos de hasta 24 Terabytes, por ejemplo, refleja que estamos pensando en sistemas realmente diseñados para trabajar con computación en memoria”

    Pero Miller va más allá. “Cuando nos planteamos una plataforma para correr HANA con bases de datos de hasta 24 Terabytes [el sistema tiene 12TB de memoria pero con metodos de compresión llega a manejar BD de 24TB], no sólo queríamos que fuera rápido por el uso de la memoria para realizar los cómputos, sino que también pensamos en que todo lo que tuviera que ver con OLTP (Online Transactions Processing) [transacciones con bases de datos] mejorara, beneficiando así a distintos procesos, como sistemas de CRM, manteniendo criterios como alta disponibilidad y otros, propios de sistemas de misión crítica.” Esto implica que procesos como los de analítica de negocios, CRM u otros pueden ejecutarse simultáneamente en tiempo real en el mismo servidor, no con bases de datos separadas como hacen algunos proveedores.

    De hecho, Miller plantea que el trabajo de HP ha sido crear estos servidores desde cero, para lograr optimizarlos para ejecutar grandes cargas de trabajo, muy específicas, a diferencia de otras propuestas que parten de la base de un servidor existente, al que se busca habilitar añadiéndole RAM y funcionalidades.

    Y esto lo está haciendo HP no sólo con los servidores Kraken, sino también con otros tipos de cargas de trabajo específicas, a las cuales están dotando de plataformas optimizadas. “Por ejemplo Moonshot [otra plataforma ingenierada de HP y diseñada en específico para beneficiar al software Hadoop, con bajo consumo energético] es un ejemplo de como un sistema puede ser diseñado y ajustado para tareas específicas” señala Miller al referirse a una de las mas novedosas propuestas de servidores para cargas de trabajo web con bajo consumo energético.

    “[Con Kraken] la idea ha sido diseñar un sistema de alto valor y rendimiento, diseñado para grandes cargas de trabajo de computación en memoria, un mercado muy específico” Sin duda esta propuesta de HP no sólo tiene sentido en el mercado de servidores especializados, sino que también le permite a SAP competir directamente con IBM y Oracle en soluciones que implican el uso de analítica de negocios y Big Data, complementándose de manera importante ambas empresas –HP y SAP— que de otra forma competían en desventaja ante soluciones de la competencia que incluyen hardware y software.

    Miller es claro al señalar que hay otras cargas de trabajo para las que pueden optimizarse los servidores y están trabajando en algunas de ellas, incluyendo servidores optimizados para virtualización de escritorios, por dar un ejemplo. Estos sistemas permiten generar y entregar de manera rápida, ambientes de trabajo de escritorio a distintos usuarios, y estos ambientes se ejecutan en el servidor, no en el PC desde donde se visualizan, y esto implica una carga de trabajo muy particular, que debe además garantizar una experiencia de uso con muy rápida respuesta.

    Kraken es una plataforma que debe impactar profundamente a la industria y en especial a los clientes de HP y SAP. Estos sistemas son especialmente buenos con cargas de trabajo OLTP, de virtualización y otras, y probablemente se vean mucho en servicios de nube y en empresas con grandes necesidades de cómputo. Pero los mayores avances vendrán después de que esté disponible el hardware. Una nueva generación de aplicaciones, pensadas para trabajar “en memoria”, tendrán una base más sólida para desarrollarse y afectar procesos que probablemente aún no se han considerado. El Middleware optimizado para esto serán las plataformas como HANA, y la apuesta al éxito de esta plataforma se basará en que se trata de un enfoque simple y masivo, donde un sólo sistema ejecuta una base de datos, algo contrario a lo que suele suceder, donde la base de datos es descompuesta en pedazos para que múltiples servidores dentro de un cluster la procesen, y que debe ser rearmada constantemente. Realmente hay mercado para ambas opciones, y HP cuenta con servidores en los dos extremos –Moonshot y Kraken—lo que beneficia a las empresas con grandes cargas de trabajo, ya que podrán escoger lo que mejor se adapte a sus necesidades.

    Este nuevo enfoque me permitió estar hablandodeti HP y de ti SAP, a pesar de que por el nombre dado a la plataforma –Kraken— alguien pudiera haber pensado que hablaba más bien del mítico monstruo marino del mar del norte, que destruía barcos con su abrazo mortal.

  • Para lograr dominar el mundo [de los centros de datos] Google se remoja y Microsoft se congela

    Para lograr dominar el mundo [de los centros de datos] Google se remoja y Microsoft se congela

    Hoy pensaba que la semana había estado algo floja para encontrar temas sobre los cuales escribir, hasta que navegando en la red descubrí esta perlita: Google acaba de registrar una patente para poner sus centros de datos en el mar.

     

    La nota, en el sitio europapress.es revela que Google ha patentado una tecnología llamada “computer navy” para instalar centros de datos en alta mar donde se puede aprovechar la energía del mar circundante para generar electricidad y con el agua del mar se puede refrigerar el centro de datos. Además si se ubica mas allá de 11 millas mar adentro –en aguas internacionales—se pueden evitar todos los impuestos asociados.

     

    Sí, leyeron bien. Yo acabo de terminar un artículo sobre tecnología verde y la crisis energética actual ha influenciado tanto en los costos de mantenimiento de los centros de datos, que no me extraña que en Google se les haya ocurrido esta idea, que a pesar de ingeniosa, suena un poco alocada, ya que al menos que construyan una plataforma como las petroleras  –o ocupen una que haya caído en desuso—las tormentas y ciclones podrían poner en peligro las operaciones. Pero ya existen iniciativas parecidas para aprovechar las bondades geotérmicas de nuestro planeta (en el caso del mar … ¿se dirá acquatérmicas o hidrotérmicas? ¿o quizás sea thallasotérmicas? je,je,je). En Europa se usan comúnmente los llamados tubos de enfriamiento o tubos de calefacción geotérmica, usados para calentar o enfriar edificios, según sea el caso. Yo personalmente estuve en la torre Post, en la ciudad alemana de Bonn –sede de la comañía DPW madre de DHL– que usa las aguas de un pequeño lago, y las del río Rhin, junto a un diseño de fachadas de vidrio dobles, para regular su temperatura todo el año.

     

    En el artículo del sitio Web datacenterknowledge.com se puede conocer sobre no menos de 9 instalaciones de centros de datos subterráneas que dicen contar con sistemas de refrigeración natural que necesita poca o ninguna ayuda para mantener los servidores funcionando en condiciones óptimas. En el primer artículo que comentamos, se hace referencia a que Microsoft está ensayando con centros de datos en lugares muy fríos y minas subterráneas y los de Redmond estiman que pueden lograr ahorros de hasta 90 millones de dólares al año.

     

    La próxima vez que vea un barco parado en alta mar, o se asome a una vieja mina abandonada, tenga cuidado con lo que diga…podría estar hablandodeti, sin saberlo.