Categoría: Industria

  • IBM gana US$7.700 millones sólo en nube. ¿qué nos dice esto?

    IBM gana US$7.700 millones sólo en nube. ¿qué nos dice esto?

    Las ganancias del gigante azul por prestar servicios en la nube alcanzaron la asombrosa cifra de US$7.700 millones, unos US$2.500 millones más que Amazon

    Con un incremento de 75% anualizado, según se desprende de su último reporte financiero, los negocios de nube de IBM han crecido para acumular la impresionante cifra de US$7.700 millones durante los últimos doce meses, superando incluso al gran jugador del area, Amazon Web Servicies, que no se puede decir que halla tenido un mal trimestre.

    IBM ha anunciado que se está rediseñando para convertirse cada vez más en una empresa orientada a servicios de nube, desarrollando tecnología, desplegando centros de datos y adquiriendo empresas en esta área. IBM estima que para el 2019 existan no menos de 12.5 millones de desarrolladores de Aplicaciones para servicios de nube, una cifra que triplica el número actual de desarrolladores, y ellos quieren estar en la mejor posición en ese mercado.

    El negocio de nube de IBM conlleva tres grandes áreas tecnológicas: La Infraestructura como servicio (IaaS), la plataforma como servicio (PaaS) y por supuesto el Software como servicio (SaaS). Si bien para el poco entendido –e incluso el medianamente entendido—suenen como iguales, estas tres áreas permiten definir por completo la infraestructura de TI de un centro de datos y venderlo cen un esquema basado principalmente en el uso. Es decir, las empresas en lugar de contar con un Centro de Datos propio, y sostener todos los recursos necesarios para hacerlo funcionar –desde refrigeración y alimentación eléctrica hasta recursos humanos de administración—puede simplemente ver todo ese conjunto como un servicio y contratarlo, lo que implicará que pagará por el tanto como lo use, sin tener que preocuparse de mantener al día todas las áreas mencionadas.

    Pero además hay ganancias significativas en otras áreas. Al momento de lanzar un nuevo producto –desde el punto de vista de TI—los tiempos se acortan de manera significativa. Todo el tiempo usado para licitar equipos, comprarlos, instalarlos, entrenar al personal para manejarlos, etc., se reduce a unas pocas horas, agilizando al negocio de manera importante.

    Esta estrategia de IBM hace un buen match con la de algunos de los principales fabricantes de software empresarial, SAP y Oracle, y aunque esas empresas cuenten con algunas ofertas de soluciones con hardware, la gran mayoría de sus clientes tienen soluciones funcionando sobre infraestructura desarrollada por terceros, e IBM puede suplir sin problema esa infraestructura, e incluso ir más allá.

    La estrategia de desarrollar nuevos centros de datos alrededor del mundo, usando la tecnología comprada de Softlayer habilita a IBM para lograr sus metas de la mejor manera. Soporte para OpenStack o el desarrollo de BlueMix son también claves para este desarrollo que contempla, al menos en un principio, una gran adopción por parte de las empresas de las nubes híbridas, esas que combinan las nubes privadas –en el DataCenter del propio cliente—con las nubes públicas ofrecidas por empresas como IBM o Amazon en sus propios Centros de Datos.

    El negocio de nube de IBM no ha hecho sino empezar, y hay que ver la gran cantidad de desarrollos que están logrando como empresa para esta área y áreas relacionadas como almacenamiento, virtualización y más. Es así entonces como seguramente seguiré hablandodeti IBM, y de tu negocio de nube, por muchos años más.

  • Hewlett Packard Enterprise Latam se prepara para atender mejor la región

    Hewlett Packard Enterprise Latam se prepara para atender mejor la región

    Hewlett Packard Enterprise surge de la separación de HP en dos diferentes empresas, ve en la región un Mercado más importante que lo que era para su empresa madre

    América Latina es una región con mayor importancia para Hewlett Packard Enterprise que lo era para HP, ya que representa para nosotros un Mercado porcentualmente más importante” afirma Alfredo Yépez, el ejecutivo que estará a cargo de la vicepresidencia de la empresa para la región una vez se finalice la separación en el ultimo trimestre del año.

    Yépez junto a su grupo de principales ejecutivos regionales,   es optimista sobre el futuro de esta nueva empresa que será “mas ágil y enfocada”. La separación deja a esta empresa con los negocios relacionados a consultoría y otros servicios, nube, almacenamiento, infraestructura convergente y software para empresas, sectores donde la actual HP ocupa un lugar importante en el mercado regional.

    “Por ejemplo, [últimamente] se nos han acercado numerosos clientes del área de telecomunicaciones para explorar alternativas para implementar servicios basados en nube orientados hacia sus consumidores empresariales. Estas empresas ya manejan con soltura la venta de ancho de banda y otros servicios parecidos, pero la venta de Nube y de infraestructura es un proceso que requiere más de consultoría y precisamente eso es algo que como empresa podemos ofrecerles, nosotros junto a nuestra red de canales de distribución” afirma Yépez y agrega “hoy día el mercado de telecomunicaciones de America latina es bastante robusto y permite el crecimiento del mercado de este tipo de soluciones”.

    Aunque HPE ha realizado anuncios importantes como el de “Composable infraestructure” para Yépez la prioridad del momento es consolidarse como dos empresas diferentes, ya que desde el primer día de agosto deberán estar funcionando como empresas diferentes, aunque aún la separación oficial suceda después. Las cuatro unidades de negocios diferentes que nos conformarán –Enterprise Group Software, Finantial Services, Servicios y Hardware—están trabajando para funcionar de la mejor manera posible, para ofrecer las mejores soluciones a las empresas”.

    Alfredo Yépez de Hewlett Packard Enterprise y parte de su grupo de ejecutivos
    Alfredo Yépez de Hewlett Packard Enterprise y parte de su grupo de ejecutivos

    HPE funcionará con el mismo ecosistema de socios de negocios en la región, por lo que los clientes no deberían sufrir problemas por el cambio. Yépez asegura que incluso desde el punto de vista de los canales se ven algunos beneficios, ya que HP Inc –la empresa orientada consumidores que surge de la división—así como la propia HPE mantendrán los niveles de crédito para los canales, lo que en la práctica significa que se duplica la ayuda financiera que reciben los canales, permitiéndoles así un mejor funcionamiento y una mayor capacidad financiera que ofrecerle a sus clientes.

    El gran atractivo de HPE es su tecnología y es el único entre los mayores fabricantes que aún mantiene ese esquema. Al cuestionar a Yépez sobre este tema, el afirma que HPE es una empresa de tecnología y por eso el discurso es tecnológico, pero que sin embargo cada vez más les toca hablarle a los jefes de las diferentes unidades de negocio, dentro de sus clientes. “la tecnología ha dejado de ser dentro de las empresas un centro de costos a ser un factor con incidencia directa dentro de cada area de negocios. Actualmente la tecnología está en todas partes y el mercado está cada vez más consciente de su impacto sobre la experiencia del cliente final, lo que influye sobre el rendimiento de la empresa. Por eso adquisiciones como Aruba, por parte de HP, buscan reforzar su capacidad de entregar contenidos al usuario final”.

    El año pasado, durante la realización del mundial de fútbol Brasil 2014, se vio claramente este fenómeno. Allí cada estadio contaba con una sólida plataforma de redes inalámbricas, para que no sólo los asistentes se conectarán a la Internet, sino para que más bien compartieran el contenido que generaban en redes sociales y otras plataformas. El estadio de los 49ers de San Francisco es uno de los mejores ejemplos de este enfoque, donde la mayor intención no es que el asistente esté conectado en el estadio, sino que el estadio se conecte con el asistente, y generar así mayores oportunidades de comercialización. En el caso del estadio d elos 49ers, esto ha tenido un impacto importante aumentando en más del 35% las ventas ya que los diferentes actores comerciales dentro del estadio –tiendas de alimentos, recuerdos, bebidas y material propio de la franquicia deportiva, entre otros—encontraron una manera de hablar directamente con el consumidor y hacerle llegar sus ofertas.

    Esto no se limita solo a empresas de entretenimiento y deportes: empresas de manufactura, finanzas, telecomunicaciones y muchas otras se interesan de manera importante en este tipo de soluciones en nuestra región latinoamericana, según afirma Yépez, y están contactando a HPE para explorar alternativas.

    En esto está la clave de la separación de HP. La separación dio origen a dos empresas de tamaño casi idéntico con dos mercados muy distintos: consumidor y empresas. Yépez afirma que esta separación les dará la agilidad y el enfoque necesario para crecer de manera más rápida y brindar una mejor atención a sus clientes., no sólo en el mundo entero, sino también en las regiones, incluyendo por supuesto a Latinoamérica.

    Estoy seguro entonces que seguiré hablandodeti, HewlettPackard Enterprise y de tu empresa hermana, HP Inc., por bastante tiempo.

  • “The Machine” de HP quiere transformar la computación

    “The Machine” de HP quiere transformar la computación

    Una modelo atrevido, centrado en la memoria y no en el procesador, quiere desbancar el ya tradicional modelo de Von Neumann en el que están basado todos los computadores actuales

    Por primera vez pude conversar con tecnicos de los HP Labs acerca de “The Machine” –La Máquina—ese modelo de computación que esta probando HP y que difiere en mucho de los sistemas actuales. La conversación sirvió para entender un poco más la capacidad disruptiva de este modelo de computación propuesto.

    En 1945 el físico John von Neumann propuso un modelo de computación que aún hoy día es usado, con pocas alteraciones. Una unidad de procesamiento –más tarde sería el procesador que actualmente conocemos—que interactúa con el mundo por medido de canales de entrada y salida de datos. Adentro d ela unidad de procesamiento, una unidad de control, junto a la unidad lógico aritmética se comunican por medio de un Bus con la unidad de memoria y con medios de almacenamiento masivo, como discos o cintas.

    En contraste, The Machine propone colocar memoria no volátil en el centro del modelo –es decir memoria que no se borra al quitarle la alimentación eléctrica—y poner al procesador y los procesos de entrada y salida a funcionar alrededor de la memoria. En el modelo de von Neuman la memoría era algo tan valioso, que la unidad de proceso hacía uso limitado de la misma, mientras que en el modelo que propone HP, la memoria es rápida, económica y prácticamente ilimitada (realmente tiene límites, pero hay una gran disponibilidad, más de la que hace falta para albergar a un programa y sus datos). Esta nueva tecnología usara memristores, una versión de los transistores, pero basado en chips de memoria.

    Aunque aún no tenemos la memoria no-volátil que se requiere, HP promete tener un prototipo de “the Machine” para dentro de un año, usando memoria SDRAM actual y un sistema de alimentación ininterrumpida como “sustitutos” de la memoria no-volátil. Algunos de los beneficios de esta propuesta son obvios, y se parecen a los que vemos en otras plataformas de computación in-memory: velocidad, velocidad y más velocidad.

    Pero hay otros que son mucho más dramáticos: el procesamiento se vuelve en este esquema un recurso, tal como lo era la memoria en el modelo anterior, y se pueden empezar a visualizar situaciones donde los procesadores van hacia los datos –al contrario de llevarles los datos a ellos—y entran a ejecución –o salen—de manera dinámica. En este esquema el sistema puede arrancar con una capacidad baja de procesamiento y si se requiere ir “trayendo” mayor poder computacional a medida que se requiere. Incluso los ingenieros de HP Labs dejaron entrever que se pueden diseñar módulos de hardware para procesar datos, ampliamente optimizados a la naturaleza de los datos. Eto tiene implicaciones importantes sobre lo que puede ser el rendimiento de estos sistemas, con datos en memoria y procesadores especializados por tareas específicas.

    Otra de las ventajas del modelo propuesto está en la concepción de la seguridad, desde el momento del diseño. Los datos existen y viajan encriptadas todo el tiempo, algo que incrementa la seguridad de manera considerable. Uno de los ingenieros de HP señaló incluso que si sólo esa fuera la ventaja del nuevo modelo, ya eso le garantizaría un éxito importante en la industria.

    Este modelo obligará a repensar mucho en la industria. Las mejoras de procesamiento podrán venir de muchos lados, y serán accesorias, es decir el cliente podrá decidir cómo y cuando las incorpora, mientras que el corazón de su infraestructura TI, la memoria, podrá permanecer inalterada por mucho tiempo.

    “Lo más impresionante serán las cosas que se podrán hacer que hoy día no se hacen” señaló el ingeniero, después de asegurar que las tareas actuales se beneficiarán de la velocidad de los nuevos sistemas. “Aún en los laboratorios discutimos sobre cuales tipos de carga de trabajo serán los más adecuados para este modelo”.

    HP anunció su proyecto el años pasado (ver video de lanzamiento al final) y este año confirmó que espera tener a finales de la década servidores basados en esta tecnología a la disposición de las empresas, así como el prototipo antes mencionado para finales del próximo año. De ser así es seguro que seguiremos hablandodeti HP y de tu “Máquina” desde estas páginas, con mucho, pero mucho interés.

  • Watson quiere ser el mejor chef del mundo

    Watson quiere ser el mejor chef del mundo

    Que una computadora aprenda a jugar Jeopardy y se convierta en campeona es algo fácil de imaginar, pero que de allí salte a querer ser el mejor chef de cocina del mundo, es otra historia. ¡Y parece estarlo logrando!

    Watson no es un chef común y corriente. Ni siquiera es un chef de carne y hueso. Watson es el proyecto de computación cognitiva que creo IBM hace ya unos años y que aprendió a jugar Jeopardy y le ganó a los mejores humanos en ese juego. Sí, leyó bien, APRENDIO a ganarles. Posteriormente Watson se fue a la escuela de medicina y ha ayudado a muchos médicos, especialmente en especialidades oncológicas a realizar diagnósticos más acertados. También se metió, recientemente, en analítica de redes sociales y anda por allí descubriendo emociones, tendencias de comportamiento y más en cuanta red se le cruza por delante. Pero…¿cocinar?

    Chef Watson se llama el proyecto donde la computadora empezó a aprender recetas de una base de datos enorme. El análisis de toda esa data le permite hoy día generar nuevas recetas, que sorprendentemente parecen saber bien. Un artículo en CNN Money destaca que “las fresas y el pollo poco parecen tener en común, pero si tienen algo el compuesto de sabor g-dodecalactone.” Y Watson lo sabe y se aprovecha de eso para sugerir platos en los que combinen bien estos elementos.

    Juegue un rato con Chef Watson y se le olvidará que se trata de una maravilla tecnológica, y estará más bien asombrado de ver que receta le devuelve cuando usted le cambia los elementos, o simplmente le pide que sea un poco más clásico, o más creativo. Así de sencillo es para el usuario final. La computadora que aprendió recetas, ha sabido descubrir en ellas algunos secretos que se atreve a llevar a nuevas recetas, inexistentes, y según muchos d elos que han hecho la prueba de cocinarlas, con muy buen resultado.

    De esto continuar así estoy seguro que seguiré hablandodeti Watson, y de la empresa que te fabrica, IBM, por mucho, pero mucho tiempo, cuando tengan oportunidad de darte a digerir otro nuevo componente de la cultura humana, ya sean diagnósticos de carros que fallan, sugerencias de vacaciones para la familia, o recetas sobre como hacer más exitosa una empresa.

  • El fallo en el iPad que retrasó a American Airlines

    El fallo en el iPad que retrasó a American Airlines

    Un post interesante en el blog de negocios de Kaspersky cuenta como un pequeño fallo en una App de iPad terminó retrasando un importante número de vuelos de American Airlines el pasado 28 de Abril

    Lo sucedido con un pequeño falló en una App que hizo que muchas iPads que le pertenecían a pilotos de American Airlines retrasaran los vuelos que pilotaban, está reseñado en una entrada del blog de negocios de Kaspersky en inglés.

    Una App usada para convertir a los iPads en reemplazo de las enormes “bolsas de vuelo” –conjunto de mapas, ordenes y documentos que juntos alcanzan a veces hasta 20KG de peso)– arrojó un fallo que hacía reiniciar a los iPads, tras una actualización defectuosa, con el código corrompido.

    No hubo vidas humanas en riesgo, y el problema fue de fácil solución, bastando realizar una re-instalación de la App, pero para eso muchos pilotos tuvieron que retrasar el inicio de su vuelo y algunos que ya había empezado a rodar el avión en la pista, incluso debieron regresar a la puerta desde donde habían salido, para poder aprovechar la conexión WiFi y así actualizar la App. Incluso se rumora que algún piloto decidió resolver el problema a la manera “antigua” e imprimió de nuevo todos sus documentos.

    El incidente no pasa de ser una pequeña e interesante anécdota si solo se juzga por sus resultados. Pero si se ve el potencial, y se suponen escenarios donde la desaparición de los datos ocurre quizás a mitad del viaje, se puede entrever un compromiso de seguridad mucho más serio, al que hay que prestarle atención y prevenirlo, o mejor dicho evitarlo, usando cualquier medio posible.

    El crecimiento de la dependencia tecnológica y en los gadgets, configura cada vez más un escenario muy productivo, pero altamente vulnerable, donde los ataques criminales y los fallos de programación se vuelven igual de peligrosos. El control normal a una App que se realiza en las tiendas de aplicaciones, sólo busca que las aplicaciones sean legítimas, que no estén infectadas, y evalúa otros aspectos como la interfaz para ver si se apega a los lineamientos. Pero nunca se revisa si la funcionalidad funciona bien al 100%, abriendo paso a que aplicaciones con defectos de programación –involuntarios o no—terminen en ambientes de producción como el de un piloto de avión, que puede tener en sus manos la vida de cientos de personas.

    A medida que la Internet de las cosas avanza como concepto y en su implementación, este tipo de amenazas seguirán surgiendo y puedo dar por seguro que seguiré hablandodeti, Kaspersky, así como de los otros proveedores de seguridad, cada vez que descubran una nueva vulnerabilidad, fallo o debilidad.

  • El futuro de SAP pasa por “Velocity Raptor”

    El futuro de SAP pasa por “Velocity Raptor”

    Hasso Plattner, fundador de SAP, reveló que “Velocity Raptor” es el nombre código del nuevo desarrollo que SAP está llevando a cabo para construir una plataforma para la Internet de las Cosas

    Las conversaciones con Hasso Plattner siempre son agradables. Aunque no se les pueda llamar conversaciones de manera formal a las sesiones de preguntas y respuesta que el da, gracias a la presencia de periodistas, analistas y bloggers bien informados siempre termina siendo una conversación, entre el público ávido de respuestas y el Profesor, que con su método peculiar y exigente, intenta que la gente entienda lo que el futuro de las TI nos depara.

    Este año, durante el Sapphire 2015, no fue distinto el caso. El Profesor quería hablar, y tenía al lado a un CTO, Quentin Clark, que por su juventud y poco tiempo en el cargo –apenas asumió en Noviembre 2014— le restaba poca atención, dejándole todo el protagonismo.

    Las preguntas y respuestas empezaron a ir y venir, pero en una de esas, algo se escapó: Velocity Raptor es el nombre código de un proyecto del que no estaba autorizado a decir mucho más, según se vio de la mirada del PR y del CTO que lo acompañaban en escena. Pero se pudo conocer que tenía que ver con la plataforma de visualización de SAP conocida como Lumira.

    La próxima pregunta no tuvo un desenlace tan feliz. Al confrontar a Hasso con una afirmación hecha por el mismo profesor hace unos años, Hasso perdió la paciencia y como un maestro exigente, recriminó seriamente al periodista que hizo la pregunta, por no darse cuenta de que la respuesta era obvia. El periodista quería saber si la tecnología in-memory había llegado realmente para quedarse como Hasso afirmó hace unos tres años y el Profesor se molestó de que no se hubiera dado cuenta de que de eso se trataba casi todo en el evento e ironizó con “devolverle el dinero” del libro grátís que poco antes nos habían obsequiado, titulado “La revolución In-Memory”.

    Después de esta reprimenda pública, el micrófono para realizar la siguiente pregunta me fue entregado. Aunque esto no es relevante para el post, le pido a quienes me leen, imaginen por un momento cómo se sentirían, pensando en que una pregunta obvia, mal estructurada o simplemente poco interesante, podía terminar de desatar la ira del personaje, y hacerme pasar un mal momento.

    Después de pedir perdón por anticipado, por si acaso cometía algún gazapo idiomático con mi inglés, me dirigí directamente a Hasso para decirle “Conversando una vez con Grady Brooch, un pionero de la computación, el me señalo que además de los modelos tradicionales de computación, transaccional o paralelo, estaba surgiendo un tercer modelo, basado en la computación embebida en los dispositivos móviles. Y eso con la Internet de las Cosas cobra más fuerza…así que me gustaría conocer su visión sobre el futuro de este modelo y como SAP se prepara para soportarlo”. Me eché para atrás en el asiento y esperé el posible regaño.

    Hasso empezó en tono de regaño, muy propio del profesor que se preocupa de que los alumnos entiendan, pero que no lleva ningún reclamo en si mismo. “De eso se trata Velocity Raptor, por eso lo hemos incluido en SAP Lumira”. ¡Bingo! La respuesta a una pregunta que tenía dos años haciendo, se develó de una vez. Dos años antes, a uno de los co-CEO de SAP para ese entonces, Jim Snabe, le pregunté en que tenía trabajando al Profesor, una vez que Hana –la plataforma de computación in-memory de SAP– ya estaba encaminada. Snabe me confesó que SAP trabajaba para lograr lo que hoy se conoce como Network Enterprise, pero que el Profesor trabajaba en algo distinto, que no se podía revelar, pero relacionado con Hana.

    Como ya deben haber leído SAP anunció en el Sapphire una plataforma completa para la Internet de las cosas, incluyendo una versión de Lumira, su software de visualización, así como una plataforma de nube para soportar todo. Calladamente se dejo colar que la última versión de Lumira ya contiene una versión de Volcity Raptor en ella. Velocity Raptor al final es una versión de software ligera, de apenas 20MB, de la funcionalidad básica de SAP HANA que puede ser embebida en distintas aplicaciones llevando el poder de HANA a dispositivos de tamaño reducido, permitiendo ejecutar en ellos niveles de inteligencia muy altos, a velocidades asombrosas, gracias a la capacidad de la tecnología in-memory. Es sin duda alguna una pieza fundamental de la estrategia de SAP para entrar al mercado del IoT no solo desde la nube o los servidores de las empresas, sino también desde dispositivos de menor tamaño y costo, que conformarán la mayoría de los dispositivos conectados a la IoT. La “inteligencia” en los dispositivos conectados a la Internet será un gran negocio y son pocas las empresas de software que han mostrado planes serios para estar allí, dejándole más bien a las empresas de hardware esta responsabilidad.

    Aunque me haya tomado dos años y tres eventos el descifrar el camino de desarrollo de SAP, y en especial el trabajo del profesor Hasso, bien valió la pena estar hablandodeti SAP, y del querido profesor, desde estas páginas, para poder así formarse una mejor idea de hacia donde avanza la industria.