Categoría: BigData

  • El futuro de SAP pasa por “Velocity Raptor”

    El futuro de SAP pasa por “Velocity Raptor”

    Hasso Plattner, fundador de SAP, reveló que “Velocity Raptor” es el nombre código del nuevo desarrollo que SAP está llevando a cabo para construir una plataforma para la Internet de las Cosas

    Las conversaciones con Hasso Plattner siempre son agradables. Aunque no se les pueda llamar conversaciones de manera formal a las sesiones de preguntas y respuesta que el da, gracias a la presencia de periodistas, analistas y bloggers bien informados siempre termina siendo una conversación, entre el público ávido de respuestas y el Profesor, que con su método peculiar y exigente, intenta que la gente entienda lo que el futuro de las TI nos depara.

    Este año, durante el Sapphire 2015, no fue distinto el caso. El Profesor quería hablar, y tenía al lado a un CTO, Quentin Clark, que por su juventud y poco tiempo en el cargo –apenas asumió en Noviembre 2014— le restaba poca atención, dejándole todo el protagonismo.

    Las preguntas y respuestas empezaron a ir y venir, pero en una de esas, algo se escapó: Velocity Raptor es el nombre código de un proyecto del que no estaba autorizado a decir mucho más, según se vio de la mirada del PR y del CTO que lo acompañaban en escena. Pero se pudo conocer que tenía que ver con la plataforma de visualización de SAP conocida como Lumira.

    La próxima pregunta no tuvo un desenlace tan feliz. Al confrontar a Hasso con una afirmación hecha por el mismo profesor hace unos años, Hasso perdió la paciencia y como un maestro exigente, recriminó seriamente al periodista que hizo la pregunta, por no darse cuenta de que la respuesta era obvia. El periodista quería saber si la tecnología in-memory había llegado realmente para quedarse como Hasso afirmó hace unos tres años y el Profesor se molestó de que no se hubiera dado cuenta de que de eso se trataba casi todo en el evento e ironizó con “devolverle el dinero” del libro grátís que poco antes nos habían obsequiado, titulado “La revolución In-Memory”.

    Después de esta reprimenda pública, el micrófono para realizar la siguiente pregunta me fue entregado. Aunque esto no es relevante para el post, le pido a quienes me leen, imaginen por un momento cómo se sentirían, pensando en que una pregunta obvia, mal estructurada o simplemente poco interesante, podía terminar de desatar la ira del personaje, y hacerme pasar un mal momento.

    Después de pedir perdón por anticipado, por si acaso cometía algún gazapo idiomático con mi inglés, me dirigí directamente a Hasso para decirle “Conversando una vez con Grady Brooch, un pionero de la computación, el me señalo que además de los modelos tradicionales de computación, transaccional o paralelo, estaba surgiendo un tercer modelo, basado en la computación embebida en los dispositivos móviles. Y eso con la Internet de las Cosas cobra más fuerza…así que me gustaría conocer su visión sobre el futuro de este modelo y como SAP se prepara para soportarlo”. Me eché para atrás en el asiento y esperé el posible regaño.

    Hasso empezó en tono de regaño, muy propio del profesor que se preocupa de que los alumnos entiendan, pero que no lleva ningún reclamo en si mismo. “De eso se trata Velocity Raptor, por eso lo hemos incluido en SAP Lumira”. ¡Bingo! La respuesta a una pregunta que tenía dos años haciendo, se develó de una vez. Dos años antes, a uno de los co-CEO de SAP para ese entonces, Jim Snabe, le pregunté en que tenía trabajando al Profesor, una vez que Hana –la plataforma de computación in-memory de SAP– ya estaba encaminada. Snabe me confesó que SAP trabajaba para lograr lo que hoy se conoce como Network Enterprise, pero que el Profesor trabajaba en algo distinto, que no se podía revelar, pero relacionado con Hana.

    Como ya deben haber leído SAP anunció en el Sapphire una plataforma completa para la Internet de las cosas, incluyendo una versión de Lumira, su software de visualización, así como una plataforma de nube para soportar todo. Calladamente se dejo colar que la última versión de Lumira ya contiene una versión de Volcity Raptor en ella. Velocity Raptor al final es una versión de software ligera, de apenas 20MB, de la funcionalidad básica de SAP HANA que puede ser embebida en distintas aplicaciones llevando el poder de HANA a dispositivos de tamaño reducido, permitiendo ejecutar en ellos niveles de inteligencia muy altos, a velocidades asombrosas, gracias a la capacidad de la tecnología in-memory. Es sin duda alguna una pieza fundamental de la estrategia de SAP para entrar al mercado del IoT no solo desde la nube o los servidores de las empresas, sino también desde dispositivos de menor tamaño y costo, que conformarán la mayoría de los dispositivos conectados a la IoT. La “inteligencia” en los dispositivos conectados a la Internet será un gran negocio y son pocas las empresas de software que han mostrado planes serios para estar allí, dejándole más bien a las empresas de hardware esta responsabilidad.

    Aunque me haya tomado dos años y tres eventos el descifrar el camino de desarrollo de SAP, y en especial el trabajo del profesor Hasso, bien valió la pena estar hablandodeti SAP, y del querido profesor, desde estas páginas, para poder así formarse una mejor idea de hacia donde avanza la industria.

  • Nubes híbridas en empresas, la oferta de la nueva IBM

    Nubes híbridas en empresas, la oferta de la nueva IBM

    IBM se reestructura de nuevo para poder atender una realidad que se impone: el uso de redes híbridas dentro de las empresas, y para eso diseña toda una plataforma que incluye infraestructura, servicios, seguridad y centros de datos especializados, entre otros

    Si bien la nube es el concepto más divulgado de las TI en los últimos años, la adopción de la misma, de manera amplia, dentro de las empresas a enfrentado serios obstáculos, ya que la naturaleza d elos datos a veces impone el uso de las más costosas y limitadas nubes locales, en vez de aprovechar las más poderosas nubes públicas. Razones como privacidad, leyes, tiempos de acceso y otros han sido gran parte de estos factores que obligan a las empresas a mantener los datos dentro de sus centros de datos.

    La respuesta inteligente de IBM a esta situación ha sido desarrollar una infraestructura de nube híbrida –que usa nubes públicas y privadas a la vez—y complementarla con atractivas funcionalidades extra en áreas como movilidad y analítica, para que a las empresas les resulte mucho más sencilla la implementación de nubes híbridas.

    La idea es integrar a las plataformas existentes nuevas funcionalidades basadas en nubes públicas y privadas, en un esfuerzo multiplataforma. Para eso IBM desarrolló una importante cantidad de tecnologías y servicios a fin de permitir que la expansión en la adopción de esta tecnología el cliente puede mantener y mejorar la visibilidad, el control y por sobre todo la seguridad. Para ello IBm ha dedicado a más de la mitad de su fuerza de trabajo en nube, para desarrollar tecnologías de nube híbrida.

    “Estamos lanzando una nueva clase de innovaciones para nube híbrida que extienden las capacidades de estándares abiertos para las empresas. Esto ayudará a derribar las barreras entre las nubes y los sistemas existentes en las empresas, brindándole al cliente control, visibilidad y seguridad mientras usan nubes privadas y públicas” declaró Robert LeBlanc, Senior Vice Presidente, IBM Cloud. «Localizar los datos a través de un número cada vez mayor de nubes, es una preocupación cada vez mayor para los clientes y estamos lanzando nuevos servicios de portabilidad y desarrollo para hacer más fácil la administración de este proceso”. LeBlanc señala además que ya el 61% de las grandes empresas están consientes del gran poder de los datos, por lo que están estudiando las diferentes maneras de almacenarlos, procesarlos y analizarlos.

    Para sostener esta demanda, es clave la ampliación de la oferta de servicios SoftLayer en los centros de datos. La tecnología de SoftLayer, creada en el 2005 y adquirida por IBM en el 2013, facilita la administración de servidores dedicados en ambientes pensados en nube. IBM anunció no sólo la apertura de dos nuevos centros de datos equipados con esta tecnología, sino que además mostró planes de abrir nuevos centros en breve.

    Entre los nuevos servicios de IBM destaca IBM DataWorks, una plataforma para refinar y entregar datos, facilitándole la labor a los desarrolladores que pueden así dividir y manipular subconjuntos de datos, que pueden estar en nubes públicas o privadas, todo con una visión y control integral por parte del cliente, de extremo a extremo, es decir desde el origen de los datos hasta el lugar más lejano donde son usados.

    Junto a la estrategia de equipar cada vez más centros de datos con SoftLayer, IBM también ofrece BlueMix. Una serie de servicios basados en esta API, permitirá a los clientes de la empresa crear y mejorar su infraestructura de nube híbrida, al aprovechar al máximo los nuevos centros de datos y poder integrarlos con los sistemas existentes en las empresas, de manera sencilla.

    Los desarrolladores podrán aprovechar algunas características de BlueMix, como los “Contenedores Empresariales” que permiten extender el concepto de “Contendores de Linux” a otros sistemas repartidos a tarvés de la nube, y estar disponibles como servicios basados en la API de BlueMix. En pocas palabras, esto abre la posibilidad de encapsular datos y procesos de manera que pueden ser compartidos en tre los más modernos sistemas de nube pública o privada, con sistemas legados –legacy—y sistemas existentes en los centros de datos de las empresas –on-premise—de manera de conformar sistemas híbridos, facilmente administrables.

    Además IBM ha tomado en cuenta las necesidades de que estas conexiones que ocurren a través de BlueMix y los Contendores Empresariales sean seguras, para lo cu´l desarrollo los “Secure Passport Gateway” o formas de conexión seguras que permiten al departamento de TI mantener y mejorar sus políticas de acceso para aplicar a los usuarios, evitando que al conectar diferentes sistemas, se produzcan fallos de seguridad que pongan en peligro los datos.

    BlueMix y los Passports permiten a IBM ofrecer mayor cantidad de servicios, de manera segura, al punto que puede ofrecer ahora servicios de Watson en forma de API para integrar en los sistemas usando BlueMix. En un principio IBM ofrecerá el “Watson Personality Insights service”, que permite a los desarrolladores integrar capacidades de análisis de tendencias y términos sobre datos de social media o algún otro tipo de canal de datos.

    Es así como al hablar del uso de nubes híbridas en empresas, seguiremos entonces hablandodeti IBM, y de tu nueva propuesta para las empresas.

  • Alianza IBM-Juniper, para llevar la analítica a la red

    Alianza IBM-Juniper, para llevar la analítica a la red

    Las dos empresas unen esfuerzos para integrar herramientas de analítica en tiempo real a las grandes redes de datos, una alianza que beneficia a ambas empresas y sus clientes

    Para manejar las grandes cantidades de datos empresariales que se están generando, brindar servicios a sus clientes y poder competir con empresas como Cisco o Brocade que están ofreciendo funcionalidades de analítica en los dispsoitivos de red, IBM y Juniper Networks han establecido una alianza que permitirá incluir herramientas de analítica diseñadas por IBM en el hardware de redes de Juniper.

    Se trata de soluciones de alto nivel, orientadas a grandes empresas –principalmente telcos, pero no exclusivamente—que necesitan aplicar procesos de BigData directamente al tráfico de red. Lo que se puede hacer con esta información es principalmente mejorar la experiencia del usuario con una possible reducción de costos significativa.

    En una entrevista con los voceros de IBM y Juniper estos aseguraron que la analítica es algo que ya de algún modo se encuentra ocurriendo sobre la red, y esta alianza lo que hará es mejorar la eficiencia y velocidad de aplicación.

    Bob Picciano, vice president senior de IBM Analytics, aseguró que esta alianza representa “la primera vez en la industria que se puede aplicar analítica avanzada en tiempo real a los datos, mientras estos viajan en la red”.

    Este anuncio es aún más relevante si se recuerda que recientemente IBM llegó a un acuerdo con Twitter para mejorar el análisis de posts de dicha red.

    IBM competirá así no solo con las empresas nombradas anteriormente, sino también con una gran cantidad de aplicaciones que se montan en centros de datos para realizar este proceso, pero muchas veces tienen desventajas como la duplicación de los datos o la imposibilidad de realizar los análisis en tiempo real.

    Y además permitirá saber no solo si están hablandodeti en la red, sino también conocer cuantas personas lo hacen y con que tono, todo gracias a un dispositivo especializado de red, equipado con la analítica de IBM.

  • El camino de IBM hacia la nube híbrida

    El camino de IBM hacia la nube híbrida

    En su conferencia Interconnect 2015, llevada a cabo en Las Vegas, IBM está revelando su camino hacia la nube híbrida, algo que tiene ahora mucho más coherencia que en el pasado

    IBM Interconnect 2015
    IBM Interconnect 2015
    COBERTURA ESPECIAL desde Las Vegas. IBM se está repensando y eso es, o debería ser, algo bueno. Las viejas estructuras por marcas o grandes áreas quedaron obsoletas y han obligado a la empresa y a su CIO, Ginny Rometty, a plantear una IBM más moderna, más ágil y orientada hacia la nube híbrida, esa realidad que crece cada día más.

    Es una reestructuración que parece llegar en buen momento, que a todas luces era necesaria y que hará que inversionistas como Buffet bajen la presión sobre el directorio. Pero tendrá que empezar a dar resultados muy pronto.

    La creación de una unidad para atender todo lo relacionado con la Nube deje bien claro que el concepto cambió para IBM. Y no se trata de tener marcas y productos que soporten la idea de nube que tenga cada uno, sino más bien de proponer un solo concepto, claro, con la posibilidad de ser tan público o privado como requiera el cliente.

    De hecho la empresa dedicará al menos la mitad de sus recursos dedicados a nube al desarrollo de propuestas híbridas –que combinan nube privada y pública con infraestructura ya existente en el centro de datos de la empresa.

    Estos desarrollos incluyen algunos conceptos muy interesantes, como los “Contenedores Empresariales” que permitirán mover fácilmente cargas de trabajo, con visibilidad, control y seguridad de nivel empresarial.

    Otro desarrollo realmente importante es una versión “local” de BlueMix, que permite ofrecer “plataforma como servicio” desde el centro de Datos de cada cliente.

    Bases de datos y conocimiento sobre APIs tambien forman parte de la oferta. Bajo el nombre de API Harmony y usando una Pasarela segura la idea es que los usuarios puedan conectar datos y servicios a BlueMix, usando un mecanismo conocido como Pasaporte, que permite mejorar la seguridad de los datos y la administración de los privilegios.

    Watson, la plataforma de cómputo cognitivo de IBM, también estuvo presente en los anuncios realizados. Watson Personality Insights Service, por ejemplo, permite a los desarrolladores integrar capacidades cognitivas que se pueden aplicar a SocialMedia u otras entradas de datos, usando BlueMix.

    También se hablo de que mejoras de Watson en areas como reconocimiento visual, conversión de voz a texto y al revés, y otros, también estarán disponibles a través de BlueMix.

    Además, para brindar soporte a las nuevas nubes híbridas se mencionó que se habilitaran nuevas centros de datos con SoftLayer, a la par que se abrirán nuevos centros en Italia, Australia y Canadá. Esto pone presión a IBM para mejorar su infraestructura de centros de datos al nivel de la de sus competidores, Amazon Web Services, Oracle, Microsoft y otros.

    Seguiremos entonces hablandodeti IBM y de cómo preparas el camino hacia la nube híbrida, mientras dura el InterConnect 2015.

  • Oracle: a la nube desde la base [de datos]

    Oracle: a la nube desde la base [de datos]

    oracle-open-world

    La empresa dice contar con el mayor portafolio de soluciones y aplicaciones para ir a la nube –y volver si es necesario—pero todo arranca desde la base de datos

    Que Oracle tiene una posición más que privilegiada en el mercado de bases de datos y en el “top of mind” de la industria es indiscutible. Y eso es lo que ha usado la empresa para gestionar su crecimiento impresionante desde hace años. Sin embargo por momentos, y a pesar de que sus ejecutivos digan lo contrario, Oracle fue esquiva al concepto de nube, aunque tuvieran modelos de negocios como el consumo on-demand, que permitían adivinar el futuro.

    Hoy mientras Larry Ellison, recientemente encargado de sólo la dirección tecnológica d ela empresa, reconoce que se tomaron mucho tiempo para tener una oferta completa, y Mark Hurd, CEO de Oracle junto a Safra Katz, defiende que son la mejor opción para ir a la nube gracias a que están en todas las capas y servicios necesarios, es claro que el mayor apalancamiento de Oracle sigue siendo su dominio en el mercado de Bases de Datos. Ellison lo demostró al nombrar como sus principales competidores usaban parte de la infraestructura de Oracle –en especial la base de datos—para correr sus aplicaciones.

    A la larga la estrategia de adquisiciones agresivas de Oracle parece haber sido muy bien manejada y dar resultados. En reunión con la prensa Mark Hurd lo dejó en claro: “a Oracle no se le puede medir [su innovación]] por el gasto en I&D solamente, hay que tomar en cuenta las adquisiciones”.

    Ellison ha dejado en claro que los enemigos de la empresa están cambiando. Benioff y su departamento de PR de Salesforce.com deben estar muy contentos con este Oracle Open World, ya que los han colocado en el tope de los enemigos de Oracle. Es quizás la empresa que mas daño le ha hecho al ego de Ellison, al capitalizar muy bien un negocio que no muchos veían. Amazon y Microsoft son los otros grandes a vencer, pero en una guerra de precios. Hurd afirmaba ante la prensa, respalndando a Ellison, “¿quien es el mejor para ejecutar las soluciones de Oracle? ¿Oracle o las dos empresas esas? [haciendo referencia a Microsoft y Amazon Web Services, previamente nombradas por el].

    Las cartas están en la mesa. Oracle esta levando el 100% de su oferta de Apps a la nube, y cuenta con una nube capaz de soportar millones de clientes. Sus equipos ingenierados [si se me permite semejante traducción] son la besa del rendimiento prometido, y permiten crear nubes híbridas poderosas donde sea necesario. El ir a la nube lleva intrínseco beneficios de analítica, colaboración y movilidad muy importantes. Los grandes clientes tienen acceso fácil a esta propuesta. Los pequeños y medianos quizás deban esperar a que la infraestructura de canales se termine de acomodar a este cambio, lo que de seguro pasará en breve. Muchos canales deben reorganizarse, y algunos fundarse desde cero, pero lo harán por que hacia allí es hacia donde se mueve el negocio.

    Pero al final, lo que sigue sosteniendo al negocio es la base de datos, esa que corre muy bien sobre sus propios sistemas, esa que permite ejecutar aplicaciones, incluso de los competidores, esa que ahora incluso permite hacer BigData con Hadoop y NoSQL, esa que es la base de la empresa. Se puede decir sin duda que Oracle llega a la nube, directo desde la base [de datos].

    Sin embargo aún hay un reacomodo gerencial en Oracle que habrá que juzgar en breve. Hurd, que se quiso mostrar cercano a los clientes en su keynote, tendrá que demostrar que es algo más que un buen administrador de negocios, ya que le toca tomar el control de la empresa. Katz seguirá administrando bien, no cabe duda, y Ellison volverá a lo que le gusta, al diseño de productos, a provocar a la industria. De todos modos si las cosas no salieran bien, siempre Ellison puede tomar el timón de nuevo. Es así que estoy seguro que seguiremos hablandodeti Ellison, y de Hurd, Katz y Oracle, por mucho tiempo.

  • ¿Son Big Data y Analítica de negocios opciones reales para las PyME?

    ¿Son Big Data y Analítica de negocios opciones reales para las PyME?

    pyme

    Casi todas las grandes empresas de TI insisten en que las PyME se pueden beneficiar de la aplicación de tecnología de Big Data y Analítica de negocios, pero la realidad puede ser muy diferente

    Mucho se habla en el mundo de Big Data y analítica de negocios, dos grandes tendencias que amenazan con cambiar el accionar de las empresas. ¿Pero están las empresas latinoamericanas listas para aplicarlas?

    Esa es la pregunta de los US$64.000 –o de las sesenta y cuatro mil lochas, como diríamos en Venezuela—y la respuesta no es sencilla.

    Por un lado las grandes empresas de TI tienen razón al afirmar que esta tecnología está al alcance de las empresas PyME. La oferta de herramientas que permiten analizar o extraer datos en gran escala ya sea de repositorios internos como bases de Datos, o de repositiorios externos, como redes sociales, es amplia y no es tan costosa como hace algunosaños. La posibilidad de instalar estas soluciones en appliances de costo reducido, o en “nubes” en centros de datos, terminan de brindar factibilidad a las ofertas tecnológicas. El argumento de las grandes empresas es que hay multiples Fuentes de datos que están siendo descartados, que de analizarse podrían generar beneficios.

    Pero muchos ejecutivos de estas PyMES argumentan que sus empresas dificilmente necesiten de esta tecnología y mucho menos se puedan beneficiar de la misma. En un trabajo realizado recientemente para una revista de negocios venezolana, uno de los fabricantes de soluciones de software que produce sencillas herramientas de analítica, me comentó que un cliente de ellos, de tamaño medio, que genera 4.000 facturas mensuales, con una historia de 6 años, guarda toda esa información en apenas 176 Mbytes. En comparación una foto de 16 megapixels en formato RAW son 48 Mbytes. ¡Lo que implica que toda la información de facturación de esa empresa es apenas el equivalente a 4 fotos!.

    Lo cierto es que el concepto de BigData es muy atractivo, y aún recién está empezando a ser implementado por empresas grandes y unas pocas de tamaño medio. Pero sin duda alguna no es un concepto para todas las empresas, aún si estas llegan a generar grandes cantidades de datos. Areas como logística, telecomunicaciones, atención al cliente, banca o finanzas, tienen el potencial de generar gran cantidad de datos que podrían llevar a evaluar el uso de Big Data, pero antes hay que resolver el problema de como recabar, procesar y descartar esos datos, sin comprometer la operación normal de la empresa, ni crear un centro de datos paralelo. Hay muchas aristas en este problema que deben ser consideradas, desde los costos de procesamiento, hasta la utilidad proyectada de estas iniciativas, pasando por la estandarización de la información y la privacidad de la misma.
    En resumen si usted y su equipo creen que Big Data puede beneficiarlos, es un buen momento para empezar a estudiar la factibilidad de aplicarla. Empiece por ordenar sus datos, para hacerlos accesibles a las herramientas de BigData –generalmente basadas en Hadoop–, investigue sobre conceptos como los Lagos de Datos de EMC –que ale ayudan a evitar duplicación de datos—y consulte a expertos que le puedan ayudar en este proceso.

    El caso de analítica es mucho más amplio. Las herramientas de evaluación y visualización suelen ser más aplicables en las Pymes. Algunos ejemplos sencillos de esto pueden ser herramientas en areas puntuales como en “Cuentas por cobrar” donde una herramienta de visualización que permita orientar los registros según tamaño de la deuda, diás de vencida, factibilidad de cobro basada en el historial del cliente, o muchas otras opciones, puede ayudar a un departamento de cobranzas de pequeño tamaño a ser mucho más eficiente. Igualmente puede ocurrir en areas cómo Logística, Recursos Humanos, Cadena de suministros, y muchas otras.

    Al final, pudiera ser que si, que al hablar de empresas que pueden beneficiarse de Big Data y Analítica, esté hablandodeti, querido lector, y de tu empresa PyME.