Categoría: Empresa

  • “The Machine” de HP quiere transformar la computación

    “The Machine” de HP quiere transformar la computación

    Una modelo atrevido, centrado en la memoria y no en el procesador, quiere desbancar el ya tradicional modelo de Von Neumann en el que están basado todos los computadores actuales

    Por primera vez pude conversar con tecnicos de los HP Labs acerca de “The Machine” –La Máquina—ese modelo de computación que esta probando HP y que difiere en mucho de los sistemas actuales. La conversación sirvió para entender un poco más la capacidad disruptiva de este modelo de computación propuesto.

    En 1945 el físico John von Neumann propuso un modelo de computación que aún hoy día es usado, con pocas alteraciones. Una unidad de procesamiento –más tarde sería el procesador que actualmente conocemos—que interactúa con el mundo por medido de canales de entrada y salida de datos. Adentro d ela unidad de procesamiento, una unidad de control, junto a la unidad lógico aritmética se comunican por medio de un Bus con la unidad de memoria y con medios de almacenamiento masivo, como discos o cintas.

    En contraste, The Machine propone colocar memoria no volátil en el centro del modelo –es decir memoria que no se borra al quitarle la alimentación eléctrica—y poner al procesador y los procesos de entrada y salida a funcionar alrededor de la memoria. En el modelo de von Neuman la memoría era algo tan valioso, que la unidad de proceso hacía uso limitado de la misma, mientras que en el modelo que propone HP, la memoria es rápida, económica y prácticamente ilimitada (realmente tiene límites, pero hay una gran disponibilidad, más de la que hace falta para albergar a un programa y sus datos). Esta nueva tecnología usara memristores, una versión de los transistores, pero basado en chips de memoria.

    Aunque aún no tenemos la memoria no-volátil que se requiere, HP promete tener un prototipo de “the Machine” para dentro de un año, usando memoria SDRAM actual y un sistema de alimentación ininterrumpida como “sustitutos” de la memoria no-volátil. Algunos de los beneficios de esta propuesta son obvios, y se parecen a los que vemos en otras plataformas de computación in-memory: velocidad, velocidad y más velocidad.

    Pero hay otros que son mucho más dramáticos: el procesamiento se vuelve en este esquema un recurso, tal como lo era la memoria en el modelo anterior, y se pueden empezar a visualizar situaciones donde los procesadores van hacia los datos –al contrario de llevarles los datos a ellos—y entran a ejecución –o salen—de manera dinámica. En este esquema el sistema puede arrancar con una capacidad baja de procesamiento y si se requiere ir “trayendo” mayor poder computacional a medida que se requiere. Incluso los ingenieros de HP Labs dejaron entrever que se pueden diseñar módulos de hardware para procesar datos, ampliamente optimizados a la naturaleza de los datos. Eto tiene implicaciones importantes sobre lo que puede ser el rendimiento de estos sistemas, con datos en memoria y procesadores especializados por tareas específicas.

    Otra de las ventajas del modelo propuesto está en la concepción de la seguridad, desde el momento del diseño. Los datos existen y viajan encriptadas todo el tiempo, algo que incrementa la seguridad de manera considerable. Uno de los ingenieros de HP señaló incluso que si sólo esa fuera la ventaja del nuevo modelo, ya eso le garantizaría un éxito importante en la industria.

    Este modelo obligará a repensar mucho en la industria. Las mejoras de procesamiento podrán venir de muchos lados, y serán accesorias, es decir el cliente podrá decidir cómo y cuando las incorpora, mientras que el corazón de su infraestructura TI, la memoria, podrá permanecer inalterada por mucho tiempo.

    “Lo más impresionante serán las cosas que se podrán hacer que hoy día no se hacen” señaló el ingeniero, después de asegurar que las tareas actuales se beneficiarán de la velocidad de los nuevos sistemas. “Aún en los laboratorios discutimos sobre cuales tipos de carga de trabajo serán los más adecuados para este modelo”.

    HP anunció su proyecto el años pasado (ver video de lanzamiento al final) y este año confirmó que espera tener a finales de la década servidores basados en esta tecnología a la disposición de las empresas, así como el prototipo antes mencionado para finales del próximo año. De ser así es seguro que seguiremos hablandodeti HP y de tu “Máquina” desde estas páginas, con mucho, pero mucho interés.

  • Watson quiere ser el mejor chef del mundo

    Watson quiere ser el mejor chef del mundo

    Que una computadora aprenda a jugar Jeopardy y se convierta en campeona es algo fácil de imaginar, pero que de allí salte a querer ser el mejor chef de cocina del mundo, es otra historia. ¡Y parece estarlo logrando!

    Watson no es un chef común y corriente. Ni siquiera es un chef de carne y hueso. Watson es el proyecto de computación cognitiva que creo IBM hace ya unos años y que aprendió a jugar Jeopardy y le ganó a los mejores humanos en ese juego. Sí, leyó bien, APRENDIO a ganarles. Posteriormente Watson se fue a la escuela de medicina y ha ayudado a muchos médicos, especialmente en especialidades oncológicas a realizar diagnósticos más acertados. También se metió, recientemente, en analítica de redes sociales y anda por allí descubriendo emociones, tendencias de comportamiento y más en cuanta red se le cruza por delante. Pero…¿cocinar?

    Chef Watson se llama el proyecto donde la computadora empezó a aprender recetas de una base de datos enorme. El análisis de toda esa data le permite hoy día generar nuevas recetas, que sorprendentemente parecen saber bien. Un artículo en CNN Money destaca que “las fresas y el pollo poco parecen tener en común, pero si tienen algo el compuesto de sabor g-dodecalactone.” Y Watson lo sabe y se aprovecha de eso para sugerir platos en los que combinen bien estos elementos.

    Juegue un rato con Chef Watson y se le olvidará que se trata de una maravilla tecnológica, y estará más bien asombrado de ver que receta le devuelve cuando usted le cambia los elementos, o simplmente le pide que sea un poco más clásico, o más creativo. Así de sencillo es para el usuario final. La computadora que aprendió recetas, ha sabido descubrir en ellas algunos secretos que se atreve a llevar a nuevas recetas, inexistentes, y según muchos d elos que han hecho la prueba de cocinarlas, con muy buen resultado.

    De esto continuar así estoy seguro que seguiré hablandodeti Watson, y de la empresa que te fabrica, IBM, por mucho, pero mucho tiempo, cuando tengan oportunidad de darte a digerir otro nuevo componente de la cultura humana, ya sean diagnósticos de carros que fallan, sugerencias de vacaciones para la familia, o recetas sobre como hacer más exitosa una empresa.

  • El fallo en el iPad que retrasó a American Airlines

    El fallo en el iPad que retrasó a American Airlines

    Un post interesante en el blog de negocios de Kaspersky cuenta como un pequeño fallo en una App de iPad terminó retrasando un importante número de vuelos de American Airlines el pasado 28 de Abril

    Lo sucedido con un pequeño falló en una App que hizo que muchas iPads que le pertenecían a pilotos de American Airlines retrasaran los vuelos que pilotaban, está reseñado en una entrada del blog de negocios de Kaspersky en inglés.

    Una App usada para convertir a los iPads en reemplazo de las enormes “bolsas de vuelo” –conjunto de mapas, ordenes y documentos que juntos alcanzan a veces hasta 20KG de peso)– arrojó un fallo que hacía reiniciar a los iPads, tras una actualización defectuosa, con el código corrompido.

    No hubo vidas humanas en riesgo, y el problema fue de fácil solución, bastando realizar una re-instalación de la App, pero para eso muchos pilotos tuvieron que retrasar el inicio de su vuelo y algunos que ya había empezado a rodar el avión en la pista, incluso debieron regresar a la puerta desde donde habían salido, para poder aprovechar la conexión WiFi y así actualizar la App. Incluso se rumora que algún piloto decidió resolver el problema a la manera “antigua” e imprimió de nuevo todos sus documentos.

    El incidente no pasa de ser una pequeña e interesante anécdota si solo se juzga por sus resultados. Pero si se ve el potencial, y se suponen escenarios donde la desaparición de los datos ocurre quizás a mitad del viaje, se puede entrever un compromiso de seguridad mucho más serio, al que hay que prestarle atención y prevenirlo, o mejor dicho evitarlo, usando cualquier medio posible.

    El crecimiento de la dependencia tecnológica y en los gadgets, configura cada vez más un escenario muy productivo, pero altamente vulnerable, donde los ataques criminales y los fallos de programación se vuelven igual de peligrosos. El control normal a una App que se realiza en las tiendas de aplicaciones, sólo busca que las aplicaciones sean legítimas, que no estén infectadas, y evalúa otros aspectos como la interfaz para ver si se apega a los lineamientos. Pero nunca se revisa si la funcionalidad funciona bien al 100%, abriendo paso a que aplicaciones con defectos de programación –involuntarios o no—terminen en ambientes de producción como el de un piloto de avión, que puede tener en sus manos la vida de cientos de personas.

    A medida que la Internet de las cosas avanza como concepto y en su implementación, este tipo de amenazas seguirán surgiendo y puedo dar por seguro que seguiré hablandodeti, Kaspersky, así como de los otros proveedores de seguridad, cada vez que descubran una nueva vulnerabilidad, fallo o debilidad.

  • El futuro de SAP pasa por “Velocity Raptor”

    El futuro de SAP pasa por “Velocity Raptor”

    Hasso Plattner, fundador de SAP, reveló que “Velocity Raptor” es el nombre código del nuevo desarrollo que SAP está llevando a cabo para construir una plataforma para la Internet de las Cosas

    Las conversaciones con Hasso Plattner siempre son agradables. Aunque no se les pueda llamar conversaciones de manera formal a las sesiones de preguntas y respuesta que el da, gracias a la presencia de periodistas, analistas y bloggers bien informados siempre termina siendo una conversación, entre el público ávido de respuestas y el Profesor, que con su método peculiar y exigente, intenta que la gente entienda lo que el futuro de las TI nos depara.

    Este año, durante el Sapphire 2015, no fue distinto el caso. El Profesor quería hablar, y tenía al lado a un CTO, Quentin Clark, que por su juventud y poco tiempo en el cargo –apenas asumió en Noviembre 2014— le restaba poca atención, dejándole todo el protagonismo.

    Las preguntas y respuestas empezaron a ir y venir, pero en una de esas, algo se escapó: Velocity Raptor es el nombre código de un proyecto del que no estaba autorizado a decir mucho más, según se vio de la mirada del PR y del CTO que lo acompañaban en escena. Pero se pudo conocer que tenía que ver con la plataforma de visualización de SAP conocida como Lumira.

    La próxima pregunta no tuvo un desenlace tan feliz. Al confrontar a Hasso con una afirmación hecha por el mismo profesor hace unos años, Hasso perdió la paciencia y como un maestro exigente, recriminó seriamente al periodista que hizo la pregunta, por no darse cuenta de que la respuesta era obvia. El periodista quería saber si la tecnología in-memory había llegado realmente para quedarse como Hasso afirmó hace unos tres años y el Profesor se molestó de que no se hubiera dado cuenta de que de eso se trataba casi todo en el evento e ironizó con “devolverle el dinero” del libro grátís que poco antes nos habían obsequiado, titulado “La revolución In-Memory”.

    Después de esta reprimenda pública, el micrófono para realizar la siguiente pregunta me fue entregado. Aunque esto no es relevante para el post, le pido a quienes me leen, imaginen por un momento cómo se sentirían, pensando en que una pregunta obvia, mal estructurada o simplemente poco interesante, podía terminar de desatar la ira del personaje, y hacerme pasar un mal momento.

    Después de pedir perdón por anticipado, por si acaso cometía algún gazapo idiomático con mi inglés, me dirigí directamente a Hasso para decirle “Conversando una vez con Grady Brooch, un pionero de la computación, el me señalo que además de los modelos tradicionales de computación, transaccional o paralelo, estaba surgiendo un tercer modelo, basado en la computación embebida en los dispositivos móviles. Y eso con la Internet de las Cosas cobra más fuerza…así que me gustaría conocer su visión sobre el futuro de este modelo y como SAP se prepara para soportarlo”. Me eché para atrás en el asiento y esperé el posible regaño.

    Hasso empezó en tono de regaño, muy propio del profesor que se preocupa de que los alumnos entiendan, pero que no lleva ningún reclamo en si mismo. “De eso se trata Velocity Raptor, por eso lo hemos incluido en SAP Lumira”. ¡Bingo! La respuesta a una pregunta que tenía dos años haciendo, se develó de una vez. Dos años antes, a uno de los co-CEO de SAP para ese entonces, Jim Snabe, le pregunté en que tenía trabajando al Profesor, una vez que Hana –la plataforma de computación in-memory de SAP– ya estaba encaminada. Snabe me confesó que SAP trabajaba para lograr lo que hoy se conoce como Network Enterprise, pero que el Profesor trabajaba en algo distinto, que no se podía revelar, pero relacionado con Hana.

    Como ya deben haber leído SAP anunció en el Sapphire una plataforma completa para la Internet de las cosas, incluyendo una versión de Lumira, su software de visualización, así como una plataforma de nube para soportar todo. Calladamente se dejo colar que la última versión de Lumira ya contiene una versión de Volcity Raptor en ella. Velocity Raptor al final es una versión de software ligera, de apenas 20MB, de la funcionalidad básica de SAP HANA que puede ser embebida en distintas aplicaciones llevando el poder de HANA a dispositivos de tamaño reducido, permitiendo ejecutar en ellos niveles de inteligencia muy altos, a velocidades asombrosas, gracias a la capacidad de la tecnología in-memory. Es sin duda alguna una pieza fundamental de la estrategia de SAP para entrar al mercado del IoT no solo desde la nube o los servidores de las empresas, sino también desde dispositivos de menor tamaño y costo, que conformarán la mayoría de los dispositivos conectados a la IoT. La “inteligencia” en los dispositivos conectados a la Internet será un gran negocio y son pocas las empresas de software que han mostrado planes serios para estar allí, dejándole más bien a las empresas de hardware esta responsabilidad.

    Aunque me haya tomado dos años y tres eventos el descifrar el camino de desarrollo de SAP, y en especial el trabajo del profesor Hasso, bien valió la pena estar hablandodeti SAP, y del querido profesor, desde estas páginas, para poder así formarse una mejor idea de hacia donde avanza la industria.

  • Sapphire 2015: Negocios simples: orientados a los datos y sin disrupciones

    Sapphire 2015: Negocios simples: orientados a los datos y sin disrupciones

    Para el CEO e SAP, Bill McDermott, ya no estamos en un mercado “business-to-business-to-consumer” sino más bien en un Mercado “consumer-to-business” que demanda de las empresas un proceso de digitalización total

    Apenas hace un año el ceo de AP, Bill McDermottt, aseguraba que había que ser cada vez más simples, refiriéndose a su empresa y sus productos, pero también a las empresas que los usan. Hoy, un año más tarde el mensaje se repite, pero además Mcdermott asegura que SAP tiene el camino –roadmap—para que las empresas se simplifiquen.

    “Ya no estamos en un mercado ‘business-to-business-to-consumer’ este es más bien un mercado ‘consumer-to-business’” aseguró McDermott ante el público asistente al evento Sapphire 2015, que se realiza en Orlando, Florida. Los usuarios pueden, según el ejecutivo, elegir lo que quieren, como lo quieren y por el canal que lo quieren, sin perder tiempo que pueden aprovechar en otras actividades.

    Aunque por el momento no develó el camino para ser simple –se supone lo hará Bernd Leuken este miércoles, McDermott si aseguró que los negocios simples tienen una configuración común: están orientados a los datos y funcionan de manera continua, ininterrumpida –data driven and seamless.

    McDermott hace además otra aseveración contundente: el 90% de los datos de los negocios son datos oscuros, es decir no están siendo recogidos ni visualizados a pesar de que pueden ser importantes.

    Las empresas que atraviesan la brecha de los datos perdidos, capturándolos y usándolos, funcionan de manera más eficiente y se conectan mejor con sus clientes, según McDermott, que presentó algunos ejemplos enante el público con casos de clientes.

    Digitalizarse por completo es la única opción para las empresas que quieren aprovechar esta nueva economía, según McDermott. Un ejemplo es el proceso de compras a SAP, en el que empresas e individuos pueden comprar productos SAP directamente, sin poner órdenes de compra ni nada.

    Digital for Customer Engagement será el primer producto disponible de esta manera, y se trata de una suite de CRM en la nube, diseñado para individuos y pequeños grupos de trabajo, que puede ser adquirido por apenas US$29 al mes por usuario y configurado en apenas minutos, al menos según promete SAP. Como este vendrán otros productos “digitales nativos”.

    Por último , MacDermott anunció en su conferencia varios acuerdos que no se explicaron mucho pero pueden tener una gran imortancia, como los son un acuerdo con Facebook y otro con Google, aunque dejó al público preguntándose sobre los objetivos y el alcance de cada uno de estos acuerdos.

    Y es así como hoy estamos hablandodeti, Bill McDermottt, y de tu conferencia de apertura en el Sapphire 2015, del que estoy seguro seguiré hablando en los próximos días.

  • Hoy, el día en que Google cambió la Internet

    Hoy, el día en que Google cambió la Internet

    El cambio del algoritmo de búsquedas del gigante Google, puede haber cambiado hoy la forma de la Internet para siempre

    El concepto detrás del cambio es sencillo. Google premiará a los sitios que tengan versiones móviles que funcionen bien –que sean “amigables “ con los dispositivos móviles—y demejorará en sus resultados de búsqueda a aquellos que no lop hagan. Este es el primer movimiento importante de la industria de Internet para promocionar el uso móvil, equiparandolo en importancia al acceso más tradicional desde PCs.

    Google no hace esto sin razón. Año tras año las búsquedas realizadas desde dispositivos móviles vienen creciendo y estan sobrepasando a las realizadas desde los escritorios, así que no hay manera mejor de aprov echar esto, que ofreciendo una Internet compatible con estos dispositivos.

    El negocio de Google, la venta de publicidad, está cada vez más allí en el mercado móvil, y cada vez más usuarios usan sus teléfonos parab realizar búsquedas, así que esta actualización era más que esperable. Google la anunció desde Diciembre del 2014, un plazo realmente largo para las costumbres de Google, pero que refleja la intención del gigante de las búsquedas de permitir que las páginas se adecuaran con tiempo.

    En las próximas semanas hay mucho anunciando un cambio en la Internet, una especie de catástrofe, que hará que muchos sitios de empresas medianas y pequeñas, con poco presupuesto de TI, empiecen a retroceder en los resultados de Google, una de las maneras más importantes de conseguir visitantes web. Sin conocer si esto pasará a ciencia cierta, al menos si se puede afirmar que a partir de hoy, la Internet será diferente, mucho más amigable con la navegación web desde teléfonos inteligentes.

    Mientras hablandodeti también tuvo que adaptarse. Si bien la página se veía bien en teléfonos inteligentes, un par de particularidades de la plantilla de WordPress anterior, no permitía ser considerado 100% amigable con móviles parav Google, por lo que hoy estrenamos nueva plantilla, 100% amigable y desde la que estaremos hablandodeti querido lector y de las cambios de la Internet que te afectan.