Categoría: Tendencias

  • IBM gana US$7.700 millones sólo en nube. ¿qué nos dice esto?

    IBM gana US$7.700 millones sólo en nube. ¿qué nos dice esto?

    Las ganancias del gigante azul por prestar servicios en la nube alcanzaron la asombrosa cifra de US$7.700 millones, unos US$2.500 millones más que Amazon

    Con un incremento de 75% anualizado, según se desprende de su último reporte financiero, los negocios de nube de IBM han crecido para acumular la impresionante cifra de US$7.700 millones durante los últimos doce meses, superando incluso al gran jugador del area, Amazon Web Servicies, que no se puede decir que halla tenido un mal trimestre.

    IBM ha anunciado que se está rediseñando para convertirse cada vez más en una empresa orientada a servicios de nube, desarrollando tecnología, desplegando centros de datos y adquiriendo empresas en esta área. IBM estima que para el 2019 existan no menos de 12.5 millones de desarrolladores de Aplicaciones para servicios de nube, una cifra que triplica el número actual de desarrolladores, y ellos quieren estar en la mejor posición en ese mercado.

    El negocio de nube de IBM conlleva tres grandes áreas tecnológicas: La Infraestructura como servicio (IaaS), la plataforma como servicio (PaaS) y por supuesto el Software como servicio (SaaS). Si bien para el poco entendido –e incluso el medianamente entendido—suenen como iguales, estas tres áreas permiten definir por completo la infraestructura de TI de un centro de datos y venderlo cen un esquema basado principalmente en el uso. Es decir, las empresas en lugar de contar con un Centro de Datos propio, y sostener todos los recursos necesarios para hacerlo funcionar –desde refrigeración y alimentación eléctrica hasta recursos humanos de administración—puede simplemente ver todo ese conjunto como un servicio y contratarlo, lo que implicará que pagará por el tanto como lo use, sin tener que preocuparse de mantener al día todas las áreas mencionadas.

    Pero además hay ganancias significativas en otras áreas. Al momento de lanzar un nuevo producto –desde el punto de vista de TI—los tiempos se acortan de manera significativa. Todo el tiempo usado para licitar equipos, comprarlos, instalarlos, entrenar al personal para manejarlos, etc., se reduce a unas pocas horas, agilizando al negocio de manera importante.

    Esta estrategia de IBM hace un buen match con la de algunos de los principales fabricantes de software empresarial, SAP y Oracle, y aunque esas empresas cuenten con algunas ofertas de soluciones con hardware, la gran mayoría de sus clientes tienen soluciones funcionando sobre infraestructura desarrollada por terceros, e IBM puede suplir sin problema esa infraestructura, e incluso ir más allá.

    La estrategia de desarrollar nuevos centros de datos alrededor del mundo, usando la tecnología comprada de Softlayer habilita a IBM para lograr sus metas de la mejor manera. Soporte para OpenStack o el desarrollo de BlueMix son también claves para este desarrollo que contempla, al menos en un principio, una gran adopción por parte de las empresas de las nubes híbridas, esas que combinan las nubes privadas –en el DataCenter del propio cliente—con las nubes públicas ofrecidas por empresas como IBM o Amazon en sus propios Centros de Datos.

    El negocio de nube de IBM no ha hecho sino empezar, y hay que ver la gran cantidad de desarrollos que están logrando como empresa para esta área y áreas relacionadas como almacenamiento, virtualización y más. Es así entonces como seguramente seguiré hablandodeti IBM, y de tu negocio de nube, por muchos años más.

  • IBM puede cambiar el negocio de los chips con su nueva tecnología de 7nm

    IBM puede cambiar el negocio de los chips con su nueva tecnología de 7nm

    El avance del gigante azul pone presión en empresas como Intel, al tiempo que ratifica el rol predominante de la investigación y el desarrollo en la corporación

    IBM anunció una nueva tecnología de fabricación de chips de 7 nanómetros, que es menor que la tecnología de 10nanómetros que se espera sea el estándar en breve, poniendo a IBM con una generación de chips que está literalmente “más allá” de la próxima generación.

    IBM se deshizo de sus fabricas de chips el año pasado, en su estrategia de concentrarse en otras áreas que no sean hardware, pero aún así el valor de una tecnología como esta es indiscutible. De licenciarla a Global Foundry, la empresa que compró las fábricas de chips, esto le abriría las puertas para fabricar chips de Qualcomm, AMD y otros rivales de Intel que podrían alterar el mercado.

    IBM logró llegar a esta tecnología no sólo con máquinas muy precisas, sino que también modifico el material base de los chips, agregándole germanio al silicio tradicional. Pero para la fabricación del chip se hace necesario usar un proceso d elitografía ultravioleta muy sensible al movimiento, que limita –por el momento—la aplicabilidad comercial de la tecnología, pero desde ya están trabajando para mejorarlo. Las promesas son increíbles: 50% más de densidad que los chips de 10nm y otro 50% de incremento en el rendimiento.

    Habrá que esperar a conocer más sobre este prometedor avance, que amenaza con cambiar la industria. Así que seguiré hablandodeti IBM y de tus adelantos en chips, en próximos posts de este blog.

  • “The Machine” de HP quiere transformar la computación

    “The Machine” de HP quiere transformar la computación

    Una modelo atrevido, centrado en la memoria y no en el procesador, quiere desbancar el ya tradicional modelo de Von Neumann en el que están basado todos los computadores actuales

    Por primera vez pude conversar con tecnicos de los HP Labs acerca de “The Machine” –La Máquina—ese modelo de computación que esta probando HP y que difiere en mucho de los sistemas actuales. La conversación sirvió para entender un poco más la capacidad disruptiva de este modelo de computación propuesto.

    En 1945 el físico John von Neumann propuso un modelo de computación que aún hoy día es usado, con pocas alteraciones. Una unidad de procesamiento –más tarde sería el procesador que actualmente conocemos—que interactúa con el mundo por medido de canales de entrada y salida de datos. Adentro d ela unidad de procesamiento, una unidad de control, junto a la unidad lógico aritmética se comunican por medio de un Bus con la unidad de memoria y con medios de almacenamiento masivo, como discos o cintas.

    En contraste, The Machine propone colocar memoria no volátil en el centro del modelo –es decir memoria que no se borra al quitarle la alimentación eléctrica—y poner al procesador y los procesos de entrada y salida a funcionar alrededor de la memoria. En el modelo de von Neuman la memoría era algo tan valioso, que la unidad de proceso hacía uso limitado de la misma, mientras que en el modelo que propone HP, la memoria es rápida, económica y prácticamente ilimitada (realmente tiene límites, pero hay una gran disponibilidad, más de la que hace falta para albergar a un programa y sus datos). Esta nueva tecnología usara memristores, una versión de los transistores, pero basado en chips de memoria.

    Aunque aún no tenemos la memoria no-volátil que se requiere, HP promete tener un prototipo de “the Machine” para dentro de un año, usando memoria SDRAM actual y un sistema de alimentación ininterrumpida como “sustitutos” de la memoria no-volátil. Algunos de los beneficios de esta propuesta son obvios, y se parecen a los que vemos en otras plataformas de computación in-memory: velocidad, velocidad y más velocidad.

    Pero hay otros que son mucho más dramáticos: el procesamiento se vuelve en este esquema un recurso, tal como lo era la memoria en el modelo anterior, y se pueden empezar a visualizar situaciones donde los procesadores van hacia los datos –al contrario de llevarles los datos a ellos—y entran a ejecución –o salen—de manera dinámica. En este esquema el sistema puede arrancar con una capacidad baja de procesamiento y si se requiere ir “trayendo” mayor poder computacional a medida que se requiere. Incluso los ingenieros de HP Labs dejaron entrever que se pueden diseñar módulos de hardware para procesar datos, ampliamente optimizados a la naturaleza de los datos. Eto tiene implicaciones importantes sobre lo que puede ser el rendimiento de estos sistemas, con datos en memoria y procesadores especializados por tareas específicas.

    Otra de las ventajas del modelo propuesto está en la concepción de la seguridad, desde el momento del diseño. Los datos existen y viajan encriptadas todo el tiempo, algo que incrementa la seguridad de manera considerable. Uno de los ingenieros de HP señaló incluso que si sólo esa fuera la ventaja del nuevo modelo, ya eso le garantizaría un éxito importante en la industria.

    Este modelo obligará a repensar mucho en la industria. Las mejoras de procesamiento podrán venir de muchos lados, y serán accesorias, es decir el cliente podrá decidir cómo y cuando las incorpora, mientras que el corazón de su infraestructura TI, la memoria, podrá permanecer inalterada por mucho tiempo.

    “Lo más impresionante serán las cosas que se podrán hacer que hoy día no se hacen” señaló el ingeniero, después de asegurar que las tareas actuales se beneficiarán de la velocidad de los nuevos sistemas. “Aún en los laboratorios discutimos sobre cuales tipos de carga de trabajo serán los más adecuados para este modelo”.

    HP anunció su proyecto el años pasado (ver video de lanzamiento al final) y este año confirmó que espera tener a finales de la década servidores basados en esta tecnología a la disposición de las empresas, así como el prototipo antes mencionado para finales del próximo año. De ser así es seguro que seguiremos hablandodeti HP y de tu “Máquina” desde estas páginas, con mucho, pero mucho interés.

  • Watson quiere ser el mejor chef del mundo

    Watson quiere ser el mejor chef del mundo

    Que una computadora aprenda a jugar Jeopardy y se convierta en campeona es algo fácil de imaginar, pero que de allí salte a querer ser el mejor chef de cocina del mundo, es otra historia. ¡Y parece estarlo logrando!

    Watson no es un chef común y corriente. Ni siquiera es un chef de carne y hueso. Watson es el proyecto de computación cognitiva que creo IBM hace ya unos años y que aprendió a jugar Jeopardy y le ganó a los mejores humanos en ese juego. Sí, leyó bien, APRENDIO a ganarles. Posteriormente Watson se fue a la escuela de medicina y ha ayudado a muchos médicos, especialmente en especialidades oncológicas a realizar diagnósticos más acertados. También se metió, recientemente, en analítica de redes sociales y anda por allí descubriendo emociones, tendencias de comportamiento y más en cuanta red se le cruza por delante. Pero…¿cocinar?

    Chef Watson se llama el proyecto donde la computadora empezó a aprender recetas de una base de datos enorme. El análisis de toda esa data le permite hoy día generar nuevas recetas, que sorprendentemente parecen saber bien. Un artículo en CNN Money destaca que “las fresas y el pollo poco parecen tener en común, pero si tienen algo el compuesto de sabor g-dodecalactone.” Y Watson lo sabe y se aprovecha de eso para sugerir platos en los que combinen bien estos elementos.

    Juegue un rato con Chef Watson y se le olvidará que se trata de una maravilla tecnológica, y estará más bien asombrado de ver que receta le devuelve cuando usted le cambia los elementos, o simplmente le pide que sea un poco más clásico, o más creativo. Así de sencillo es para el usuario final. La computadora que aprendió recetas, ha sabido descubrir en ellas algunos secretos que se atreve a llevar a nuevas recetas, inexistentes, y según muchos d elos que han hecho la prueba de cocinarlas, con muy buen resultado.

    De esto continuar así estoy seguro que seguiré hablandodeti Watson, y de la empresa que te fabrica, IBM, por mucho, pero mucho tiempo, cuando tengan oportunidad de darte a digerir otro nuevo componente de la cultura humana, ya sean diagnósticos de carros que fallan, sugerencias de vacaciones para la familia, o recetas sobre como hacer más exitosa una empresa.

  • Sapphire 2015: Negocios simples: orientados a los datos y sin disrupciones

    Sapphire 2015: Negocios simples: orientados a los datos y sin disrupciones

    Para el CEO e SAP, Bill McDermott, ya no estamos en un mercado “business-to-business-to-consumer” sino más bien en un Mercado “consumer-to-business” que demanda de las empresas un proceso de digitalización total

    Apenas hace un año el ceo de AP, Bill McDermottt, aseguraba que había que ser cada vez más simples, refiriéndose a su empresa y sus productos, pero también a las empresas que los usan. Hoy, un año más tarde el mensaje se repite, pero además Mcdermott asegura que SAP tiene el camino –roadmap—para que las empresas se simplifiquen.

    “Ya no estamos en un mercado ‘business-to-business-to-consumer’ este es más bien un mercado ‘consumer-to-business’” aseguró McDermott ante el público asistente al evento Sapphire 2015, que se realiza en Orlando, Florida. Los usuarios pueden, según el ejecutivo, elegir lo que quieren, como lo quieren y por el canal que lo quieren, sin perder tiempo que pueden aprovechar en otras actividades.

    Aunque por el momento no develó el camino para ser simple –se supone lo hará Bernd Leuken este miércoles, McDermott si aseguró que los negocios simples tienen una configuración común: están orientados a los datos y funcionan de manera continua, ininterrumpida –data driven and seamless.

    McDermott hace además otra aseveración contundente: el 90% de los datos de los negocios son datos oscuros, es decir no están siendo recogidos ni visualizados a pesar de que pueden ser importantes.

    Las empresas que atraviesan la brecha de los datos perdidos, capturándolos y usándolos, funcionan de manera más eficiente y se conectan mejor con sus clientes, según McDermott, que presentó algunos ejemplos enante el público con casos de clientes.

    Digitalizarse por completo es la única opción para las empresas que quieren aprovechar esta nueva economía, según McDermott. Un ejemplo es el proceso de compras a SAP, en el que empresas e individuos pueden comprar productos SAP directamente, sin poner órdenes de compra ni nada.

    Digital for Customer Engagement será el primer producto disponible de esta manera, y se trata de una suite de CRM en la nube, diseñado para individuos y pequeños grupos de trabajo, que puede ser adquirido por apenas US$29 al mes por usuario y configurado en apenas minutos, al menos según promete SAP. Como este vendrán otros productos “digitales nativos”.

    Por último , MacDermott anunció en su conferencia varios acuerdos que no se explicaron mucho pero pueden tener una gran imortancia, como los son un acuerdo con Facebook y otro con Google, aunque dejó al público preguntándose sobre los objetivos y el alcance de cada uno de estos acuerdos.

    Y es así como hoy estamos hablandodeti, Bill McDermottt, y de tu conferencia de apertura en el Sapphire 2015, del que estoy seguro seguiré hablando en los próximos días.

  • Hoy, el día en que Google cambió la Internet

    Hoy, el día en que Google cambió la Internet

    El cambio del algoritmo de búsquedas del gigante Google, puede haber cambiado hoy la forma de la Internet para siempre

    El concepto detrás del cambio es sencillo. Google premiará a los sitios que tengan versiones móviles que funcionen bien –que sean “amigables “ con los dispositivos móviles—y demejorará en sus resultados de búsqueda a aquellos que no lop hagan. Este es el primer movimiento importante de la industria de Internet para promocionar el uso móvil, equiparandolo en importancia al acceso más tradicional desde PCs.

    Google no hace esto sin razón. Año tras año las búsquedas realizadas desde dispositivos móviles vienen creciendo y estan sobrepasando a las realizadas desde los escritorios, así que no hay manera mejor de aprov echar esto, que ofreciendo una Internet compatible con estos dispositivos.

    El negocio de Google, la venta de publicidad, está cada vez más allí en el mercado móvil, y cada vez más usuarios usan sus teléfonos parab realizar búsquedas, así que esta actualización era más que esperable. Google la anunció desde Diciembre del 2014, un plazo realmente largo para las costumbres de Google, pero que refleja la intención del gigante de las búsquedas de permitir que las páginas se adecuaran con tiempo.

    En las próximas semanas hay mucho anunciando un cambio en la Internet, una especie de catástrofe, que hará que muchos sitios de empresas medianas y pequeñas, con poco presupuesto de TI, empiecen a retroceder en los resultados de Google, una de las maneras más importantes de conseguir visitantes web. Sin conocer si esto pasará a ciencia cierta, al menos si se puede afirmar que a partir de hoy, la Internet será diferente, mucho más amigable con la navegación web desde teléfonos inteligentes.

    Mientras hablandodeti también tuvo que adaptarse. Si bien la página se veía bien en teléfonos inteligentes, un par de particularidades de la plantilla de WordPress anterior, no permitía ser considerado 100% amigable con móviles parav Google, por lo que hoy estrenamos nueva plantilla, 100% amigable y desde la que estaremos hablandodeti querido lector y de las cambios de la Internet que te afectan.