Etiqueta: IBM

  • Watson espera por la academia latinoamericana

    Watson espera por la academia latinoamericana

    watson
    Jorge Mújica, Director de Tecnología de IBM Chile, conversó conmigo sobre el tema d ela computación cognitiva, de la que Watson es el mejor exponente.

    Watson, la computadora que jugó Jeopardy y le ganó a las dos personas que mejor desempeño habían tenido en el juego, es una computadora especial. No esta en los primeros lugares del ranking de las más poderosas del mundo, pero si existiera un ranking que midiera la inteligencia de los sistemas, seguro estaría entre los primeros.

    El esquema de Watson intenta emular la forma de trabajo del cerebro humano, acumulando datos y estableciendo relaciones entre estos para generar un sistema capaz de predecir respuestas. Si como lo oyen, no calcula propiamente las respuestas, sino que basándose en las pistas que tiene, predice las respuestas más probables.

    Por ejemplo, para ir a competir en la TV en Jeopardy, Watson fue “cargado” con más de 2TB de datos, los cuales procesó en apenas unos 42 minutos, estableciendo una red de relaciones entre ellos.

    Una vez pasada la emoción de Jeopardy, y la victoria más que holgada de Watson sobre los dos mejores participantes de toda la historia del programa, se empezaron a pensar aplicaciones para el sistema, siendo el diagnóstico médico del cáncer, el elegido. En alianza con el Memorial Sloan-Kettering Cancer Center de Nueva York, IBM ha entrenado a Watson para realizar diagnósticos, que según la empresa son más acertados que las d elos propios médicos. Esto se debe a que normalmente un médico necesitaría unas 160 horas de lectura a la semana para poder mantenerse al día con los nuevos descubrimientos, así que por lo general hacen sus diagnósticos cpn apenas un 20% de la información disponible.

    ¿Qué ocurre en Latinoamérica?

    Mujica cuenta que IBM está trabajando con varias clínicas y hospitales importantes en la región para lograr que hagan parte del proyecto de Watson y el Sloan-Kettering, y puedan mandar sus diagnósticos a Watson. La idea detrás de esto es tener a Watson en la nube de IBM y poder usarla desde diferentes hospitales, a costos realmente accesibles.

    Pero existen otras áreas de desarrollo importantes, y es donde la academia latinoamericana puede ayudar. Actualmente Mújica participa en proyectos con Watson que buscan generar analizadores semánticos –que interpreten expresiones de lenguaje natural—desarrollados para los diferentes países de la región. Se trabaja en Chile, Ecuador y Perú en proyectos parecidos, pero aún hay mucho campo de aplicación para la tecnología detrás de Watson.

    Para los que quieran saber más acerca de Watson, pueden esperar a la edición de febrero de la revista Producto (www.producto.com.ve) para leer más d elo que allí escribí, o simplemente hacer una búsqueda en Google para encontrar un sinúmero de artículos relacionados.

    Así que querido lector, si eres investigador en alguna universidad de la región, y crees tener un problema donde un enfoque innovador pueda ayudar a solucionarlo, pues quizás entonces esté hablandodeti en este post.

  • Analítica para todo, o cómo Apple pretende seguir reinando en el mundo de los contenidos

    Analítica para todo, o cómo Apple pretende seguir reinando en el mundo de los contenidos

    applelogo
    Llevo años escuchando acerca de las bondades de aplicar las técnicas de analítica de negocios a diferentes áreas de actividad de las empresas. La analítica de negocios es una aplicación estadística a los datos obtenidos de la empresa o el mercado, que permiten predecir y optimizar los recursos de la empresa, mediante el descubrimiento de patrones que surgen en los datos. Muchas veces la analítica de negocios se convierte en la única manera de poder sacar provecho de colecciones abundantes de datos, lo que algunos llaman Big Data, ya que al tratarse de cantidades de datos tan enormes, a veces la única opción es tratarlos estadísticamente para encontrar tendencias que sean relevantes al negocio.

    Y desde hace un par de años se habla mucho de la aplicación de esta “analítica de negocios” a las redes sociales para encontrar sentimientos y reacciones a diversos acontecimientos. Sin embargo pareciera que la industria, o al menos Apple, está viendo este matrimonio entre analítica y redes sociales de manera distinta.

    Esta semana Apple anunció la compra de la empresa de analítica de Twitter conocida como Topsy por unos US$200 millones. Aunque muchos se preguntaron porqué Apple invirtió semejante suma en una empresa “tan lejana” a sus negocios, análisis posteriores parecieran indicar que se puede tratar de la mayor implementación comercial de analítica sobre redes sociales .

    Las idea que coge cada vez más fuerza en las redes es que Apple planea usar las capacidades de Topsy para reforzar las ofertas de productos en iTunes. La tienda de Apple podría ser capaz de verificar tendencias musicales o series de TV vistas por sus seguidores de Twitter, por ejemplo, para sugerir posteriormente productos a ser comprados por el usuario.

    Revisar los hábitos del comprador, de sus comunidades y en general todo material disponible en redes sociales, permitiría realizar ofertas “ajustadas” a los intereses de cada usuario, lo que sin duda disparará el nivel de ventas de la tienda, al ofrecer sólo productos relevantes.

    Si estos rumores son ciertos, otras empresas que aún juegan a alcanzar a la tienda de Apple, podrían quedarse aún más atrás, cediendo cada vez más terreno ante la tienda de Cupertino. Será un uso realmente interesante de la analítica en Redes Sociales, con fines comerciales.

    Así que al hablar de tus gustos musicales en línea, así como otras referencias, estás querido lector, hablandodeti en la Internet, y al parecer, eso es algo de lo que Apple se quiere aprovechar.

  • Kraken: un monstruo formado por HP y SAP

    Kraken: un monstruo formado por HP y SAP

    kraken
    Ya he hablado en este blog sobre los sistemas optimizados o “ingenierados” de Oracle y de IBM. Ahora toca el turno a Kraken, una plataforma de HP altamente optimizada para ejecutar HANA, la plataforma de “computación en memoria” de SAP.

    Se trata de una plataforma poderosa –casi podría decirse monstruosa– dotada de una gran cantidad de memoria, hasta 12 Terabytes en principio, que ejecuta en memoria grandes bases de datos –de hasta 24 Terabytes— todo en tiempo real.

    Conversé recientemente con Paul Miller, Vice Presidente de Converged Application Systems, Enterprise Group de HP, sobre estos nuevos sistemas, así como otros anuncios realizados recientemente por la empresa, en el área de servidores. Y es que la gran ventaja de HP sobre los demás fabricantes, a decir de Miller, es el poder contar con toda la tecnología de Converged Infraestructure, diseñada para optimizar centros de datos, dentro de la plataforma. Los sistemas están finamente ajustados a las cargas de trabajo que deben procesar, según el ejecutivo, por lo que el rendimiento se incrementa de manera importante.

    Sin embargo, esto es más o menos lo que ocurre en todos los sistemas optimizados de que hemos hablado en este blog, por lo que decidí indagar más profundamente sobre las ventajas y cambios que traerá esta plataforma, y reproduzco a continuación parte de la entrevista que realice a Miller.

    “Si se fijan en nuestra estrategia y la compara con los Pure Systems [de IBM] o con la de Oracle, verán que nuestros equipos conllevan más ingeniería y son diseñados de manera más específica para ciertos tipos de cargas de trabajo” señala Miller “La inclusión de hasta 12 Terabytes de memoria que nos permiten manejar bases de datos de hasta 24 Terabytes, por ejemplo, refleja que estamos pensando en sistemas realmente diseñados para trabajar con computación en memoria”

    Pero Miller va más allá. “Cuando nos planteamos una plataforma para correr HANA con bases de datos de hasta 24 Terabytes [el sistema tiene 12TB de memoria pero con metodos de compresión llega a manejar BD de 24TB], no sólo queríamos que fuera rápido por el uso de la memoria para realizar los cómputos, sino que también pensamos en que todo lo que tuviera que ver con OLTP (Online Transactions Processing) [transacciones con bases de datos] mejorara, beneficiando así a distintos procesos, como sistemas de CRM, manteniendo criterios como alta disponibilidad y otros, propios de sistemas de misión crítica.” Esto implica que procesos como los de analítica de negocios, CRM u otros pueden ejecutarse simultáneamente en tiempo real en el mismo servidor, no con bases de datos separadas como hacen algunos proveedores.

    De hecho, Miller plantea que el trabajo de HP ha sido crear estos servidores desde cero, para lograr optimizarlos para ejecutar grandes cargas de trabajo, muy específicas, a diferencia de otras propuestas que parten de la base de un servidor existente, al que se busca habilitar añadiéndole RAM y funcionalidades.

    Y esto lo está haciendo HP no sólo con los servidores Kraken, sino también con otros tipos de cargas de trabajo específicas, a las cuales están dotando de plataformas optimizadas. “Por ejemplo Moonshot [otra plataforma ingenierada de HP y diseñada en específico para beneficiar al software Hadoop, con bajo consumo energético] es un ejemplo de como un sistema puede ser diseñado y ajustado para tareas específicas” señala Miller al referirse a una de las mas novedosas propuestas de servidores para cargas de trabajo web con bajo consumo energético.

    “[Con Kraken] la idea ha sido diseñar un sistema de alto valor y rendimiento, diseñado para grandes cargas de trabajo de computación en memoria, un mercado muy específico” Sin duda esta propuesta de HP no sólo tiene sentido en el mercado de servidores especializados, sino que también le permite a SAP competir directamente con IBM y Oracle en soluciones que implican el uso de analítica de negocios y Big Data, complementándose de manera importante ambas empresas –HP y SAP— que de otra forma competían en desventaja ante soluciones de la competencia que incluyen hardware y software.

    Miller es claro al señalar que hay otras cargas de trabajo para las que pueden optimizarse los servidores y están trabajando en algunas de ellas, incluyendo servidores optimizados para virtualización de escritorios, por dar un ejemplo. Estos sistemas permiten generar y entregar de manera rápida, ambientes de trabajo de escritorio a distintos usuarios, y estos ambientes se ejecutan en el servidor, no en el PC desde donde se visualizan, y esto implica una carga de trabajo muy particular, que debe además garantizar una experiencia de uso con muy rápida respuesta.

    Kraken es una plataforma que debe impactar profundamente a la industria y en especial a los clientes de HP y SAP. Estos sistemas son especialmente buenos con cargas de trabajo OLTP, de virtualización y otras, y probablemente se vean mucho en servicios de nube y en empresas con grandes necesidades de cómputo. Pero los mayores avances vendrán después de que esté disponible el hardware. Una nueva generación de aplicaciones, pensadas para trabajar “en memoria”, tendrán una base más sólida para desarrollarse y afectar procesos que probablemente aún no se han considerado. El Middleware optimizado para esto serán las plataformas como HANA, y la apuesta al éxito de esta plataforma se basará en que se trata de un enfoque simple y masivo, donde un sólo sistema ejecuta una base de datos, algo contrario a lo que suele suceder, donde la base de datos es descompuesta en pedazos para que múltiples servidores dentro de un cluster la procesen, y que debe ser rearmada constantemente. Realmente hay mercado para ambas opciones, y HP cuenta con servidores en los dos extremos –Moonshot y Kraken—lo que beneficia a las empresas con grandes cargas de trabajo, ya que podrán escoger lo que mejor se adapte a sus necesidades.

    Este nuevo enfoque me permitió estar hablandodeti HP y de ti SAP, a pesar de que por el nombre dado a la plataforma –Kraken— alguien pudiera haber pensado que hablaba más bien del mítico monstruo marino del mar del norte, que destruía barcos con su abrazo mortal.

  • Adiós Microsoft, Hola Microsoft

    Adiós Microsoft, Hola Microsoft

    ballmerrestructa
    En la edad Media, los cambios de monarca eran precedidos por un anuncio en las plazas que decían “El rey ha muerto, Que viva el [nuevo] Rey”. Hoy estamos ante algo parecido. Microsoft se reinventa, quizás por sexta u octava vez desde que Ballmer está al mando. Gates vió lo que venía y prefirió irse antes. La era del PC pasó, como sentenció su nemesis Steve Jobs, y la empresa líder del mundo de la tecnología, Microsoft, seguía basando su éxito en las PC, y al Steve que salía –en esta historia hay tres Steve: Gates, Jobs y Ballmer—no le provocaba empezar a luchar de nuevo por cimentar un liderazgo en un nuevo mercado, desconocido para ese entonces. Ballmer tomo el testigo, seguro de que se trataba de un entuerto que con su “carisma” y gran dedicación podría solventar. Gates se fue y no esperó a que le pasara lo que a Otellini –el de Intel, que fue sacado por la puerta trasera por no poder reaccionar al cambio.

    Hace unos años conversaba yo con Grady Booch, en unos minutos que me concedió para una entrevista. El salón estaba lleno de atorrantes que no sabían ni que preguntarle. Booch es uno de los padres de la prgramación orientada a objetos, es uno de los principlaes followers de IBM, y es tremendamente reconocido en el mundo del software. Yo dejé, como siempre hago, que pasaran las primeras preguntas sin sentido y después, con algo de arrogancia, le espeté una pregunta para atraer su atención: le pregunté sobre los dos tipos de computación que según yo creía existían para el momento, la intensiva y la paralelizable. Pero allí mismo el me devolvió al terreno de la humildad, al contestarme que no eran dos , sino más bien tres los tipos de cómputo, que me olvidaba del cómputo de dispositivos embebidos, es decir de la movilidad. Yo de inmediato entendí lo que decía y mi respeto hacia el creció de inmediato. Me estaba saltando la revolución más importante de lo que va de siglo, la de la movilidad. Ahora bien, yo no era el único equivocado. Cientos de personas quizás, en los niveles ejecutivos de Microsoft e Intel, siguen aún sin darse cuenta de esto. Y estoy seguro que hay miles más en otras empresas.

    Hoy discutía con un gran amigo de la Universidad, que está trabajando desde hace años en arquitecturas de chips, y que recientemente llegó a Intel, dada su experiencia en chips móviles. Y la conclusión era la misma: adentro de la organización todos saben que movilidad es la tendencia más importante, pero no por ello logran cambiarse el chip –nunca más literalmente dicha esta frase—para pensar de manera adecuada.

    El enfoque de fuerza bruta, de reducir los chips o lanzar nuevos sistemas, no son suficientes. Empresas más pequeñas y ágiles, Apple y ARM por nombrar dos, han sabido responder mejor que estos dos gigantes, que estoy seguro que entre ambas podrían crear un pequeño país sólo con sus ingenieros.

    Soy optimista con ambas empresas. Microsoft, que es el tema de este post y que ganó en el 2012 más de US$6.000 millones, se definió hoy como una empresa enfocada en promover tres productos: dispositivos móviles, su consola de juegos Xbox y los servicios empresariales. Para esto se reorganizó en ocho unidades de negocios, y muchos de sus ejecutivos mayores cambiaron sus responsabilidades. Así todos los Windows dependerán de una sola división, y todos los productos para empresas de otra, por dar dos ejemplos ilustrativos del cambio.

    Y hace bien en reorganizarse. Estadísticas recientes de IDC indican que la supremacia de Windows está en riesgo a manos de su archienemigo Apple, y para el 2015 se venderán más dispositivos con sistemas de la manzanita que con versiones de Windows. Por si fuera poco el problema, Android superará a ambos sistemas en número de dispositivos vendidos, este mismo año o a mas tardar el próximo. Microsoft será siempre un jugador importante del mercado, pero ya no será el más importante, y la empresa debe aprender a vivir con eso, al menos por un rato.

    Pero hay unidades de Microsoft que lo están haciendo muy bien y que sorpresivamente para algunos le han expandido mercados a Microsoft. Xbox es uno de estos productos mágicos, y pese al tropiezo de este año, al anunciar restricciones para la venta de juegos usados en la próxima generación de consola, algo de lo que tuvieron que retractarse, el Xbox One de seguro dará una buena pelea en el mercado y podría incluso adueñarse del mercado si se comporta como su predecesor. Office también ha tenido un desempeño brillante, y a Windows Server tampoco le ha ido nada mal, pese a los embates de Linux.

    Me alegra que me haya tocado estar hablandodeti hoy, querida Microsoft, ya que es una de las empresas que mas he seguido en mi carrera y estoy seguro de que se abren nuevas oportunidades con esta reestructuración, que espero sea ya la definitiva, al menos por un buen tiempo.

  • Windows NT: el padre de Windows 8

    Windows NT: el padre de Windows 8

    windowsNT
    ¿Sabe qué tienen en común Windows 2000, Windows XP, Windows Server 2003, Windows Vista, Windows Home Server, Windows Server 2008, Windows 7, Windows Server 2008 R2, Windows 8, Windows Phone 8, Windows RT and Windows Server 2012? Pues que todos provienen de Windows NT y son todos parte de una misma arquitectura. Solo Windows 3, Me, 95 y 98 quedarón fuera de esta línea, y sin embargo también se beneficiaron de algunos avances logrados en NT.

    Ahora bien, hoy Windows NT cumple años de ser anunciado, pero salió a la calle en el mes de Julio, y cumple nada más y nada menos que 20 años, ya que lo lanzaron en 1993.

    En un momento donde Windows era importante, pero aún estaba muy por detrás del Mac OS en interfaz, y muy lejos de Unix y otros sistemas en cuanto a robustez y potencia, incluyendo al OS/2, Windows NT vino a atornillar a Microsoft definitivamente. El primer sistema opertaivo realmente moderno de Microsoft, con arquitectura de 32 bits, tuvo un origen si se quiere complicado.

    Era 1992 y Microsoft e IBM buscaban contar con un sistema operativo moderno que permitiera a la computación crecer. Mucha gente aún usaba DOS, un sistema sin interfaz gráfica, desarrollado por los fundadores de Microsoft, pero el mundo exigía mejoras. Windows 3.1 era un gran avance sobre DOS pero aún tenia serias limitaciones, empezando por que se trataba de un sistema de 16 bits que limitaba la memoria a la que se podía tener acceso. OS/2 era la promesa en el momento, y en ella trabajaban ambas empresas de manera conjunta, preparando la versión 3.0 del sistema. Microsoft pensaba basar sus nuevos desarrollos de Windows en este sistema… pero el éxito obtenido con Windows 3.x los hizo reconsiderar y mantuvieron el desarrollo de un Windows basado en DOS, usando una API cuyo nombre clave era NT.

    IBM y Microsoft se alejaron por causa de esta decisión y Microsoft termino de desarrollar su sistema Windows NT de la mano de un grupo de programadores que venían de desarrollar VMS, incluyendo a Dave Cuttler. VMS era un sistema operativo desarrollado por DEC.

    Una leyenda urbana señala que WNT (Windows NT) fue un acrónimo propuesto por Cuttler para indicar un avance sobre VMS, ya que WNT se puede obtener de VMS aumentando una posición en cada letra. Sin embargo no he podido conseguir ninguna confirmación a dicha leyenda, y si varios desmentidos que indican que el acrónimo NT estaba desde un principio del desarrollo, y se usaba para diferenciarlo de las versiones de Windows para consumidores (NT en inglés suena como una abreviación de enterprise, empresa). Bill Gates una vez aseguró que se trataba del acrónimo de Nueva Tecnología, mientras que uno de los desarrolladores iniciales de Windows NT aseguró que las siglas venían del procesador que habían escogido como base, el Intel i860, nombre código N-Ten.

    Sea como sea que se lograra el nombre, NT es la base de lo que es Microsoft hoy en lo que a sistemas operativos se refiere y Microsoft le debe mucho a este producto. Por años, muchos más de los que un producto normal debería, los administradores de equipos se volvieron fanáticos del sistema que, aunque tuvo su reemplazo oficial con Windows Server 2003, todavía resistió hasta que Windows Server 2008 salió a la luz. Hace apenas un par de meses que boté a la basura una licencia original de Windows NT 4 que aún tenía en casa.

    Actualmente, toda la línea de Windows 8, Windows Server 2012 y Windows Phone 8 se basan en la versión 6.2 de NT, como se le conoce internamente en Redmond.

    Quien iba a decir que veinte años más tarde estaría yo hablandodeti Windows NT, y de cómo tu tecnología ha cambiado el mundo de los sistemas operativos.

  • Sapphire, Dia 2: La reinvención de SAP: ¿proceso terminado?

    Sapphire, Dia 2: La reinvención de SAP: ¿proceso terminado?

    mclarensap
    Por mucho tiempo he podido seguir el desarrollo de empresas de tecnología tan interesantes como IBM, ORACLE, HP o SAP. Todas han atravesado en los últimos años sendas crisis, y todas han aplicado distintas soluciones. Algunas como CA se han achicado, casi todas han realizado adquisiciones para crecer en mercado –un objetivo que no siempre sale bien—y todas, absolutamente todas, han debido reinventarse.

    Y SAP esta cerrando un ciclo de reinvención, alrededor de un concepto sencillo pero poderoso lanzado hace ya tres años: HANA o la computación en memoria.

    Vishal Sikka, el CTO de SAP, y Hasso Plattner, co fundador de SAP son los padres de este concepto, o más bien de esta tecnología, que es sencillo de entender, mas no de implementar en bases de datos que realizan tareas de misión crítica. La parte fácil es entender que la base de datos se carga, se actualiza y se procesa, solo en memoria, sin tener que bajar hasta el disco duro, lo que se ha convertido en un cuello de botella para todos los sistemas. La parte difícil es garantizar la integridad de los datos de esa base de datos en memoria. Basta imaginarse que pasa si son los datos de un banco, o de un hospital.

    SAP cuenta al fin con una plataforma de nube y de software como servicio, que le permitirá brillar con HANA, y ofrecer soluciones a mercados muy diversos. SAP una empresa de sofware, o de aplicaciones como les gusta decir, es ahora una empresa de tecnología, de plataforma, algo que por bien o por mal no había sucedido hasta ahora.

    El cambio que Plattner y Sikka quieren dar a SAP, de resultar positivo como hasta ahora parece, sería parte de una de las mejores estrategias de negocios de la historia, al sacar al CEO y el CTO de la empresa, prácticamente fuera de la misma para dedicarse a repensar la empresa, mientras dos nuevos CEOs se encargaban de optimizar el funcionamiento de la misma, una especia de enroque en este ajedrez, en donde además se ponen a los dos alfiles a defender al rey y la reina.

    Hoy SAP dejo claro que están listo para ayudar a negocios complejos, con muchos datos, como lo dejó claro Ron Dennis, el gran jefe de la escudería McLaren, al comentar la solución que han podido implementar gracias a HANA y que les permite procesar los 6.500 millones de datos que produce cada carro en una sola carrera. Mañana estaré en la conferencia de Palttner y Sikka y podré conocer más sobre el futuro de la tecnología, que no de los productos, que cerraran o continuarán este gran ciclo de cambios en SAP.

    Lo cierto es que mañana aún estaré hablandodeti SAP y de la tecnologíaa que puedes ofrecer a las empresas.