Etiqueta: desarrollo

  • El futuro de SAP pasa por “Velocity Raptor”

    El futuro de SAP pasa por “Velocity Raptor”

    Hasso Plattner, fundador de SAP, reveló que “Velocity Raptor” es el nombre código del nuevo desarrollo que SAP está llevando a cabo para construir una plataforma para la Internet de las Cosas

    Las conversaciones con Hasso Plattner siempre son agradables. Aunque no se les pueda llamar conversaciones de manera formal a las sesiones de preguntas y respuesta que el da, gracias a la presencia de periodistas, analistas y bloggers bien informados siempre termina siendo una conversación, entre el público ávido de respuestas y el Profesor, que con su método peculiar y exigente, intenta que la gente entienda lo que el futuro de las TI nos depara.

    Este año, durante el Sapphire 2015, no fue distinto el caso. El Profesor quería hablar, y tenía al lado a un CTO, Quentin Clark, que por su juventud y poco tiempo en el cargo –apenas asumió en Noviembre 2014— le restaba poca atención, dejándole todo el protagonismo.

    Las preguntas y respuestas empezaron a ir y venir, pero en una de esas, algo se escapó: Velocity Raptor es el nombre código de un proyecto del que no estaba autorizado a decir mucho más, según se vio de la mirada del PR y del CTO que lo acompañaban en escena. Pero se pudo conocer que tenía que ver con la plataforma de visualización de SAP conocida como Lumira.

    La próxima pregunta no tuvo un desenlace tan feliz. Al confrontar a Hasso con una afirmación hecha por el mismo profesor hace unos años, Hasso perdió la paciencia y como un maestro exigente, recriminó seriamente al periodista que hizo la pregunta, por no darse cuenta de que la respuesta era obvia. El periodista quería saber si la tecnología in-memory había llegado realmente para quedarse como Hasso afirmó hace unos tres años y el Profesor se molestó de que no se hubiera dado cuenta de que de eso se trataba casi todo en el evento e ironizó con “devolverle el dinero” del libro grátís que poco antes nos habían obsequiado, titulado “La revolución In-Memory”.

    Después de esta reprimenda pública, el micrófono para realizar la siguiente pregunta me fue entregado. Aunque esto no es relevante para el post, le pido a quienes me leen, imaginen por un momento cómo se sentirían, pensando en que una pregunta obvia, mal estructurada o simplemente poco interesante, podía terminar de desatar la ira del personaje, y hacerme pasar un mal momento.

    Después de pedir perdón por anticipado, por si acaso cometía algún gazapo idiomático con mi inglés, me dirigí directamente a Hasso para decirle “Conversando una vez con Grady Brooch, un pionero de la computación, el me señalo que además de los modelos tradicionales de computación, transaccional o paralelo, estaba surgiendo un tercer modelo, basado en la computación embebida en los dispositivos móviles. Y eso con la Internet de las Cosas cobra más fuerza…así que me gustaría conocer su visión sobre el futuro de este modelo y como SAP se prepara para soportarlo”. Me eché para atrás en el asiento y esperé el posible regaño.

    Hasso empezó en tono de regaño, muy propio del profesor que se preocupa de que los alumnos entiendan, pero que no lleva ningún reclamo en si mismo. “De eso se trata Velocity Raptor, por eso lo hemos incluido en SAP Lumira”. ¡Bingo! La respuesta a una pregunta que tenía dos años haciendo, se develó de una vez. Dos años antes, a uno de los co-CEO de SAP para ese entonces, Jim Snabe, le pregunté en que tenía trabajando al Profesor, una vez que Hana –la plataforma de computación in-memory de SAP– ya estaba encaminada. Snabe me confesó que SAP trabajaba para lograr lo que hoy se conoce como Network Enterprise, pero que el Profesor trabajaba en algo distinto, que no se podía revelar, pero relacionado con Hana.

    Como ya deben haber leído SAP anunció en el Sapphire una plataforma completa para la Internet de las cosas, incluyendo una versión de Lumira, su software de visualización, así como una plataforma de nube para soportar todo. Calladamente se dejo colar que la última versión de Lumira ya contiene una versión de Volcity Raptor en ella. Velocity Raptor al final es una versión de software ligera, de apenas 20MB, de la funcionalidad básica de SAP HANA que puede ser embebida en distintas aplicaciones llevando el poder de HANA a dispositivos de tamaño reducido, permitiendo ejecutar en ellos niveles de inteligencia muy altos, a velocidades asombrosas, gracias a la capacidad de la tecnología in-memory. Es sin duda alguna una pieza fundamental de la estrategia de SAP para entrar al mercado del IoT no solo desde la nube o los servidores de las empresas, sino también desde dispositivos de menor tamaño y costo, que conformarán la mayoría de los dispositivos conectados a la IoT. La “inteligencia” en los dispositivos conectados a la Internet será un gran negocio y son pocas las empresas de software que han mostrado planes serios para estar allí, dejándole más bien a las empresas de hardware esta responsabilidad.

    Aunque me haya tomado dos años y tres eventos el descifrar el camino de desarrollo de SAP, y en especial el trabajo del profesor Hasso, bien valió la pena estar hablandodeti SAP, y del querido profesor, desde estas páginas, para poder así formarse una mejor idea de hacia donde avanza la industria.

  • Oracle y su chip M7: mejorar el performance y reducir el riesgo

    Oracle y su chip M7: mejorar el performance y reducir el riesgo

    oracle-open-world-fowler

    El Nuevo chip de Oracle, que incorpora la tecnología “Software in Silicon” promete además de un gran renddimiento, disminuir ataques como el ocurrido con Herthbleed

    John Fowler, Vicepresidente de Oracle, habló hoy en el marco del Oracle Open World que se lleva a cabo en San Francisco, del Nuevo chip Sparc M7, del cuál ya había hablado ligeremante el propio Larry Ellison. Este chip incluye varias tecnoogías que lo hacen muy atractivo para los “engineered systems” de Oracle, incluyendo la tecnología ADI –Application Data Integrity—y la tecnología “Software in silicon” que incluye partes de código que usualmente se programan en aplicaciones, como parte de las instrucciones del chip permitiendo una ejecución más ®ápida, pero también evitando que estas funciones sean cambiadas por intrusos con intenciones de hacer daño o extraer información.

    Una de las amenazas que se hubieran podido evitar con el uso de estas tecnologías es la ya famosa Heartbleed, que aprovechándose de una falla de OpenSSL, forzaba la lectura de memoria más allá del area que se suponía obteniendo así importantes datos, que de otra forma no debeieron haber sido entregados.

    “Mientras tenemos cada vez Bases de datos más grandes y aplicaciones más complejas, especialmente si estan mal o pobremente programadas, alguien que quiera comprometer la seguridad lo podrá hacer si la memoria de una de las aplicaciones involucradas no está debidamente protegida” aseguró el ejecutivo.

    El aumento de velocidad y de seguridad ayudará a que la nube de Oracle sea más atractiva par alas empresas, según dejo entrever Fowler, que aseguró que el negocio de nube no debería canibalizar el negocio de hardware de la empresa, sino que más bien espera se complementen. Sin embargo en Internet se leen muchos análisis que plantean que si puede haber cierto “daño” al negocio de hrdware, y lo que queda es estimar si el aumento del negocio de nube lo compensará. Conversándo con ejecutivos de la empresa se puede adivinar que la meta interna es que en dos años el negocio de nube importe tanto como el resto del negocio (hardware, software y consultoría) pero a su vez conllevará parte de todas las areas de negocios involucradas.

    Habrá que esperar a ver si Fowler tiene razón, y el M7 resulta tan seguro como promete serlo, ya que si ocurre otra crisis como Heartbleed, y el M7 sale incólume, recibirá un gran impulso como tecnología y estaré de Nuevo hablandodeti Oracle, y de tus chips con nuevas tecnologías.

  • Windows NT: el padre de Windows 8

    Windows NT: el padre de Windows 8

    windowsNT
    ¿Sabe qué tienen en común Windows 2000, Windows XP, Windows Server 2003, Windows Vista, Windows Home Server, Windows Server 2008, Windows 7, Windows Server 2008 R2, Windows 8, Windows Phone 8, Windows RT and Windows Server 2012? Pues que todos provienen de Windows NT y son todos parte de una misma arquitectura. Solo Windows 3, Me, 95 y 98 quedarón fuera de esta línea, y sin embargo también se beneficiaron de algunos avances logrados en NT.

    Ahora bien, hoy Windows NT cumple años de ser anunciado, pero salió a la calle en el mes de Julio, y cumple nada más y nada menos que 20 años, ya que lo lanzaron en 1993.

    En un momento donde Windows era importante, pero aún estaba muy por detrás del Mac OS en interfaz, y muy lejos de Unix y otros sistemas en cuanto a robustez y potencia, incluyendo al OS/2, Windows NT vino a atornillar a Microsoft definitivamente. El primer sistema opertaivo realmente moderno de Microsoft, con arquitectura de 32 bits, tuvo un origen si se quiere complicado.

    Era 1992 y Microsoft e IBM buscaban contar con un sistema operativo moderno que permitiera a la computación crecer. Mucha gente aún usaba DOS, un sistema sin interfaz gráfica, desarrollado por los fundadores de Microsoft, pero el mundo exigía mejoras. Windows 3.1 era un gran avance sobre DOS pero aún tenia serias limitaciones, empezando por que se trataba de un sistema de 16 bits que limitaba la memoria a la que se podía tener acceso. OS/2 era la promesa en el momento, y en ella trabajaban ambas empresas de manera conjunta, preparando la versión 3.0 del sistema. Microsoft pensaba basar sus nuevos desarrollos de Windows en este sistema… pero el éxito obtenido con Windows 3.x los hizo reconsiderar y mantuvieron el desarrollo de un Windows basado en DOS, usando una API cuyo nombre clave era NT.

    IBM y Microsoft se alejaron por causa de esta decisión y Microsoft termino de desarrollar su sistema Windows NT de la mano de un grupo de programadores que venían de desarrollar VMS, incluyendo a Dave Cuttler. VMS era un sistema operativo desarrollado por DEC.

    Una leyenda urbana señala que WNT (Windows NT) fue un acrónimo propuesto por Cuttler para indicar un avance sobre VMS, ya que WNT se puede obtener de VMS aumentando una posición en cada letra. Sin embargo no he podido conseguir ninguna confirmación a dicha leyenda, y si varios desmentidos que indican que el acrónimo NT estaba desde un principio del desarrollo, y se usaba para diferenciarlo de las versiones de Windows para consumidores (NT en inglés suena como una abreviación de enterprise, empresa). Bill Gates una vez aseguró que se trataba del acrónimo de Nueva Tecnología, mientras que uno de los desarrolladores iniciales de Windows NT aseguró que las siglas venían del procesador que habían escogido como base, el Intel i860, nombre código N-Ten.

    Sea como sea que se lograra el nombre, NT es la base de lo que es Microsoft hoy en lo que a sistemas operativos se refiere y Microsoft le debe mucho a este producto. Por años, muchos más de los que un producto normal debería, los administradores de equipos se volvieron fanáticos del sistema que, aunque tuvo su reemplazo oficial con Windows Server 2003, todavía resistió hasta que Windows Server 2008 salió a la luz. Hace apenas un par de meses que boté a la basura una licencia original de Windows NT 4 que aún tenía en casa.

    Actualmente, toda la línea de Windows 8, Windows Server 2012 y Windows Phone 8 se basan en la versión 6.2 de NT, como se le conoce internamente en Redmond.

    Quien iba a decir que veinte años más tarde estaría yo hablandodeti Windows NT, y de cómo tu tecnología ha cambiado el mundo de los sistemas operativos.

  • Desarrollo TIC latino frenado por falta de profesionales

    Desarrollo TIC latino frenado por falta de profesionales

    personalredes
    A pesar de que Latinoamérica es una región de gran crecimiento tecnológico, la verdad es que ese crecimiento se puede ver afectado por la poca disponibilidad de personal técnico capacitado en TICs –Tecnologías de la Información y Comunicación—que amenaza con poner freno al crecimiento de la región, según se desprende de un estudio dado a conocer recientemente por CISCO, un proveedor TIC especializado en infraestructura de redes.

    El estudio en cuestión refleja el número de profesionales especializsdos en redes, pero sin embargo permite entrever que otras especialidades técnicas pueden estar en situaciones parecidas. IDC, la firma consultora y de investigación que realizó el estudio, analizo la disponibilidad existente y prevista de profesionales de TI especializados en redes entre el año 2011 y el 2015. El año de partida, el 2011, arrojó un faltante de 139.800 profesionales “con conocimientos en redes y conectividad (aquellos necesarios para planificar, diseñar, administrar y soportar las tecnologías de redes en una organización)” según dice la nota de prensa del estudio. La proyección para el 2015 resultó aún más alarmante: la brecha aumentará a 296.200 profesionales para el año 2015.

    Y es un tema que realmente preocupa, ya que la mano de obra calificada es clave para el desarrollo empresarial, tanto como lo son condiciones como la estabilidad jurídica y la economía, por citar dos ejemplos. Pero con el agravante de que hoy día las TICs están presentes en prácticamente todas las etapas e instancias de las empresas, convirtiéndose en un factor diferenciador y una ventaja competitiva. Tecnologías como el uso de nubes de cómputo, uso de video, o la omnipresencia de procesos atados a la Internet, apuntan hacia un uso eficiente y continuo de la red, tanto en proveedores externos, como puertas adentro de cada organización. Los centros de datos distribuidos, los planes de “Disaster Recovery” y el comercio electrónico son prácticamente imposibles de realizar sin las condiciones adecuadas de conectividad.

    Según el estudio, la demanda por profesionales capacitados en redes y conectividad en Latinoamérica está motivada por las siguientes tendencias:

    – Demanda de una mayor eficiencia en la infraestructura IT, con la virtualización como la piedra angular
    – Rápida adopción TIC por parte de los gobiernos y el sector privado
    – La proliferación de dispositivos conectados
    – Requerimientos de la red para soportar aplicaciones interactivas (video) y negocios soportados por TIC virtualizados.
    – Creciente demanda de conectividad basada ó hospedada en la nube a través de múltiples empresas
    – Una comunidad emergente de empresarios en el espacio de TICs

    Es claro que una red eficiente, confiable y a prueba de interrupciones es una condición “sin equa non” para el avance de la región y de allí la preocupación de CISCO, una empresa que ha estado capacitando profesionales en esta área desde sus propios programas, entre los que destaca el Programa Cisco Networking Academy que en América Latina fue liderado por Luis Eliecer Cadenas, quien además conversó con varios periodistas especializados al respecto.

    Entre los puntos más llamativos que Cadenas destacó figura el que la brecha de 296.200 profesionales especializados en redes para el 2015 representará un 35% de diferencia entre la demanda y la oferta de este tipo de profesionales, lo que significa una gran oportunidad para que los actuales profesionales de TIC, escojan especializarse en redes y asegurarse condiciones laborales altamente beneficiosas.

    Por último, como región, si queremos competir con otras regiones competitivas del mundo para convertirnos en economías modernas, este fenómeno de la falta de profesionales debe solventarse. Hace ya algunos años conversaba con el presidente para aquel entonces de SAP Latinoamérica, el buen amigo José Duarte, y el me contaba su plan para duplicar los consultores de SAP en la región en 5 años. La cifra de consultores necesitada rondaba los 20.000 profesionales. Duarte esperaba que se lograran alcanzar las metas en cinco años –y aunque ahora no puedo asegurarlo, estoy seguro de que se llegó muy cerca—pero el ejecutivo estaba claro de que si en la India necesitaba ese mismo número de profesionales, los podía reunir en un sólo año. “allí está la diferencia de porqué la India, con todo y su pobreza, está creciendo tan rápidamente” me espeto Duarte al final de la entrevista.

    Espero querido lector, que si tu estás trabajando en TICs, y quieres mejorar tus condiciones laborales, este post te haga reflexionar sobre las grandes oportunidades que existen en el sector y que cuando en unos años hable de como se cubrió esa falta de personal calificado, este también hablandodeti.

  • 4G: oportunidad de desarrollo

    4G: oportunidad de desarrollo


    Hoy tuve el privilegio de observar una prueba de velocidad en una red LTE de Digitel, el tercer operador celular de Venezuela. La verdad es que la demostración fue muy impresionante, logrando velocidades de descarga asombrosas, unos 14 mbps, que bien quisiera para mi en mi casa.

    La verdad es que esta tecnología, comercializada como 4G aunque realmente no lo sea, está muy bien dotada para resolver los problemas de congestión de datos, pero sin embargo, aún no contempla una opción para la transmisión de voz, por lo que la voz termina siendo manejada –generalmente—por la tecnología anterior, es decir 3G. En Venezuela, y por restricciones cambiarias, las operadoras han decidido incluso complementar las próxima oferta, con mejoras en redes 2G y 3G para voz, y en el caso de Digitel, inclusive 2G para datos, una decisión poco común.

    Pero es que el uso de LTE, aún en países como EE.UU. es como una evolución de GSM/UMTS y para datos solamente, y en muchos casos, sólo se usa en zonas de importante concentración de usuarios, especialmente en ciudades, buscando descongestionar las ya atiborradas celdas de 3G.

    Un comentario de un ejecutivo de Digitel, aludiendo a que la prioridad para instalar las nuevas radiobases serían las zonas comerciales más activas de la ciudad, por encima de las zonas residenciales, me hizo recordar una información que obtuve hace poco.

    Y es que hay muchas otras formas de resolver estos problemas de conexión más allá de 4G y que a veces pueden resultar igualmente atractivas. Por ejemplo la colocación de redes tipo wi-fi en centros que aglomeran usuarios, como centros comerciales, estadiums, etc.; las llamadas microbases o bases de menor tamaño y cobertura, que permiten dividir los usuarios entre varias bases, y las llamadas bases internas, para usar en edificios o área de micro tamaño. La información, recibida en un webinario de los amigos de Qualcomm, buscaba preparar a la industria para poder responder al aumento de tráfico en 1.000 veces, que está por suceder, donde solamente migrar la tecnología no es suficiente.

    Y este es el caso de Digitel, que para intentar alcanzar la demanda disparada, esta reacomodando sus redes y servicios, además de añadiendo más espectro y trayendo tecnología como LTE. Sin embargo no me quedo claro, a pesar de haberlo preguntado, si están considerando estas opciones como complemento, sin las cuales, luce difícil que cualquier operador logre superar los obstáculos. Claro que Diigitel tiene otros obstáculos que resolver –y que los está resolviendo—como es el mejorar su backbone –o su red madre—entre las distintas ciudades, para eliminar cuellos de botella generados por las transmisiones vía aire que ya están colapsadas.

    Pero si se inicia un despliegue 4G coherente, en cualquiera de nuestros países, donde aun la cobertura de banda ancha no es del 100%, geográficamente hablando, esto, junto a una oferta coherente de dispositivos móviles, puede significar una verdadera oportunidad de vencer la brecha digital que aún enfrentamos en la región.

    Ya hace un tiempo escribimos al respecto en PC World y en este blog, de como Brasil, consciente de este hecho ha firmado un acuerdo tecnológico con Qualcomm, para facilitar el desarrollo de estas redes y el diseño y fabricación local de tabletas y celulares 4G, como estrategia para reducir la brecha y mejorar los servicios de gobierno electrónico y educación por Internet, entre otros.

    Sería interesante ver más movimientos de este tipo en la región y en mi propio país. El gobierno debería tomar nota de que esto puede ser un movimiento democratizador del acceso a la información, y como tal empujar más iniciativas de este tamaño –así como mejorar ostensiblemente la banda ancha fija, que depende en gran parte de su proveedor, CANTV.

    Y después del buen sabor que me dejó ver la prueba de 4G de hoy, es por eso que me di el permiso de escribir de un ejemplo tan local como este, y estar hablandodeti Digitel, por primera vez en este blog.

  • Una tableta para cerrar la brecha digital

    Una tableta para cerrar la brecha digital

    La organización OLPC –Una Laptop para Cada Niño, por sus siglas en inglés—anunció que su tableta XO3, de menos de US$100 estará lista par ser mostrada en el CEs que comienza esta semana. En un artículo de PC WORLD se puede leer como Nicholas Negroponte, el fundador y presidente de la OLPC, daba a conocer la noticia sobre esta tableta que promete revolucionar la forma de aprendizaje para muchos paises en desarrollo.

    Quizás la característica más notable de esta tableta sea su alto rendimiento energético y alta tolerancia a diferentes formas de alimentación. Desde cargadores manuales, hasta celdas solares, se han considerado para permitir que este dispositivo funcione siempre, aún en áreas que no cuentan con un suministro eléctrico confiable.

    La idea es que estas tabletas sean fabricadas por cualquier fabricante que lo desee, y mientras en mayor cantidades mejor. La intención es que esto permita que los precios puedan reducirse aún más y hacer disponible esta tecnología a más y más países y niños.

    Queda por ver si una tableta de tan bajo precio llegará a impactar al resto del mercado de las tabletas, y si esta será fabricada para ser vendida en países en desarrollo también, lo que haría que Negroponte se ganará un montón de enemigos, que obstaculizarían sus próximos proyectos.

    Negroponte ve con gran interés los datos que se podrán recoger de estas tabletas, en algunos programas pilotos, que permitirán utilizar estas tabletas como herramientas de aprendizaje autónomo, algo que permitirá mejorar las condiciones en países donde los docentes no siempre tienen un nivel adecuado.

    Les dejo el enlace al artículo en PCWLA.com para que se den cuenta del enorme potencial de esta tableta de menos de US$100.

    Y quien sabe si entonces desde algún país de África, algunos de esos niños les de por aprender español y use su tableta para leer hablandodeti.