Blog

  • Colombia a punto de estrenar ley que regula las TIC

    Colombia a punto de estrenar ley que regula las TIC

    colombiacorazonEsta semana se aprobó en la Cámara de diputados y el Senado en Colombia una ley que regula las TIC en el país y fija un marco para desarrollar las telecomunicaciones.

    Uno de los principales puntos de la ley es la existencia de una licencia única para los operadores de telecomunicaciones que les permitirá operar libremente difernetes tipos de comunicación sin tener que volver a solicitar permiso. Además se consagra la neutralidad tecnológica del estado, es decir, que el estado no obligará a estos operadores a adoptar ningún estándar tecnológico en particular.

    Pero que mejor que contar con la opinión de una reconocida periodista colombiana que lleva ya años manejando la fuente de tecnología: Connie Pazos, a quien le pedí expresamente me redactara un pequeño texto al respecto:

    “Dos años duros tuvo el Ministerio de Comunicaciones para sacar adelante una Ley de Telecomunicaciones que por fin fue aprobada por la plenaria del Senado en la noche del jueves 18 de junio.

    Y es que en medio del avance que ha tenido el país en masificación tecnológica, lo único que faltaba era una regulación clara y visionaria que permitiera continuar con ese proceso.

    La nueva Ley de TIC unifica la planeación y control de los operadores de telecomunicaciones, aumenta la protección a los usuarios de los servicios de telecomunicaciones, abre las puertas a la neutralidad tecnológica y promueve el acceso a la tecnología en las personas de zonas apartadas.

    Entre los aspectos relevantes está el cambio que tendrá la Comisión de Regulación de Telecomunicaciones (CRT) que a partir de la firma presidencial, será la entidad encargada de promover la competencia, evitar el abuso de posición dominante y de no lograrse este último, regular los mercados de las redes y los servicios de comunicaciones.

    Para completar, se crea la Agencia Nacional de espectro (ANE), un ente que organizará el espectro radioeléctrico, un cuello de botella que hoy tiene al país en un desorden total.

    Con estos cambios, no sólo se podrán cumplir las metas de llevar a Colombia al liderazgo regional en el uso y apropiación de las TIC, sino que los usuarios por fin sentirán que la tecnología está para su servicio y no para que los operadores continúen atropellando con el abusivo y mal servicio que suelen prestar”

  • Nubes seguras, promesa de Microsoft

    Nubes seguras, promesa de Microsoft

    azureSin duda alguna para todos los ejecutivos de TI, pensar en llevar algunos procesos de su corporación hacia nubes externas, es una promesa de reducción de costos sin sacrificar escalabilidad. Y es que entre las premisas base de la nube están la optimización de costos al utilizar un esquema de uso en demanda donde sólo se paga por lo que se usa.

    Para Christian Linacre, Gerente de Seguridad de Microsoft para Latinoamérica, el mercado de software como servicios en Latinoamérica tiene un potencial enorme, pero aún hay que desmontar algunas preocupaciones en las mentes de los ejecutivos de TI, como puede ser la seguridad en la nube. Por eso en su “llamada mensual de seguridad” Linacre y su grupo se enfocaron en este tema.

    Lo primero que tiene que quedar claro es que al buscar economías de escala usando nubes de cómputo, el usuario cede parte del control sobre sus datos y procesos. Esto no necesariamente es inconveniente o inadecuado. Microsoft plantea un esquema para ejecutar aplicaciones en la Nube que garantiza niveles de seguridad basados en niveles de servicio, ya sea en la nube de Microsoft, o en Nubes de terceros –en especial de socios de negocios—con tecnología Microsoft. Si se recuerda que la base de la plataforma de Nube de Microsoft es el llamado Windows Azure, y las tecnologías montadas sobre este (SQL services, .Net srvices, etc.) se puede ver claramente la posición privilegiada de la empresa de Redmond para cerrar este sistema y garantizar la seguridad.

    Linacre señala en una lámina de su presentación los cuatro retos más importantes que ve Microsoft para la seguridad en las Nubes:

    1. Requerimientos regulatorios globales y complejos. En un mundo de Datos y servicios distribuidos globalmente, estos están sujetos a numerosas regulaciones, estatutos y estándares de la industria que suelen ir en varias direcciones (son exigidos por países, acuerdos comerciales entre países, gremios empresariales, bolsas internacionales, etc.

    2. Mayor interdependencia entre las entidades del sector público y privado y sus clientes que obliga a la existencia de una infraestructura y servicios confiables

    3. Ambiente de alojamiento dinámico que exige constantes revisiones de la infraestructura

    4. Ataques cada vez más sofisticados que afectan a todos los niveles de software y aplicaciones aumentando la complejidad para brindar seguridad

    Estos retos son superados, a decir de Linacre con una estrategia de defensa contundente, basada en seguridad de aplicaciones, administración de identidad y acceso, seguridad de alojamiento, auditoría y reporte, protección de datos, protección de red y seguridad física.

    La verdad es que este tema es realmente clave para que la adopción de las Nubes realmente se extienda. Microsoft cuenta con 400 socios de negocios habilitados para ofrecer aplicaciones basadas en el esquema de software como servicio y si quiere desarrollar al máximo este potencial deberá enfocarse en educar a los clientes y socios sobre las ventajas de este esquema, sin descuidar nunca la disponibilidad, escalabilidad y fiabilidad de estos servicios.

    En fin, la labor es ardua pero no imposible. Y eso sí, cuando vea a un asesor –de Microsoft o de un socio de negocios- que se le acerca para plantearle usar un esquema de software como servicio, piense que también le estará hablandodeti.

  • Un hacker para Obama

    Un hacker para Obama

    jeffmossMás allá de la polémica que despertó Obama con su Blackberry, el nuevo Presidente de los Estados Unidos parece tener más idea acerca de lo que es la tecnología que sus predecesores –y esto no lo digo denigrando de los demás, sino más bien alabando la actitud de Obama.

    En un consejo de asesores para la seguridad nacional de EUA Obama está reuniendo a 16 personas con perfiles muy interesantes –desde ex-directivos de la CIA hasta expertos en salud de la Cruz Roja, pasando por el alcalde de Miami y ex senadores, véalos todos en http://www.dhs.gov/ynews/releases/pr_1244227862914.shtm.

    Pero hay uno de ellos que destaca por su condición de experto en “romper” métodos de seguridad, Jeff Moss, uno de los hackers más afamados del mundo y el organizador de las conferencias de seguridad para hackers conocidas como DEFCON. (ver perfil en http://en.wikipedia.org/wiki/Jeff_Moss_(hacker))

    Esta es una clara señal de la importancia que Obama le da a la seguridad digital, y la conciencia que debe tener acerca de las posibilidades que un próximo ataque terrorista pueda ser llevado a cabo usando las redes de computadoras.

    Ya en este mismo espacio señale cómo los rusos parecen haber hecho otro tanto con Eugene Kaspersky, aunque no se diga de manera oficial. Y es que resulta lógico que cualquier gobierno se prepare para un eventual ataque terrorista digital. De hecho una de las pocas cosas que ha enturbiado las relaciones de China con los EUA en los últimos años –más allá del asunto del; Tibet—han sido los ataques digitales lanzados desde China contra blancos en América.

    Obama es sin duda un presidente mucho más consciente del poder de la tecnología que sus predecesores. Se viven además nuevos tiempos, en los que la tecnología es parte fundamental de todos los sistemas de un gobierno. La pregunta es: ¿estaremos realmente preparados para defendernos y responder a un ataque terrorista digital?

    Mientras buscamos esa respuesta, es impresionante darse cuenta que al hablar de seguridad digital internacional, estamos hablandodeti.

  • 120K, la imprenta digital, montones de inventos, y seguimos aún frescos

    120K, la imprenta digital, montones de inventos, y seguimos aún frescos

    hablandodeti120k

    Para mi llegar a las 120.000 páginas servidas desde esta humilde tribuna es un gran honor que ustedes –mis lectores—me han brindado.

    En este año y unas pocas semanas de existencia bloguera he aprendido mucho. La verdad es que el discurso no es ni parecido al que hay que tener en una revista –y miren que en las revistas he tenido que pasar de tecnología a negocios sin que se note el hueco.

    He ensayado unas cuantas cosas en el blog. Desde aprender a escribir en primera persona (¡sacrilegio! dirán algunos) hasta empezar a usar twitter –síganme bajo aleon1969. Muchos proyectos aún no realizados me han prestado sus ideas para probarlas acá –pero pronto esos proyectos tomaran vida de manera interesante—y muchas otras ideas se me han ocurrido mientras escribía para ustedes. He visto los blogs de algunos amigos nacer y morir. He intentado convencer a un gran número de amigos a iniciarse en este mundo. He visto a algunos grandes despreciar los blogs, para meses después montar los suyos propios. En fin, alcance a llegar aún al periodo de nacimiento de una corriente muy importante de la comunicación: la comunicación personal –personalísima diría yo—como acto social.

    Una gran amiga de la infancia me decía en estos días –refiriéndose a Facebook—que se sentía muy bien llegar a los 40 años y tener su propio muro para poder escribir en el él lo que quisiera, sin que nadie viniera a pintarlo a la mañana siguiente –gracias por la imagen MVC—y esa imagen de verdad me tocó y me hizo darme cuenta del verdadero poder de las redes sociales.

    Cuando comencé a escribir, allá en 1988 en mi querida Universidad Simón Bolívar, no tenía idea de que mi desarrollo profesional podría ser en el área de la comunicación. En aquel entonces circulábamos con 500 ejemplares de nuestro boletín USBits –en las últimas ediciones logramos llegar a los 2.500—y hoy cada vez que publico en PC World en español puedo exponer mis ideas a unas 120.000 personas. Pero que como individuo cuasi anónimo de la Internet halla logrado servir 120.000 páginas en apenas un año es para mi la mejor demostración de que el contenido ha sido descentralizado. A diferencia de otras épocas donde un selecto grupo –al estilo de los enciclopedistas– se ufanaban de poseer casi toda la información de importancia, hoy día cualquiera que tenga algo que decir puede decirlo y –más importante aún—será escuchado más temprano que tarde.

    Los blogs son entonces el equivalente digital de la imprenta de Guttenberg. Y mi biblia personal –el primer libro, vamos…—es sin duda hablandodeti.com, pero esperen más novedades.

  • Ahorrar al programar

    Ahorrar al programar

    rationalConversando con ejecutivos de la línea de software Rational de IBM surgió el tema de la seguridad, y la detección temprana de los fallos de seguridad. Obviamente incorporar buenas técnicas de desarrollo de software ayudan a reducir estas flas de seguridad, especialmente en etapas tempranas del diseño del software.

    David Grant –Director, Security and Compliance Solutions de IBM– señala la importancia de esas prácticas adecuadas. aunque las cifras que el cita –de Gartner– dicen que 2 de cada 3 aplicaciones que son sometidas a pruebas resultan ser vulnerables, en su experiencia propia, ese porcentaje se queda corto. Para él, 8 de cada 10 aplicaciones resultan vulnerables.

    Pero si resultan impactantes esas cifras, hay otras que generan mayores sorpresas. Solucionar una falla detectada al momento del diseño puede costar unos US$25. Corregir la misma falla, detectada con la aplicación ya en producción, puede costar unos US$10.000. Un diferencia considerable.

    Así que la próxima vez que este pensando en reducir costos en su empresa, quizás aplicar un proceso de desarrollo de software más estandarizado, estructurado, pueda lograr los ahorros que está buscando. Y luego que los logre, puede considerar el utilizar un pequeño porcentaje de lo ahorrado en patrocinar hablandodeti 🙂

  • No son dos, son tres!

    No son dos, son tres!

    gradyboochSostuve una breve conversación con Grady Booch, un gran gurú del software (http://es.wikipedia.org/wiki/Grady_Booch) que trabaja como una especie de director conceptual de la marca Rational de IBM, y quise llevar la conversación hacia terrenos donde me manejo bien, mientras que los demás asistentes se centraban en cosas muy puntuales.

    Me metí en su área y le plantee que pensaba que ocurriría con la computación actual que, bajo mi punto de vista, se está dividiendo en dos grandes vertientes: computación de alto rendimiento y computación transaccional, ejecutada en paralelo. Un ejemplo del primer tipo son las grandes computadoras, como Blue Gene, que requieren que los programas sean hechos especialmente para ellas y tomando en cuenta una paralelización muy especial. Mientras que la transaccional, lo que hace es manejar varios núcleos de computo, y asignar programas a cada uno. El caso más notable de este último tipo son las famosas nubes de cómputo.

    Grady me miró un segundo, dijo algún cumplimento sobre la pregunta y rápidamente me dijo: “No son dos, son tres. Hay que agregar la computación en sistemas embebidos.”

    La verdad es que hasta el momento nunca considere la computación en sistemas embebidos –vamos, la computación que se genera en chips que serán usados en carros, teléfonos u otros dispositivos—fuera tan distinta de las demás, por que se parece mucho a la computación que he visto toda mi vida. Es como programar un procesador z80, o un 8086, con un juego de instrucciones diferente. Pero basta con detenerse un momento y darse cuenta de que ya esa no es una verdadera opción de programación en las PC. O al menos está por dejarlo de ser. Aunque estoy seguro de que en el mundo hay más PC equipadas con procesadores de un solo núcleo, lo cierto es que en breve no será así. Sólo algunos Netbook serán vendidos con estos procesadores, y el mundo de los procesadores mono-núcleo quedará restringido en breve a los dispositivos ultra-móviles.

    Por supuesto que la programación de sistemas embebidos tiene muchas diferencias con la programación tradicional que realizamos por mucho tiempo. Pero también es cierto que la programación para sistemas multi-núcleos pensados en las transacciones están evolucionando. Por ejemplo un servidor equipado con procesadores Intel Xeon 5500 –el famoso Nehalem—tiene 4 núcleos y 8 líneas de ejecución paralelas, y es tiempo que los sistemas empiecen a explotar estas ventajas. Si el mismo equipo incluye dos o cuatro procesadores, o 24, empieza a surgir la necesidad por sistemas operativos que aprovechen mejor esta infraestructura, y quizás el usar algunos principios de la computación de alto desempeño pueda ayudar.

    Así que Brady, con tu permiso, reformulo la pregunta: ¿cuál será el futuro de la computación en estas tendencias: de un núcleo, de varios núcleos usados transaccionalmente o de varios usados de manera altamente paralelizada?

    Y viene a mi mente la frase de Alan Key –pionero de la computación digital– que tanto le gusta a Brady: ¡la mejor manera de predecir el futuro es inventándolo!

    Quién me iba a decir que un día por fin estaría Grady Booch hablandodeti.