Blog

  • Una historia de diseño…

    Una historia de diseño…

    Ayer jueves estuve en el lanzamiento de una serie especial de portátiles de HP cuya rasgo más resaltante son sus cubiertas realzadas –y dibujadas—con novedoso diseños, usando una tecnología llamada HP imprint.

     

    Aunque las portátiles son bastante llamativas y estoy seguro de que serán un éxito de ventas tanto aquí en Venezuela, como en el resto del subcontinente, si nos ponemos quisquillosos con el lenguaje, o más bien con la semántica, lo que HP está haciendo con eso no es personalizar la computación, sino más bien segmentarla. Personalizarla sería permitir que cada individuo configure y decore su portátil, no que tenga más modelos –¿y estilos?—para escoger. Pero dejando este aspecto de lado, me alegra ver que HP se quita de encima la imagen de aburrida –esto lo dijeron ellos mismos, yo sólo transcribo—y brinda opciones a los compradores.

     

    Pero eso solo me hace recordar una anécdota divertida de cuando fui parte de una gran iniciativa de IBM y su división de portátiles –hace años cuando no sabíamos ni quien era Lenovo. Ellos realizaban todos los años dos reuniones en la región, una con clientes y otra con prensa, para mostrar sus avances en el diseño y preguntarnos que características buscaban los usuarios. La respuesta a está última pregunta era generalmente: buen precio. Pero yo, con mi influencia de usuario Apple, siempre les decía: “¡Incorporen más diseño! ¡Fíjense en lo que hace Apple!” La respuesta fue la misma año tras año, hasta llegar a tres: “no queremos clientes que compran máquinas por su color”.Pero al llegar al cuarto año, y la última reunión del grupo, el diseñador a quien solía fustigar con eso de la apariencia llamativa, se me acerca y me dice: ¡ya tenemos los elementos de diseño que querías! Acto seguido coloco su Thinkpad negra en frente de mi y con actitud triunfante saca una pieza plástica y la coloca encima de la tapa-pantalla de la portátil y he aquí que la portátil en lugar de ser completamente negra, ahora seguía siendo negra pero con una cubierta de color –creo que azul, roja o verde. Este era sin duda alguna un pequeño paso para la humanidad, pero un gran paso para IBM.

     

    Pero los cambios drásticos, esos que representan una verdadera apuesta, están ausentes de muchos fabricantes grandes. Quizás en Asia ese paradigma se rompe más a menudo, con modelos y tamaños bastante diferentes, pero de este lado del Atlántico, o del Pacífico, es poca la innovación en estos equipos, y todos ofrecen más o menos las mismas prestaciones. Las decisiones del usuario se limitan a cuatro o cinco áreas: tamaño de pantalla, marca de procesador, tamaño de disco duro, tarjeta gráfica y ahora color o diseño. Las decisiones radicales, como en la MacBook Air, de eliminar la unidad óptica, usar un procesador no tan poderoso para bajar así el consumo, incluir conectores MagSafe para evitar caídas accidentales e incorporar diseño industrial en toda la carcasa no se permiten en las oficinas de los grandes fabricantes, que como mucho se atreven a hacer una portátil con pantalla que puede girar en dos ejes o ultra portátiles para viajeros con clase.

     

    Desde el momento en que el diseñador de IBM mostró feliz las carcasas de colores hasta el día de hoy, para algunas compañías en el mercado de las portátiles, y en general de las PC, lo único que ha cambiado es la forma de poner esa carcasa. Si queremos ver innovaciones de verdad, creo que debemos esperar la próxima idea de Jobs y su equipo

     

     

  • ¿Cyberterrorismo en Sao Paulo?

    ¿Cyberterrorismo en Sao Paulo?

    La primera semana de este mes de julio ocurrió un incidente que dejó sin servicio de Internet y datos a 400 ciudades del estado de Sao Paulo.

    Sao Paulo

    Aunque Telefónica acaba de desmentir hace poco que se trate de un ataque «pirata» [terrorista más bien] (viernes 4 Jul 8:13pm), los rumores al respecto han crecido. Ciertos o no, estos rumores sólo hacen surgir a la superficie los miedos más profundos de algunos expertos.

    A principio de año cuando me preparaba para una entrevista con Eugene Kaspersky, el genio ruso de los antivirus (lea la entrada del blog al respecto en (https://hablandodeti.com/blog/tag/eugene/), encontré evidencias en la Internet de algunos casos que no han podido ser comprobados, ya que las víctimas prefieren mantener el secreto. Generalmente se trata de ataques de denegación de servicio que sólo son levantadas tras el pago de una suma de dinero –ponen cientos, quizás miles de máquinas a lanzar peticiones de servicios contra una red, la cuál colapsa. Es más, agencias de seguridad de Estados Unidos reconocen que esto ya ha pasado en países de Europa Oriental, contra compañías de servicios públicos.

    La falla en Sao Paulo no fue una falla de un equipo, sino de la programación del mismo según los propios reportes de Telefónica, pero prefieren pensar que se trata de un error humano y no de un fallo ocasionado a propósito. El enrutador que falló ha sido precintado y será sometido en breve a un examen forense digital, del que seguro saldrá un diagnóstico. Pero poco importa ese diagnóstico, la idea de que eso puede ocurrir de manera intencional ya ha sido sembrada. A partir de hoy los cambios en la seguridad de los ISP (proveedores de servicio de Internet) serán drásticos, especialmente en estos gigantes. El fallo de Sao Paulo afecto 1.300 distritos, se paralizó el otorgamiento de documentos por parte de la policía y hubo problemas en alunas agencias bancarias que no pudieron trabajar. Más de dos millones de usuarios de banda ancha estuvieron sin servicio por un día y varios entes gubernamentales se vieron afectados. Si eso se hubiera combinado con algún otro tipo de emergencia los efectos pudieron haber sido mayores. Por allí se habla de aplicar sanciones establecidas en los contratos, un mal importante para Telefónica, pero menor comparado a otras consecuencias que hubieran podido ocurrir.

    Con razón al insistir sobre el tema con Eugene Kaspersky, él se limitó a decir que no quería hablar al respecto. Las posibilidades son escalofriantes.

  • ¿Qué tan verdes pueden ser las TI?

    ¿Qué tan verdes pueden ser las TI?

    Hace un par de años en una visita a fábricas de electrónica en Taiwán aprendí sobre RoHS y otras regulaciones ambientales que me causaron una gran impresión, pero no es hasta hoy día, con el petróleo superando los 130 US $ el barril, que el tema ambiental se pone a mil, con énfasis especial en el ahorro de electricidad.

    Algunas compañías aceptaron RoHS sólo por que la Unión Europea los obligó. Las reducciones en el consumo eléctrico, por su parte, son voluntarias, ya que piensan –o están seguros—que los contables de las compañías que compren los dispositivos las verán con buena cara.

    Pero a las compañías de TI les digo: Sí están dispuestas a salvar el medio ambiente háganlo de verdad. Aquí van unas humildes propuestas:

    1. Reciclen las baterías de laptops y demás dispositivos. Este es, según mi punto de vista, la mayor y más peligrosa fuente de contaminación que experimentamos. Usted amigo lector… ¿qué hace con su batería de la laptop si se le daña? La cambia, por supuesto. ¿Y la batería vieja? La bota a la basura o la guarda para botarla luego. ¿Tiene idea del grado de contaminación que eso genera? ¿Sabe cómo los líquidos que contiene son capaces de pernear la tierra y quedarse en nuestras aguas? Aguas que más tarde o temprano beberemos. ¿Conoce una compañía que fabrique laptops, o empresa de baterías, que le indique que hacer con las baterías viejas o le ponga disposición un centro de eliminación?

    2. ¿Que tal diseñar portátiles de escritorio sin batería?¿O al menos venderlas así? Quizás no tengan mucho éxito, pero le darían oportunidad a algunos de evitar contaminar el mundo un poquito más.

    3. Dispositivos y laptops actualizables. Eso podría ser una alternativa muy conveniente, al menos para el medio ambiente.

    4. Instalar Linux en viejos equipos, alarga la vida de los mismos y evita que usted u otras personas se vean forzados a adquirir nuevos equipos, disminuyendo la tasa de desincorporación de PCs.

    5. Crear centros de disposición de celulares viejos, ofreciendo algún incentivo para la desincorporación. Se dice que el ritmo de reemplazo en Latinoamérica alcanza los 8 meses, así que hacer algo con los celulares desplazados, es prioritario.

    6. Sembrar árboles. Algunas compañías de TI, como es el caso de IBM en Venezuela, lo han hecho de manera esporádica, pero seria genial verlo cómo un proyecto fijo, añadiendo mes tras mes metros cuadrados de verdor.

    7. No contratar servicios de empresas cuyos países base no tengan buenas regulaciones ambientales. Obligarlos a cuidar su medio ambiente, nos beneficia a todos los que estamos en el mismo mundo.

    8. Usar pocos empaques y buscar que estos sean reciclados

    9. Y para nuestros amigos de las PR, no impriman más las notas de prensa. Con la versión por email nos basta –y así se ahorran los gastos de mensajería.

    Estos son algunos puntos en los que me gustaría levantar conciencia. Espero que de los lectores surjan algunos otros. Por que hablar de conservar el medio ambiente es hablardeti.

  • La tarea más difícil

    La tarea más difícil

    Recientemente he reflexionado mucho sobre esto con amigos y relacionados. La tarea más difícil en la actualidad debe ser la que tienen nuestros amigos de las agencias de relaciones cuando los obligan a organizar un evento para anunciar un lanzamiento de un nuevo celular.

    Si reviso mi buzón de correo y lo comparo con mi experiencia, debo ser algo así como un analfabeta musical, ¡por que he ido a no menos de seis lanzamientos en el último año de celulares que han cambiado la forma de escuchar música! Y yo sigo escuchándola aún de la manera más tradicional, usando mi iPod. (¿me estaré perdiendo de algo?)

    Pero no es todo… mi incapacidad debe ir más allá, ya que aún soy tan incompetente como para usar mi cámara para tomar fotos en lugar del celular. Aunque debo confesar que la cosa es peor aquí, ya que lo intente una vez y me fue peor de lo esperado –contaba con uno de los primeros celulares con cámara de 5.0 MP y tome las fotos de tres o cuatro eventos a los que asistí y tuve que terminar ilustrando las notas en la revista con imágenes royalty free (incluyendo un evento de la misma marca del celular). Esa vez decidido a liberarme de la ignorancia acudí ante los representantes de la compañía y les pedí me enseñaran que debía hacer. Ellos me dijeron ¡fácil! apuntas y ya. Minutos más tarde y tras haber probado tres celulares del mismo modelo, se los llevaron todos ya que debía tratarse de una actualización de software no realizada.

    Pero volviendo al tema de los eventos, se está volviendo aburrido. En Venezuela un par de artistas de TV animan todos los eventos relacionados con Movistar. Yo que no soy farandulero, los siento ya tan cercanos, de verlos tan a menudo, que no me creo ninguno de sus parlamentos, pero igual quizás hasta les compre algún regalito esta próxima Navidad (¿quizás un celular?).

    Estos eventos cuentan con todo lo esencial: whiskey, tequeños (parta los no residentes en Venezuela: los mejores pasapalos de por aquí), humo químico y los invitados del SIPEM (Sindicato de Invitados por Ellos Mismos). Ah, y se me olvidaba: el fulano celular del lanzamiento.

    El protocolo es el mismo en todos los eventos. Te citan a una hora, te hacen esperar entre 30 y 45 minutos, te lanzan un breve parlamento, un video, más parlamento, la rifa de un par de equipos y se acabó. La efectividad de este método tan previsible: bastante baja.

    Aquí propongo métodos más inteligentes, ojalá alguien que lea esto se les ocurra ponerlos en práctica:

    1. Descartar el evento, organizar un calendario de pruebas de equipo entre algunos periodistas y al final regalar los equipos de prueba a esos periodistas (si los quieren). Repetir este esquema con cada nuevo teléfono, variando los grupos de prueba.
    2. Unir todos los lanzamientos relacionados a un operador en un gran evento, cada cierto tiempo (se que a algunas marcas no les simpatizaría, pero seria mucho más efectivo)
    3. Igual al punto 2 pero agrupado por marcas

    En cada caso, sugiero donar el excedente del presupuesto a algún orfanato, o invertir más en publicidad en nuestros medios. Se trata de dos buenas acciones, que les asegurarán un lugar en el espectro, digo, en el cielo. Y recuerden que hablar de celulares es estar hablandodeti.

  • Alta definición requiere alta comprensión

    Alta definición requiere alta comprensión

    Estamos en plenas pruebas de estándares de TV de alta definición en el país y eso parece pasar por debajo de la mesa, alcanzando apenas unas pocas líneas en algunos diarios y medios especializados. Pero de cara al país de a pie, de cara a nosotros es mucho lo que está definiendo el gobierno. Por alguna razón (¿política?) el estándar americano, el más natural a nosotros no está siendo considerado. Se consideran sólo el europeo, el chino y el japonés.

     

    El estándar japonés es probablemente el que se imponga después de las pruebas, ya que para muchos es el más completo; incluye la especificación para transmitir un canal de TV móvil al mismo tiempo que un canal de TV HD, y es la base del estándar americano, el ATSC. Pero cualquiera sea la decisión que se tome se tratará más de una decisión política que técnica. Y este fenómeno no es único de Venezuela. En Brasil, por ejemplo, se escogió el formato japonés después de lograr varias concesiones, algunas sobre el mismo formato, pero las más relevantes referidas al precio y origen de los sintonizadores para colocar en los TV actuales para la recepción HD. Aunque la más relevante de las condiciones fue exigir que Japón transfiriera la tecnología a Brasil para que estos receptores se fabriquen todos en suelo carioca, e incluso se logro pactar la construcción de una fábrica para elaborar los componentes de silicón que hacen falta para construir los receptores.

     

    La decisión de Colombia está influenciada también por la política, dada su reciente cercanía con EUA parece decantarlos abiertamente hacia el ATSC. Chile simpatiza con el estándar japonés pero la presión de Telefónica y otras empresas europeas fortalecen el estándar europeo. Argentina ha decidido implementar una mezcla de estándares ATSC para TV HD y el estándar europeo y el japonés para TV móvil. Uruguay adoptará por su lado el estándar europeo. Bolivia, las Guyanas, y muchos otros países están tan preocupados con sus situaciones internas, que se ocupan poco del tema.

     

    Volviendo al principio: que significa esto. Significa que probablemente si usted realiza un viaje a EUA o Europa y ve un TV HD a precio mas que conveniente, es casi seguro que no funcione al colocarlo en su casa. O peor aún, el TV HD que tanto dinero le costo comprar, probablemente no le sirva en el futuro para ver TV, al menos no sin comprarle un sintonizador nuevo. El estándar definirá para nosotros, de una manera u otra, el precio final de los equipos que tendremos en los hogares, y si se quiere hasta la calidad de los mismos. Eso sin mencionar lo que puede pasar con todos los videos que usted conserva en casa y que corren el riesgo de volverse más obsoletos que un LP de música. Sin duda alguna, siento que hablar de TV HD es estar hablandodeTI.

  • Backup 2008 (III): Windows Server 2008, una evolución más acertada que la de Vista

    Backup 2008 (III): Windows Server 2008, una evolución más acertada que la de Vista

    Bill Laing, Gerente General de Servidores WindowsMientras Vista sigue creando polémica en las corporaciones –al punto de que Bill Gates ya dejó claro que las esperanzas se cifran en un Windows 7 con mayor rendimiento—hay un sistema de Microsoft que quizás pasa un poco por debajo de la mesa: Windows Server 2008 (WS2008).

     

    He tenido la suerte de seguir el desenlace de este sistema desde hace casi un año hasta su lanzamiento en el mes de Febrero y, pese a tener una posición bastante crítica al respecto, he encontrado que Microsoft si hizo allí mucho de lo que no hizo con Vista.

     

    Pero primero veamos el escenario. Si bien es cierto que nadie le pedía a Microsoft que desarrollara Vista, XP ya tenía demasiados años y pronto se vería su obsolescencia. Es más, la arquitectura para desarrollar nuevas aplicaciones gráficas, especialmente juegos, clamaba por una mejor arquitectura de software. Microsoft debía desarrollar a juro algo nuevo, especialmente al ver como mejoraban Mac OS X y Linux. Estos dos sistemas forzaron la barra para que en Redmond se apuraran más de lo debido –desde mi humilde punto de Vista—y le quitaron al menos seis meses de maduración a Vista, meses que le hubieran hecho mucho bien dando chance de que sacaran mejor hardware y se crearan drivers para los periféricos existentes.

     

    Pero  con Windows Server no pasó lo mismo. Microsoft, decidido a ganar terreno en el área de servidores de tamaño medio y grande, fue directo a los operadores de estos sistemas y les preguntó que querían. ¿Necesitan una consola para introducir comandos en línea? Aquí está PowerShell. ¿Mayor interoperabilidad? Aquí va, trabajen con SUSE Linux. ¿Virtualización? Aquí tienen varios sabores desde el sistema operativo, hasta las aplicaciones. ¿Un servidor más compacto para tener menos vulnerabilidades? Aquí está, un servidor configurable.

     

    Se sabía a quien había que complacer, se le pregunto que quería y se implementó. La estrategia fue más que adecuada.

     

    Hablando de TI en Redmond con Bob Vise, Director de Microsoft para Windows Server, quedó claro que la idea fue brindar un sistema operativo que hiciera lo que los administradores de sistemas requerían. Todo construido sobre una base sólida, y midiendo los requerimientos de los usuarios; tomando en cuenta las cuatro tendencias de hardware que más influyen actualmente: computación de 64 bits, virtualización, procesamiento multi core y reducción de consumo eléctrico.

     

    Bill Laing, Gerente general de la División de Servidores de Windows, me señalaría más tarde, durante el evento de lanzamiento en Los Ángeles, que los usuarios de Windows Server 2003 les habían hecho énfasis en varios puntos a mejorar en WS2008 como:

    • La experiencia en el escritorio es opcional (no se necesita tanta interfaz gráfica)
    • El servidor debía ser más que un simple cliente con funcionalidades agregadas
    • Los servidores deberían poder ser instalados y, especialmente, administrados según los roles que deben realizar.
    • Las mejoras esenciales deben ser en la administración, la confiabilidad y el rendimiento

     Alcides León en Redmond

    Además Bill recalcó la importancia de las versiones de Windows para Medianas y pequeñas empresas, que vienen en “combo” con servidores de correo y Bases de Datos y son parte de una estrategia para lograr desplegar el sistema desde las pequeñas empresas hasta los grandes centros de datos.

     

    Sin duda alguna, la División de Windows para PCs tiene mucho que aprender de su hermana mayor, la División para servidores.