La Noticia Tecnológica de la Semana

Joaquín López Lérida

Archive for marzo 2009

Nadie te va a cortar el acceso a Internet

Posted by Kwai en 29 marzo 2009

Fecha: 29 de marzo de 2009

emule1El 24 de septiembre de 2008, el parlamento europeo aprobó el paquete de medidas para las telecomunicaciones que incluían las famosas enmiendas torpedo propuestas por el eurodiputado conservador inglés Malcolm Harbour. Sin embargo, las medidas inicialmente propuestas por Harbour (H1, H2 y H3) fueron aprobadas parcialmente ya que las más duras cayeron en votaciones preliminares y finalmente se decidió que las operadoras en cooperación con los gobiernos podrían avisar a los usuarios sobre descargas y/o acciones ilegales, pero sin llegar a cortar el acceso a Internet. Las medidas no especificaban de qué manera había que avisar al usuario.

De todas maneras ha habido países que han ido desarrollando leyes e iniciativas propias en la lucha contra la piratería como el caso de Francia y su ley Hadopi que estaba barajando la posibilidad de cortar el acceso a Internet a los usuarios que fueran reincidentes con descargas juzgadas con ilegales. En el caso de Gran Bretaña por ejemplo, la ley tiene previsto avisar como primera medida a los usuarios, para cortar la conexión temporalmente en caso de reincidencias y hacerlo definitivamente de por vida si hubiese una tercera vez. Las operadoras estarían obligadas por ley a cortar las conexiones bajo amenaza de fuertes multas.

Esta semana, el parlamento europeo se ha pronunciado sobre estas medidas. El informe del socialista griego Stavros Lambrindis afirma que «los gobiernos o las empresas privadas no deben recurrir a la denegación de dicho acceso como medio para imponer sanciones”. Lo cierto es que el parlamento europeo no obliga, simplemente se ha elaborado un informe donde se habla de la seguridad y la protección de las libertades individuales en Internet a la vez que se advierte de las malas consecuencias que tendría deconectar a los usuarios de Internet que según el parlamento europeo es el nuevo «analfabetismo del siglo XXI». La inmensa mayoría de los eurodiputados (485 a favor contra 25 en contra) coinciden en que las garantías de acceso a Internet para los ciudadanos es equivalente a la garantía de escolarización.

De todas formas hay muchos intereses creados detrás de estas medidas. Por una parte las discográficas y demás propietarios de contenidos quieren convertir a las operadoras en policías de los usuarios. Las operadoras no están dispuestas a asumir este papel y hay casos, como el de las operadoras británicas agrupadas en el ISPA , que han declarado que no piensan ejercer como tal ya que se consideran «meros conductores» y bastante tienen con proporcionar un servicio estable y de calidad como para ponerse a ver qué estan haciendo los usuarios, por no hablar de los problemas legales de ataque a la intimidad de los usuarios que ello implicaría.

Por otra parte está pendiente la declaración ACTA (Anti-Counterfeiting Trade Agreement – Acuerdo Antifalsificación para el Comercio) emitido por el G8 en julio pasado donde se instaba a la aceleración de las negociaciones para establecer un marco mundial de control de contenidos en menos de seis meses basado en la colaboración de los proveedores de contenidos y los poseedores de derechos, que de momento no ha llegado a nada concreto.

En mi opinión la puesta en práctica de cortes del acceso a Internet para usuarios europeos nunca se va a llevar a cabo porque, aunque existen fuertes presiones de las discográficas y demás poseedores de derechos, a las operadoras sencillamente no les interesa por varias razones:

  • Uno de los principales argumentos que justifican los grandes caudales que se contratan en la actualidad tiene que ver con la utilización de los servicios P2P. Otra cosa será cuando la televisión de alta definición se convierta en algo cotidiano a través de Internet, y los servicios de streaming adquieran el protagonismo que hoy en día empiezan a tener tímidamente a través de servicios como youtube que implica utilizaciones muy puntuales de caudales no muy altos. También convendría considerar en este punto el alza que en unos años tendrán los mundos virtuales tipo SecondLife que también traerán sus propias demandas de ancho de banda que hoy día ni son importantes ni condicionan a los usuarios a contratar más o menos caudal.
  • Técnicamente no es un tema sencillo el control de las descargas P2P además de muy caro, porque supone realizar filtros masivos de contenidos sobre puertos y protocolos cada vez más complicados. No se trata de controlar a unos cuantos usuarios que utilizan una aplicación muy concreta, se trata de controlar a millones de usuarios que utilizan una infinita variedad de aplicaciones pensadas en muchos casos para ocultarse a los controles como ocurre con los sistemas de ofuscación que utilizan herramientas como Emule.

En definitiva, a día de hoy las operadoras tienen la sartén por el mando y no van a ceder porque no les interesa. Los gobiernos no van a tener mucha capacidad de presión porque supone poner en marcha medidas muy antipopulares (no está el horno para bollos con los tiempos que corren) y son conscientes de que los controles sobre las operadoras, incluso con la ayuda de los usuarios, como ocurre en la actualidad con las calidades de los servicios de acceso a Internet, son extremadamente complicados. Además la Unión Europea, entre otros organismos, se opone ya tácitamente a esta medida desde esta semana.

Los propietarios de derechos de contenidos (la SGAE española, SACEM francesa, PRS inglesa, RIAA americana, etc) se empienzan a quedar solos en esta lucha. Su reacción no puede venir a través del control de los servicios de descarga porque, como decía Mike Oldfield, es como ponerse a mirar al mar y decirle que se esté quieto. Su reacción tiene que venir por la construcción de nuevos modelos de negocio apartados del sistema actual que se basa en vender para poseer y más cercanos a la realidad de consumo que ha impuesto Internet y las nuevas tecnologías.

Anuncio publicitario

Posted in Actualidad, Internet | Etiquetado: , , , , , , , , , , , , , , , , | 1 Comment »

IBM va a comprar SUN por 6.500 millones de dólares

Posted by Kwai en 22 marzo 2009

Fecha: 22 de marzo de 2009

ibm_sunLa noticia la destapaba el New York Times el pasado miércoles 18. Lo cierto es que la posibilidad de un «Blue SUN» (IBM es el gigante azul), es un movimiento bastante sensato para ambas empresas y una mala noticia para Microsoft y HP principalmente. Si IBM pone sobre la mesa los 6.500 millones de dólares, SUN va a aceptar con toda seguridad, ahora veremos porqué. El tema se veía venir por lo menos desde diciembre de 2008, cuando IBM compró Transitive, una empresa especializada en mover aplicaciones desde entornos Solaris (sistema operativo de SUN) a Linux.

SUN Microsystems es uno de los fabricantes de grandes servidores más importantes del mundo, y la única «pequeña» empresa que ha sabido plantarle cara a los grandes fabricantes del entorno de servidores: IBM, HP y Dell. Además SUN se ha caracterizado siempre por tener una apuesta bastante innovadora, basada en productos propios y contribuyendo notablemente a la innovación y el desarrollo de los entornos para grandes servidores a nivel mundial. Digamos que es una pequeña empresa que ha marcado época y está completamente reconocida en los ambientes de alta innovación.

SUN fue creada por el alemán Andreas von Bechtolsheim y los norteamericanos Vinod Khosla, Bill Joy, Scott McNealy y Marcel Newman en el año 1982 a partir del trabajo realizado para unir las bibliotecas de la Universidad de Stanford (SUN no significa Sol sino Stanford University Network). SUN ha tenido siempre una fuerte presencia en el sector empresas de la mano de sus máquinas con procesadores SPARC y su sistema operativo Solaris (un UNIX muy optimizado). Su slogan «The Network is The Computer» (La red es el ordenador) la hizo muy popular en el año 95. En la actualidad cuenta con unos 31.000 empleados en todo el mundo.

De IBM (International  Business Machines) poco se puede decir porque el nombre la presenta sola. El «gigante azul» tiene en la actualidad 330.000 empleados repartidos por 161 países. Aunque fue constituida el 14 de junio de 1921, llevaba operando desde 1889, a través de la empresa Tabulating Machine Company fundada por Charles R. Flint que se fusionó con un par de empresas más para dar lugar a la actual IBM. Es una empresa multidisciplinar dentro del mundo de la informática, aunque más de la mitad de sus ingresos en la actualidad vienen de sus actividades de consultoría y servicios. En este sentido conviene destacar que renunció a la fabricación de ordenadores personales en el año 2004 al vender toda su rama de fabricación a la china Lenovo, la mayor fabricante del mundo.

La cifras de IBM y SUN son muy diferentes. IBM ingresó 91.100 millones de dólares en 2005 y tiene 330.000 empleados en la actualidad. SUN ingresó 11.000 millones de dólares en 2007 y cuenta con 31.000 empleados en la actualidad. El valor en bolsa de IBM es de 123.000 millones de dólares , mientras que el de SUN es de unos 3.000 millones de dólares.

Podríamos preguntarnos si SUN tiene la necesidad de ser vendida y si es un precio justo el de 6.500 millones de dólares. Por capitalización en bolsa parece que el precio es bastante razonable ya que la prima (dinero adicional al precio de la acción) que IBM está dispuesta a asumir es del 100%, es decir, va a pagar más o menos el doble por cada acción. Para los tiempos que corren, y para una empresa que no pasa por su mejor momento no podemos hablar de una mala propuesta. Que SUN tiene problemas en la actualidad no es ningún secreto. Sus números rojos (1.650 millones de dólares en pérdidas en el último trimestre de 2008) vienen de mucho antes de la crisis, y el año pasado tuvo que despedir a más de 6.000 empleados en todo el mundo, es decir el 18% de la plantilla aproximadamente. Además IBM tiene dinero en caja, unos 13.000 millones de dólares según el último informe de diciembre de 2008, así que el tema económico no parece ser un problema. Si profundizamos un poco más en los problemas actuales de SUN  podemos hablar de lo tarde que ha llegado al mundo del software libre, y la dificultad de encontrar compradores para sus caros y complejos sistemas Solaris, ante la invasión de arquitecturas hardware basadas en la utilización de granjas de pequeños servidores. Además de esto, otras circunstancias como el no saber monetizar adecuadamente Java, o el mal trato hacia MySQL, hacen que SUN no pase por su mejor momento y que lo suyo no sea sólo cuestión de la crisis que se está atravesando en todos los sectores.

¿Porqué quiere IBM comprar SUN? IBM no está interesada en el negocio de procesadores SPARC, ni en el del x86, es más no sería descabellado pensar en la venta de la línea de procesadores SPARC a empresas metidas en ese mercado como por ejemplo Fujitsu. Lo que le interesa realmente a IBM es el negocio de software de SUN. En primer lugar IBM se haría con el lenguaje de programación Java, muy extendido en herramientas propias como Eclipse. El promover la utilización de Java en entornos Linux, conjuntamente con el binomio AIX/Solaris ayudará a IBM a mantener a Microsoft fuera de de los ciclos de desarrollo de software sobre todo en el caso de los grandes servidores.

Otra parte interesante es MySQL. La popular base de datos adquirida por SUN a principios de 2008, no pasa por sus mejores momentos. SUN no la ha tratado adecuadamente y el responsable actual de desarrollo y CEO anterior de MySQL, Michael Widenius, reconoció que la versión 5.1 estaba llena de bugs. De la mano de la división de DB2 de IBM, MySQL podría relanzarse de una manera espectacular.

La herramienta StarOffice de SUN (la versión comercial del popular OpenOffice) no caerá tampoco en saco roto. IBM está muy interesada en aunar esfuerzos con el desarrollo de su herramienta Simphony, aunque seguramente StarOffice como nombre desaparezca.

Adicionalmente todo el negocio de consultoría y desarrollo de SUN puede ser reconducido adecaudamente por IBM, unificar equipos y sumar comptencias y habilidades generando de esta manera una empresa tecnológica de un enorme atractivo.

Por todos estos condicionantes y circunstancias pienso que la venta es sólo cuestión de que finalicen las negociaciones entre ambas empresas, pero se va a realizar con toda seguridad y se va a crear, entre otras cosas, el mayor fabricante de servidores del mundo de largo (IBM ya fue el mayor el año pasado con el 31% del mercado seguida de HP -29,5%- y Dell -11%-, mientras que SUN tuvo un 10% de cuota de mercado) y una de las mayores consultoras de sistemas de información.

Posted in empresas | Etiquetado: , , , , , , , , , , , , , , , , , , , , , , , , , , , | 2 Comments »

20 años de Web

Posted by Kwai en 15 marzo 2009

Fecha: 15 de marzo de 2009

web20 Aunque Internet data del año 69 aproximadamente, y casi todas las tecnologías desarrolladas en torno al mundo de Internet son americanas, el caso del Web (el servicio más extendido y utilizado sin ninguna duda) es completamente diferente y esta cerca de la mística que rodea a otros inventos geniales de la humanidad como la Coca-Cola, el ferrocarril, la Penicilina, o el mismísimo Big-Mac.

La historia del Web es diferente a la del primer navegador realmente popular, que fue Mosaic (hoy en día los navegadores más habituales son Mozilla Firefox e Internet Explorer). El Web tiene que ver con todo el protocolo, y el lenguaje de transmisión de textos, fotografías, vídeos, etc. El navegador sólo proporciona la forma de visualizarlos. Es como hablar de las ondas electromagnéticas que transmiten la televisión (que constituyen un estándar) y de los televisores, que los hay de diferentes marcas, formatos y tamaños. Las ondas electrómagnéticas que llevan las imágenes de televisión es algo así como el protocolo  web, mientras que los navegadores serían los aparatos de televisión.

El invento del protocolo web marca el comienzo de la historia del WWW. En concreto los orígenes se remontan a un artículo publicado el 13 de marzo de 1989 por Tim BernersLee un científico del prestigioso CERN suizo (Centro Europeo de Investigaciones Nucleares), donde por ejemplo a día de hoy está alojado el famoso acelerador LHC. El nombre del artículo era  «Gestión de la Información: Una propuesta«. Tim Berners-Lee envió el artículo a Mike Sendall, un directivo del CERN, que lo calificó de «vago pero excitante» . Posteriormente, en 1990, con la ayuda de Robert Cailliau, la propuesta sería refinada. Finalmente en 1991 la herramienta con unos visores básicos fue liberada en primer lugar para las universidades y posteriormente para toda la comunidad de Internet, a la vez que el primer sitio web de la historia (info.cern.ch) se ponía en marcha (en este enlace se puede ver una copia del sitio original).

Probablemente el mayor problema que tuvo el web en sus comienzos fue el navegador ya que la versión liberada por el CERN suizo tan sólo estaba disponible para máquinas NeXT. En otro caso había que utilizar la interfaz de línea de comandos que tan sólo permitía intercambiar texto de una forma muy básica. Hubo varios intentos por realizar una navegador universal y útil para el web, tal vez de todos podríamos destacar ViolaWWW, pero no fue hasta 1993, cuando un estudiante de 22 años de la NCSA (Centro Nacional para Aplicaciones de Supercomputación) de la Universidad de Illinois, Marc Andressen, creó como proyecto fin de carrera el navegador Mosaic que supuso el verdadero comienzo de la revoslución Web. Mosaic fue liberado en Noviembre de 1993. A finales de 1994 contaba con millones de usuarios en todo el mundo (aquí se puede descargar una versión de Mosaic).

El tráfico web en 1993 generó un asombroso crecimiento del 341634% (el número está bien escrito) del tráfico en Internet en un sólo un año y el WWW se convirtió de largo en el servicio de Internet más utilizado y las siglas «WWW» es una de las más populares del mundo, aunque inicialmente Tim Berners-Lee pensó en bautizarla como MOI (Mesh Of Information) o TIM (The Information Mine).

Tim Berners-Lee es en la actualidad un personaje tremendamente popular en el mundo de Internet, hasta el punto de ser designado por Intel en 2008 como el tecnólogo más influyente del mundo. Fue nombrado Caballero por Isabel II en 2004, y tiene numerosos libros y artículos sobre el futuro del web en particular y de Internet en general. Esta semana en el CERN suizo aprovecharon para celebrar por todo lo alto el evento.

Posted in Actualidad, Internet | Etiquetado: , , , , , , , , , , , , , , , , , | Leave a Comment »

Kumo, el nuevo buscador (semántico) de Microsoft

Posted by Kwai en 8 marzo 2009

Fecha: 8 de marzo de 2009

kumoEsta semana hemos podido ya confirmar por diferentes fuentes y finalmente del propio blog de los desarrolladores que Microsoft está probando ya Kumo su «herramienta definitiva para batir a Google» o por lo menos su enésimo intento de hacer un sistema de búsqueda que plante cara al aplastante dominio de Google a nivel mundial.

Microsoft ha utilizado en los últimos años un montón de estrategias y herramientas para tratar de batir a Google, pero podemos contarlas todas por fracasos. Su actual buscador Live ha sido siempre muy criticado, aparte de las capacidades de búsqueda, porque Live es un nombre demasiado común y no tiene el gancho de nombres míticos como Google, u otros como Adobe, Yahoo, Sun, etc. Microsoft no ha dejado de intentarlo con otras estrategias  como fue el caso de Yahoo durante el pasado año, hasta que a mediados de 2008 compró Powerset, una empresa dedicada a hacer motores de búsqueda semánticos.

¿Qué es un motor de búsqueda semántico? Si pensamos en Google por ejemplo, que es un motor de búsqueda literal de los que siempre hemos estado acostumbrados a utilizar, las diferencias se pueden ver a través de una simple cadena de búsqueda. Si yo escribo en Google «¿Dónde puedo comer una pizza?«, la primera respuesta que obtenemos es una relativa comer pizza y no engordar. En un motor de búsqueda semántico, si introdujeramos esa frase el buscador nos diría a qué establecimientos de nuestra ciudad podríamos ir a comer una pizza, considerando dónde vivimos, qué hora es, el día de la semana, e incluso si tenemos niños o no (se supone que tenemos un nombre de usuario y un perfil definido previamente). Por tanto los motores de búsqueda semánticos humanizan las búsquedas en Internet, algo que será imprescindible en los próximos años donde la capacidad de búsqueda del ser humano con respecto a la cantidad de información que habrá en Internet será cada vez más limitada.

Sin duda la web semántica (conjuntamente con la interoperabilidad) son los dos grandes puntos de inflexión sobre los que pivota la web 3.0 o próxima generación de la web.

Kumo es la apuesta de Microsoft por la web semántica. Desde luego Kumo tiene muchos ingredientes que lo convierten en una apuesta diferente y tal vez más firme que otras apuestas anteriores de Microsoft:

  • En primer lugar el nombre. Kumo me parece un nombre bastante bueno y bien escogido. No se asocia a Microsoft, lo cuál yo creo que es bueno si las campañas de sensibilización se hacen adecuadamente. Tiene muchas similitudes al mítico Kodak (un nombre de marca ejemplar que se lee y escribe exactamente igual en todos los idiomas y no significa nada, solamente Kodak). Kumo sólo tiene significado en japonés y significa algo así como nube o araña, muy apropiado por otra parte. No me imagino de momento a un chaval diciendo «I´m kumoing it» como paralelismo al neologismo cada vez más utilizando entre estudiantes americanos cuando buscan algo: «I´m googling it«.
  • Aunque la iniciativa de desarrollar un motor de búsqueda semántico no es la primera que se produce, podemos considerar que de una forma más o menos seria sí que es la primera iniciativa que se desarrolla. La apuesta de Microsoft es segura en el sentido de que en pocos años todos los motores de búsqueda que conocemos hoy en día serán semánticos sí o sí. Microsoft en ese sentido se ha adelantado a los demás y además lo ha hecho comprando por 100 millones de dólares una empresa de bastante prestigio como era Powerset. Es decir, Kumo tiene unas bases tecnológicas bastante sólidas.

Si con lo que he comentado anteriormente podemos pensar que Google no está haciendo nada al respecto esto no es así. Lo que está ocurriendo es que Google no va a lanzar ningún buscador semántico, Google va a seguir siendo Google y ya está, pero hay signos en la forma de búsqueda que ya anticipan un cambio progresivo hacia modelos semánticos. Por ejemplo desde hace poco tiempo, determinadas frases de búsquedas como las relativas a fechas de nacimiento, lugares geográficos, etc, proporcionan resultados estructurados o semánticos a partir de información semiestructurada o no estructurada (no marcada semánticamente en las webs desde las que provienen). Por ejemplo si escribimos «What is the capital of Spain?» obtenemos resultados semánticos que tienen sujeto predicado y objeto (tripletes semánticos) y que por tanto responden a esa pregunta. Estos signos y algunos más relativos a conversión de divisas y determinadas funciones algo más avanzadas con operadores sintácticos indican que la estrategia de Google hacia la web semántica no está parada ni mucho menos, pero es diferente a la de Microsoft en el sentido que irán cambiando poco a poco hasta que el usuario entre en la web semántica casi sin darse cuenta. Creo que esta estrategia es la más apropiada para conservar su supremacía en la búsqueda a nivel mundial.

Creo que será difícil que Microsoft arrebate el liderazgo a Google con Kumo, pero parece una iniciativa mucho mejor dirigida que fracasos anteriores como live.com, msn, etc, y seguramente conseguirá incrementar su raquítica cuota de mercado (inferior al 9%) en comparación con las inversiones realizadas. Además creo que es elogiable que, aunque sea Microsoft, muy criticada por otros temas, alguien le plante cara a Google con sentido y base tecnológica ya que esto beneficia a los usuarios y a la innovación, que en último término será lo que nos beneficie a todos.

Posted in Actualidad, Internet | Etiquetado: , , , , , , , , , , , , , , | 8 Comments »