Inicio

lunes, 30 de marzo de 2009

Las redes sociales esta arrasando


Las redes sociales ocupan el cuarto puesto, por detrás del tiempo utilizado para las búsquedas en línea, las páginas de interés general y las páginas de software, según un estudio de Nielsen Online.

“Mientras que dos tercios de la población mundial en línea ya accede a páginas de comunidades de usuarios, su vigorosa adopción y el aumento del tiempo invertido en ellas no dan señales de ir más despacio”, dijo John Burbank, presidente ejecutivo de Nielsen Online.

Uno de cada 11 minutos en línea a escala mundial se utiliza en redes sociales. Entre diciembre del 2007 y diciembre del 2008, el tiempo usado en estas páginas aumentó en un 63 por ciento a 45.000 millones de minutos.

La cifra fue aún mayor para la popular página Facebook, en la que los usuarios utilizaron 20.500 millones de minutos, con un crecimiento del 566 por ciento frente al 3,1 por ciento del año pasado, según el estudio.

Los brasileños son los mayores usuarios de las redes sociales, de acuerdo al estudio. El 80 por ciento de los brasileños que se conecta a internet visita redes sociales. También son quienes pasan la mayor cantidad de su tiempo en línea visitando redes sociales, con un 23 por ciento.

Aunque Facebook es la página más popular mundialmente con 108,3 millones de visitantes, las preferencias difieren según las nacionalidades.

Facebook es la red más popular en Australia, España, Suiza, Francia, Reino Unido e Italia. Pero los estadounidenses prefieren MySpace, en Japón la página local Mixi Reigns, y en Brasil la red de Google, Orkut, es la número uno.

Muchas redes sociales fueron creadas originalmente para un público joven, pero las páginas ya no son sólo para niños, según mostró el informe.

El mayor crecimiento de miembros en Facebook es de gente entre 35 y 49 años.

Facebook ha duplicado su número de miembros de entre 50 y 64 años, al igual que sus visitantes menores de 18.

En el Reino Unido, si la actual tendencia se mantiene, habrá la misma cantidad de miembros de entre 35 y 49 años que de entre 18 y 34 para mediados de junio del 2009.

miércoles, 25 de marzo de 2009

Google 3.0: Google mejora resultados de búsqueda

Google ha lanzado dos actualizaciones que dicen mejorar los resultados presentados al usuario en varios aspectos, acercándose un poco más a lo que probablemente lleguemos a conocer como Web Semántica, no sólo realizando búsquedas por comparaciones de palabras, sino analizando y comprendiendo qué es lo que estamos buscando.

Esta nueva forma de búsqueda semántica le permite a Google entender hasta cierto punto qué es lo que está solicitando el usuario. El ejemplo puesto en el blog de Google es bastante claro: Si un usuario busca la frase "Principios de la física", Google ya no se inclinará tanto a hacer una búsqueda tipo "Principios+de+la+física", sino que "comprende" que lo que pide el usuario es algo específico, y presentará resultados que están directamente relacionados con la búsqueda. Según sus desarrolladores, esta mejora ya está disponible en 37 versiones diferentes de Google. Sin embargo, aún no se sabe qué clase de impacto tendrá esta mejora en los rankings de las páginas, o en la cantidad de sus visitas.

La segunda mejora, un poco más tangible que la primera, es la posibilidad de obtener "snippets" más largos. Los "snippets" son los textos suplementarios que vemos justo debajo del título azul subrayado que Google presenta como un resultado. Para no tener que hacer un clic innecesario, este aumento de longitud en la "descripción" por así llamarla, nos debería dar una mejor idea de si dicha página nos sirve o no.

martes, 24 de marzo de 2009

Material orgánico para acelerar Internet

Ivan Biaggio (profesor de física asociado en la Universidad de Lehigh) forma parte de un equipo internacional de investigadores que ha desarrollado un material orgánico con una calidad óptica sin precedentes y una enorme capacidad para mediar en la interacción entre ondas lumínicas. Biaggio ha trabajado muy duro para lograr la integración de este material con la tecnología de silicio que utilizamos en la mayoría de nuestros chips, y ha conseguido unos dispositivos que pueden ser utilizados como parte de los sistemas ópticos de telecomunicaciones.

El material se basa en unas pequeñas moléculas orgánicas que poseen una "alta susceptibilidad óptica no lineal". Biaggio explica que este material, de alguna forma, copia el comportamiento de los copos de nieve al cubrir el espacio entre los ladrillos de una pared. Sus moléculas completan homogéneamente los espacios entre las "guías" que conducen las ondas a través del silicio. Todo esto funciona a una escala muy pequeña: las ranuras miden sólo unas decenas de nanómetros de ancho (un nanómetro es una milmillonésima parte de un metro). Para tener una idea, eso es lo que miden doce átomos de carbono puestos a la par. "Hemos sido capaces de construir estas películas tan delgadas combinando moléculas en un material que es totalmente transparente, plano, y libre de cualquier irregularidad que pudieran afectar sus propiedades ópticas", dice Biaggio.

A la hora de hacer pruebas, un dispositivo híbrido basado en las moléculas orgánicas diseñadas por el equipo de Biaggio fue capaz de extraer cada cuarto bit de un flujo de datos de 170 gigabits por segundo, y demultiplexar datos a 42,7 gigabits por segundo. "Demultiplexar" es el proceso por el cual se extrae una señal de un flujo de datos que contiene varias. El investigador cree que este enfoque tiene un tremendo potencial. El uso de moléculas orgánicas capaces de trabajar con la luz podría ayudarnos a dar un salto más en la velocidad de nuestras conexiones. Esto nos permitiría sentirnos cómodos durante algún tiempo, descargando DVDs completos en segundos, hasta que descubramos que podemos utilizar Internet para alguna otra cosa que requiera 100 veces más ancho de banda. Y todo volvería a comenzar.

P3P: Posible futuro del intercambio de archivos

La Distributed Computing Industry Association (DCIA), asociación que agrupa a creadores de clientes P2P y proveedores de Internet, cree que el paso inevitable es asumir el P2P como medio de distribución y establecer modelos de negocio similares al adoptado por la Isla de Man. El gobierno autónomo de allí ha entendido por donde viene el futuro y se han puesto manos a la obra para convertirlo en presente. En la Isla de Man proponen una "tarifa plana" para descargar todo tipo de contenido sin tener que soñar por las noches que un comando de las fuerzas especiales irrumpe en tu casa para precintarte el ordenador y llevarte esposado al juzgado. Ese pago se realizaría añadiendo un sobrecoste a la propia línea de Internet. De esta manera, las compañías pagarían a los autores por las descargas realizadas y los usuarios no tendrían que esconderse ni sudar a causa de los sistemas de represión estatales o los protagonizados por las entidades de gestión de la propiedad intelectual. A la equivalente británica de la SGAE - la BPI- le pareció buena idea, señal de que la cosa tiene una pinta excelente.

LA DCIA crea entonces el P3P Working Group, cuyo principal responsable será el gobierno de la Isla de Man. Este grupo se encargará de definir un conjunto de prácticas empresariales para rentabilizar el intercambio de música online. Su función será "determinar las mejores prácticas voluntarias para monetizar la distribución online de música". El P3P por tanto no es un nuevo protocolo de intercambio de ficheros -como sí lo es, por ejemplo, el P4P- sino un conjunto de procedimientos para obtener rendimiento económico el intercambio de archivos sin molestar a los clientes ni tratarlos como criminales. Entre sus funciones se destaca la capacidad de proveer a los ISP la facultad de autorizar a sus abonados a descargar y compartir música en Internet usando cualquier medio de distribución online, incluyendo P2P o descargas directas. También es cierto que el sistema presenta algunas dificultades que deberán ser solventadas ¿Qué pasaría con aquellos que no usen Internet para descargar? ¿Deberían pagar igualmente esta tasa? ¿Y si descargas archivos sin derechos de autor? ¿Y si hay archivos que no son fácilmente reconocibles y no puede saberse sin tienen copyright? ¿Cuánto dinero le entregaran a los autores y en base a qué? ¿Cuál será la tasa a cargar en la línea? ¿Qué pasará con los países europeos que empiezan a aplicar medidas legales contra el P2P?

Así pues, una vez resueltos los escollos, este sistema podría convertirse en el fin de las durísimas rencillas que enfrenta a las compañías y a los usuarios. Nosotros lo vemos bastante factible y muy justo para las partes. Quizá la única solución viable a este conflicto surgido en la era de la información. Porque es cierto que los bits son libres y nadie puede ponerle puertas al campo, pero no es menos cierto que los autores de obras intelectuales deben recibir una recompensa por su trabajo. No sabemos las reacciones de las demás entidades de gestión de derechos de autor, pero mucho nos tememos que en España seguramente pretendan imponer una tasa para "compensar la piratería" a las líneas ADSL (ya lo propuso la SGAE hace algún tiempo) pero no autorizar la descarga y seguir persiguiendo a los usuarios por toda la red. Y por supuesto, nada de eliminar el canon. La tajada resulta demasiado apetitosa como para soltar la mordida fácilmente. Imaginemos el escenario tan magnífico para la SGAE: todas las líneas ADSL pagando para ellos, el canon por otro lado y encima la ley de los 3 avisos para frenar toda descarga que ellos consideran lesiva para su bolsillo. De pesadilla. Esperamos equivocarnos y que la Isla de Man sea un ejemplo para el resto del mundo.

lunes, 16 de marzo de 2009

20º aniversario de Internet

El 13 de marzo de 1989, Tim Berners-Lee le presentó a su jefe del CERN la idea de crear una red informática para compartir información entre científicos. Las investigaciones que se llevaban a cabo en el laboratorio, a menudo requerían de información externa o de otros laboratorios. El ida y vuelta de papeles atrasaba, y mucho, el desarrollo de las cosas que allí se investigaban. La web, por supuesto, no nacería ese día. Pero sí es la fecha que se toma como el comienzo de su gestación. Por eso, en el CERN hoy es día festivo.

De todas formas, no sería hasta octubre de 1990 que Berners-Lee y sus colegas pudieron poner a punto el primer navegador web. Y recién un año más tarde, en 1991, fue que Internet se abrió al mundo. Es que en el CERN sabían que tenían algo grande entre manos, y que ellos no tendrían la capacidad de garantizar el desarrollo a futuro de su nueva creación. Y lo bien que hicieron, sin ese gesto nada de esto hubiese sido posible. Tú no estarías aquí, y nosotros estaríamos metidos en alguna oficina haciendo papeleo. ¡Qué aburrido!

martes, 10 de marzo de 2009

Estudio de vulnerabilidades en navegadores WEB

Según declara la empresa de seguridad Secunia, el informe del 2008 arroja unas cifras elevadas con respecto al número de agujeros de seguridad que tiene el Firefox. Nada menos que 115 vulnerabilidades fueron reportadas para el navegador de moda, mientras que el denostado Explorer sólo despachó 31 bugs. Los navegadores que suelen estar de convidados de piedra tampoco lo hicieron nada mal, con 30 agujeros de seguridad en el Opera y 32 en el Safari. De todos modos y para tranquilizar a los simpatizantes del Firefox, Secunia también anuncia que si bien los del zorro rojo tuvieron 4 veces más agujeros, los resolvieron con mucha mayor celeridad que los responsables del Explorer.


Se cuenta que el Explorer mantuvo sin corregir vulnerabilidades un promedio de 110 días, tiempo peligroso para no solucionar un agujero. Secunia asegura que Microsoft llegó a tardar 294 días en reparar un bug concreto. El gigante informático ha desmentido esos datos y contraataca diciendo que Firefox se ha demorado hasta la escandalosa cifra de 285 días sin arreglar algunas vulnerabilidades específicas, pero no demuestra cuáles son. Sin embargo, el informe de Secunia indica que el Firefox ha empleado 43 días de media para resolver sus incidencias de seguridad. Los navegadores siguen siendo poco seguros a pesar de los constantes avances que se hacen sobre ellos.


Secunia agrega que prácticamente la totalidad de las graves Zero-Day-Exploits tuvieron como objetivo el navegador de Microsoft. Se trata de vulnerabilidades que son aprovechadas por delincuentes antes que se publique un parche o código reparador. Así pues, 9 de los 12 Zero-Day-Exploits estuvieron dirigidos específicamente al software de Microsoft, y los 3 restantes usaron vulnerabilidades en el mecanismo Active-X de IE.

Se podría resumir el informe diciendo que, efectivamente, Firefox tuvo mayor número de agujeros de seguridad, pero éstos fueron bastante menos críticos que los de Explorer y además tardaron mucho menos tiempo en resolverlos. A ver que pasa con la nueva version del Firefox, pues promete mucho.

Wolfram Alpha


Actualmente Google es el rey de la información. No importa quién seas, si necesitas información de Internet y no sabes de dónde sacarla, seguramente irás a Google para que te señale en la dirección correcta. Pero al parecer Wolfram Alpha tiene intenciones de cambiar esto con el lanzamiento de un nuevo buscador que funciona como los buscadores del futuro supuestamente funcionarán… respondiendo simples preguntas.

El problema mayor con los buscadores actuales es que a veces pueden complicarse las búsquedas, porque lo importante son poner palabras claves y el sitio intenta suponer qué es lo que está buscando el usuario y dónde puede encontrarlo. En cambio, tal como funcionará la Web Semantica, el buscador Wolfram Alpha podría buscar información la información deseada simplemente formulando una pregunta. Por ejemplo: si en Google quisiéramos encontrar dónde se llevará a cabo la Copa Mundial de 2018, probablemente deberíamos buscar términos como: “Copa Mundial + 2018 + FIFA” y de ahí buscar entre los varios sitios cuál se adecua mejor. En cambio, al utilizar Wolfram Alpha simplemente deberíamos escribir “dónde se llevará a cabo la Copa Mundial de 2018?”, ¡y listo!

Nadie esperaba esto realmente. Hace pocos días Stephen Wolfram lo anunció en su blog y recién ahí todos nos enteramos de que su nuevo proyecto vería la luz en Mayo de 2009. De todos modos, Wolfram no es un completo don nadie, ya que ha tenido algunos proyectos interesantes, como Mathematica, que consiste en un programa utilizado áreas científicas, de ingenería, matemáticas y áreas computacionales como un sistema de álgebra computacional.

Lo más curioso de todo es que el buscador desarrollado por Stephen Wolfram no funciona mediante tecnología de la Web Semántica, lo que hasta ahora creíamos que era el futuro. Entonces, ¿qué ocurrirá si Wolfram tiene éxito? De un día para el otro patearía el tablero y revolucionaría la manera que funciona la web. Esperemos que sea todo un éxito, así la vida en la web se vuelve un poco más interesantes. Tendremos nuevas noticias en su lanzamiento fechado para Mayo de 2009.

jueves, 5 de marzo de 2009

LUSITANIA: Supercomputadora de España

Probablemente un momento sin igual dentro de la informática española, se ha presentado a "Lusitania", un superordenador nacido del acuerdo entre Hewlett-Packard y la Junta de Extremadura. Se espera que este sistema pueda aportar soluciones para todo tipo de proyectos científicos y tecnológicos en el continente, ya sean provenientes de la comunidad científica o de empresas privadas.

La inversión en este ordenador fue de poco menos de €8 millones, lo cual permite visualizar de inmediato la envergadura del proyecto. Actualmente Lusitania está ubicado en Trujillo, en el Centro Tecnológico de esa ciudad, y podrá proporcionar una infraestructura óptica para proyectos que demanden un cálculo intensivo. Medicina, nanotecnología y meteorología son apenas tres de los campos que se verán beneficiados con la existencia de Lusitania, sin mencionar los posibles beneficios en educación, y la posibilidad de colaborar con proyectos de nivel internacional.

En cuanto al aspecto técnico del ordenador, Lusitania está formado por dos unidades Inegrity Superdome de Hewlett-Packard. Este sistema cuenta con 256 procesadores Itanium 2 y un total de memoria RAM de 2 TB. Usualmente, estos sistemas ejecutan un sistema operativo propietario de Hewlett-Packard basado en UNIX llamado HP-UX, pero al utilizar procesadores Itanium 2 se puede recurrir a sistemas operativos como SUSE Linux Enterprise Server o Red Hat Enterprise Linux. Lamentablemente, no ha trascendido qué sistema operativo será utilizado en Lusitania.

martes, 3 de marzo de 2009

Vulnerabilidad en las redes wifi


Las principales operadoras siguen entregando a sus nuevos clientes routers WiFi con una configuración insegura, utilizando la encriptación vulnerable WEP y estableciendo claves según un patrón que permite averiguar el 70% de sus caracteres. En el caso de Telefónica, hasta el 93% de las redes WiFi conservan la configuración original, franqueable en cuestión de segundos.

La encriptación WEP está descartada como sistema seguro de protección de redes WiFi desde el año 2003. Aún así, varios de los principales proveedores de Internet han continuado suministrando a sus nuevos clientes routers WiFi con una configuración insegura. No sólo se sigue utilizando WEP, sino que las contraseñas establecidas, que deberían ser singulares para cada cliente, siguen un patrón conocido que permite averiguar una buena parte de los caracteres que la componen.

En la red han aparecido herramientas que facilitan el proceso de obtención de la clave, diseñadas a medida de la configuración utilizada por algunos operadores. Cualquier usuario sin conocimientos avanzados puede utilizarlas para obtener acceso a un punto WiFi.

Bajo los routers de Telefónica viene pegada una etiqueta con la clave WiFi que se le ha asignado. Para generar la clave se toman 6 caracteres de la dirección MAC del router, 1 de la inicial del fabricante y 2 del identificador de la red. Este patrón utilizado por la operadora permite averiguar 9 de los 13 caracteres de la clave. Mediante fuerza bruta es cuestión de fracciones de segundo recorrer las 65.535 combinaciones de los 4 caracteres restantes. Serán menos teniendo en cuenta que solo se utilizan mayúsculas y números.

De las 3.326 redes detectadas en el estudio hecho por bandaancha.eu, 2.011 continúan utilizando WEP. Esto representa al 60,5% de las wifis. De las 923 redes identificadas como de Telefónica, el 93% conservan la configuración original entregada por la operadora, con WEP y patrón de clave. Solo Orange/Yacom y Vodafone/Tele2 utilizan WPA por defecto, mientras que Ono es el operador con mayor porcentaje de wifis abiertas.

HDV te agradece la visita a nuestro Blog, un espacio en el que os mostraremos noticias, herramientas, recursos y curiosidades disponibles en la red.

Del mismo modo esperamos que este Blog sea un espacio en el que nos dejéis sugerencias, opiniones, inquietudes, críticas...