Enchufes que te dan a elegir electricidad procedente de fuentes contaminantes o limpias, con perfiles de consumo y reconocimiento automático de usuarios son solo algunas de las posibilidades ofrecidas por el concepto de Tomas de Identificación presentado esta semana por Sony. Si el vídeo demostrativo publicado por el gigante japonés solo consiguió despertar tu apetito, ahora podemos mostrarte un prototipo en funcionamiento gracias a DigInfo, que nos ilustra detalles tan interesantes como las gráficas de consumo, la posibilidad de comprobar la carga de la red doméstica para evitar apagones e incluso el uso de tarjetas de identificación RFID para cargar dispositivos por un módico precio.
En el lado negativo, imaginamos que ya habrá un millón de hackers de sombrero negro salivando ante las posibilidades del sistema; en el positivo, tal vez esta nueva tecnología hará que los aeropuertos de todo el mundo empiecen a ofrecer enchufes a sus visitantes de una maldita vez... aunque sea pagando.
☛ El artículo completo original de Alberto Ballestin lo puedes ver aquí
CK-Geek: Recopilación de noticias geek, informática, Internet, ciencia, tecnología y temas afines.
17 de marzo de 2012
Irán prepara servidores para correos electrónicos locales
En lo que parece un nuevo paso de las autoridades iraníes para crear una red nacional de internet desvinculada de la mundial, que funcione con servidores y software propios, Irán ha preparado la infraestructura para albergar los servidores de los correos electrónicos de uso interno en el país. Así lo informó el jefe del Departamento de Defensa Cibernética iraní, Said Rahimi, aunque asegurando que los usuarios también podrán tener acceso a los servicios internacionales.
Según declaraciones de Rahimi recogidas por la agencia local Fars, el uso por muchos iraníes de correos electrónicos gratuitos de marcas internacionales, como "gmail" o "yahoo", es "uno de los problemas más importantes" en el uso de internet en el país.
Los servidores, según dijo, "están instalados en el Departamento de Defensa Cibernética para gestionar los correos electrónicos iraníes".
El pasado 7 de marzo, el líder supremo de Irán, ayatolá Ali Jamenei, creó por decreto el Consejo Superior del Ciberespacio, con el fin de controlar esta materia.
Jamenei señaló como cabeza del organismo al presidente del país y como miembros a los jefes del Parlamento y el poder judicial, el director de la Radiotelevisión pública IRIB, el secretario del Consejo Supremo de Seguridad Nacional, varios ministros y diversos mandos militares y policiales.
El 5 de marzo, el ministro de Comunicaciones, Reza Taghipur, insistió en que Irán separaría la red internacional de internet de una red nacional de información, sobre todo para uso gubernamental y de instituciones públicas, por considerar "inseguro" el sistema mundial, aunque apuntó que se podrían utilizar ambas.
El mes pasado, el director de la Organización de Defensa Pasiva de Irán, general Gholam Reza Jalali, dijo que Teherán planea crear un ejército cibernético para contrarrestar posibles amenazas de EEUU y otros países, en especial hacia sus instalaciones nucleares.
Teherán ha denunciado supuestas agresiones informáticas, que ha atribuido a Estados Unidos e Israel, para crear problemas en sus sistemas militares y de seguridad y, sobre todo, en sus instalaciones nucleares.
Un gran número de páginas web están bloqueadas por las autoridades iraníes, entre ellas las de muchos medios de comunicación extranjeros y también las de grupos sociales y políticos, tanto iraníes como de otros países e internacionales, que el Gobierno de Teherán considera hostiles.
Además, también hay numerosas páginas bloqueadas por considerar las autoridades de Teherán que atacan la estricta moral de la República Islámica, y otras muchas están sin acceso porque en su dirección de internet llevan palabras que los censores iraníes consideran peligrosas.
Las redes sociales, en especial Facebook, e incluso la mayoría de las versiones del buscador Google, también están bloqueadas, lo mismo que los blogs, sea cual sea su origen o la temática que traten, así como los accesos por algunos protocolos de seguridad.
☛ El artículo completo original de LaTercera lo puedes ver aquí
Según declaraciones de Rahimi recogidas por la agencia local Fars, el uso por muchos iraníes de correos electrónicos gratuitos de marcas internacionales, como "gmail" o "yahoo", es "uno de los problemas más importantes" en el uso de internet en el país.
Los servidores, según dijo, "están instalados en el Departamento de Defensa Cibernética para gestionar los correos electrónicos iraníes".
El pasado 7 de marzo, el líder supremo de Irán, ayatolá Ali Jamenei, creó por decreto el Consejo Superior del Ciberespacio, con el fin de controlar esta materia.
Jamenei señaló como cabeza del organismo al presidente del país y como miembros a los jefes del Parlamento y el poder judicial, el director de la Radiotelevisión pública IRIB, el secretario del Consejo Supremo de Seguridad Nacional, varios ministros y diversos mandos militares y policiales.
El 5 de marzo, el ministro de Comunicaciones, Reza Taghipur, insistió en que Irán separaría la red internacional de internet de una red nacional de información, sobre todo para uso gubernamental y de instituciones públicas, por considerar "inseguro" el sistema mundial, aunque apuntó que se podrían utilizar ambas.
El mes pasado, el director de la Organización de Defensa Pasiva de Irán, general Gholam Reza Jalali, dijo que Teherán planea crear un ejército cibernético para contrarrestar posibles amenazas de EEUU y otros países, en especial hacia sus instalaciones nucleares.
Teherán ha denunciado supuestas agresiones informáticas, que ha atribuido a Estados Unidos e Israel, para crear problemas en sus sistemas militares y de seguridad y, sobre todo, en sus instalaciones nucleares.
Un gran número de páginas web están bloqueadas por las autoridades iraníes, entre ellas las de muchos medios de comunicación extranjeros y también las de grupos sociales y políticos, tanto iraníes como de otros países e internacionales, que el Gobierno de Teherán considera hostiles.
Además, también hay numerosas páginas bloqueadas por considerar las autoridades de Teherán que atacan la estricta moral de la República Islámica, y otras muchas están sin acceso porque en su dirección de internet llevan palabras que los censores iraníes consideran peligrosas.
Las redes sociales, en especial Facebook, e incluso la mayoría de las versiones del buscador Google, también están bloqueadas, lo mismo que los blogs, sea cual sea su origen o la temática que traten, así como los accesos por algunos protocolos de seguridad.
☛ El artículo completo original de LaTercera lo puedes ver aquí
Labels:
censura
Desconectan a Irán de la red financiera mundial
El sistema internacional de transferencias interbancarias SWIFT ha prohibido a las instituciones financieras de Irán el uso de sus servicios.
Los bancos han sido desconectados de la Sociedad para las Comunicaciones Interbancarias y Financieras Mundiales con sede en la capital belga Bruselas a las 16:00 GMT.
Un comunicado en la página web de SWIFT reza que "la desconexión de los bancos es una medida extraordinaria y sin precedentes para la Sociedad para las Comunicaciones Interbancarias y Financieras Mundiales", consecuencia directa de "la acción internacional y multilateral de intensificar las sanciones financieras contra Irán".
La deconexión del sistema podría repercutir en la industria petrolera del país, así como llevar a su aislamiento financiero.
Esta medida también afectará a los iraníes que viven en el extranjero, ya que no podrán transferir dinero a su país natal. Las compañías iraníes que operan en el extranjero se encontrarán asimismo bajo amenaz
Artículo completo en:http://actualidad.rt.com/economia/mercados_finanzas/issue_37606.htmla.
Artículo completo en:http://actualidad.rt.com/economia/mercados_finanzas/issue_37606.htmla.
☛ El artículo completo original de RT lo puedes ver aquí
Labels:
censura
¿Por qué reconocemos las caras y no los nombres?
Acudes a una fiesta y te presentan a una persona cuyo nombre, te dicen, es Pedro. Hablas un rato con él y tienes que presentárselo a otro amigo. Este es… ¿Cómo se llamaba? Apenas hace quince minutos que te han dicho su nombre pero no lo recuerdas. Pasan 6 meses y te lo vuelves a encontrar. Reconoces perfectamente su cara y recuerdas donde lo conociste. Hola… ¿Cómo se llamaba? Él, que es hombre de mundo, te lo dice: “Soy Pedro”. Puede que lo recuerdes o puede que te des cuenta de que nunca lo retuviste y temes que te vuelva a pasar.
Es un hecho común que recordamos mucho mejor las caras que los nombres. Hay varias razones para ello. La primera es el esfuerzo cognitivo. Cuando tienes delante una cara debes decidir si la reconoces o no. Cuando quieres recordar un nombre debes buscarlo en el almacén de la memoria. No es un simple sí o no, debes traer a la memoria un nombre concreto. La primera tarea tiene una respuesta sencilla sí o no mientras que en la segunda debes buscar un nombre concreto: Pedro.
Además, todas las caras son distintas, pero muchas personas comparten el nombre. Aunque en realidad es una ventaja. Si cada persona tuviera un nombre distinto, nuestro almacén de nombres sería mucho mayor del que es. Simplemente nuestro cerebro no puede almacenar tantos nombres.
Pero la razón principal es de índole computacional y evolutivo. La capacidad para recordar caras es mucho más poderosa y antigua que la facultad para recordar nombres.
El lenguaje humano es una característica evolutiva muy reciente. No sabemos si los neandertales hablaban. En todo caso la antigüedad del lenguaje puede cifrarse en unos pocos cientos de miles de años. Digamos cien mil años. Y las áreas cerebrales involucradas en el lenguaje, aún siendo un prodigio, no son muy grandes.
Reconocimiento de caras
Por el contrario, las áreas visuales del cerebro son enormes. Y evolutivamente son muy antiguas. Los monos Rhesus Macacus y los humanos procesamos las caras de una forma muy similar. Las investigaciones indican que es una habilidad que evolucionó hace 30 millones de años en un antepasado común que compartimos con los macacos (como comparación, recuerda que los dinosaurios se extinguieron hace 60 millones de años).Reconocer caras es algo muy difícil en lo que los humanos somos expertos. No se trata de algo que hacemos usando áreas inespecíficas del cerebro como calcular, jugar al ajedrez, razonar… Disponemos de un área concreta de reconocimiento de caras, un área congénita, precableada. Esto es debido a que debemos reconocer caras con exactitud y premura sin que ello dificulte el resto de operaciones mentales. Es decir, en paralelo. Reconocemos caras pese a que hayan cambiado con los años, con el maquillaje, con las gafas, con la barba, en distintas condiciones de iluminación, en distintos ángulos y en movimiento. Lo hacemos muy bien. Puedes probar tu destreza en esta página.
El efecto Thatcher
Se llama así porque se probó por primera vez con el rostro de la Primera Dama británica. Se consigue cogiendo la foto de una cara, cortando los ojos y la boca y pegándolos boca arriba. Si tomamos a su vez la cara resultante y la ponemos cabeza abajo (de modo que los ojos y la boca están en posición correcta pero el resto de la cabeza está girada), es difícil encontrar algo erróneo. Si por el contrario colocamos la cabeza en posición correcta ( y entonces los ojos y la boca están girados), la imagen resulta chocante. Algo está mal.
Los humanos percibimos esto claramente en los rostros humanos pero no en los de los monos. De la misma forma, los monos lo detectan en los rostros de sus congéneres pero no en los de los humanos.
Ambas especies percibimos las caras de nuestros semejantes inmediatamente mientras que las de otras especies las procesamos de forma distinta.
Aun cuando el reconocimiento de caras conespecificas se realiza por medios holísticos, las partes individuales tales como boca, la nariz y los ojos así como las proporciones faciales siguen siendo importantes.
Desde una edad temprana estamos acostumbrados a las caras de otros seres humanos: una nariz larga, la curva de los labios o las espesas cejas. Aprendemos reconocer las pequeñas diferencias que contribuyen al aspecto individual
Prosopagnosia
La prosopagnosia es la incapacidad de reconocer caras familiares o conocidas.No es un fenómeno unitario. Puede ser congénita o resultado de lesiones cerebrales. Puede ser perceptiva o asociativa. En algunos casos pueden reconocerse personas que tengan un rasgo sumamente llamativo. En ocasiones sólo se reconocen personas de un sexo y no del otro.
Los casos de prosopagnosia congénita son muy curiosos con pacientes que tardaron años en descubrir que había algo raro en ellos. Un abogado dejó la profesión porque no podía convencer a sus clientes de su competencia: cuando llegaba al juicio, no reconocía quien era su cliente. Una modelo descubrió que era muy guapa cuando sus amigos la animaron a que se presentara a un concurso de belleza. Un pintor de retratos con bonitos fondos pero sin cara. Un judío que no podía reconocer a sus semejantes porque en su comunidad todos vestían igual.
Sin duda el caso más conocido es el recogido en el fascinante libro de Oliver Sacks, “El hombre que confundió a su mujer con un sombrero”.
Pareció también decidir que la visita había terminado y empezó a mirar en torno buscando el sombrero. Extendió la mano y cogió a su esposa por la cabeza intentando ponérsela. ¡Parecía haber confundido a su mujer con un sombrero! Ella daba la impresión de estar habituada a aquellos percances.
Alguna regla mnemotécnica
Hacer un gran esfuerzo para recordar sirve de poco. Mucho más útil es repetir. Por ejemplo, cuando te presentan a Pedro, en lugar de responder “Hola, qué tal?, decir “Hola Pedro, qué tal?También sirve usar las asociaciones: Pedro el de la piedra, Ángeles la de los cielos, Víctor el victorioso, Ana la anaconda…
Y sobre todo, si sospechas que tu interlocutor no se acuerda de tu nombre, ayúdale: “Hola, soy Antonio”.
☛ El artículo completo original de Antonio Orbe lo puedes ver aquí
CyanogenMod deshabilitará el acceso root por defecto para nuevas instalaciones
CyanogenMod, una de las ROMs preferidas por los usuarios más avezados del sistema operativo del robot verde, dejará de ofrecer acceso root a partir de ahora. No obstante, antes de que lo des todo por perdido déjanos puntualizar un poco más esta decisión porque los nubarrones no son tan negros como en un principio podrían parecer. Aunque ya no será tan fácil, la posibilidad de volver a obtener privilegios de superusuario seguirá estando ahí, solo que ahora tendrás que activarla entre los menús de Opciones de Desarrollo de Aplicaciones.
Lo más llamativo de este cambio es que CyanogenMod opte así por alejarse de la mayoría de ROMs personalizadas que existen, las cuales otorgan acceso root a todos los usuarios de forma predeterminada y, en algunos casos, sin que éstos lo sepan -con los graves problemas que esto podría ocasionar al terminal. Con esta decisión el equipo indica que intenta conseguir una plataforma mucho más segura, claro que teniendo en cuenta la cantidad de ROMs basadas en Cyanogen, no nos sorprendería que esta característica se hiciera algo común entre las nuevas versiones de otras ROMs.
☛ El artículo completo original de Elena Henriquez lo puedes ver aquí
Lo más llamativo de este cambio es que CyanogenMod opte así por alejarse de la mayoría de ROMs personalizadas que existen, las cuales otorgan acceso root a todos los usuarios de forma predeterminada y, en algunos casos, sin que éstos lo sepan -con los graves problemas que esto podría ocasionar al terminal. Con esta decisión el equipo indica que intenta conseguir una plataforma mucho más segura, claro que teniendo en cuenta la cantidad de ROMs basadas en Cyanogen, no nos sorprendería que esta característica se hiciera algo común entre las nuevas versiones de otras ROMs.
☛ El artículo completo original de Elena Henriquez lo puedes ver aquí
Labels:
android
Los usuarios generan menos de la mitad del tráfico web
La empresa Incapsula especializada en seguridad en la nube ha lanzado recientemente un informe que indica que los usuarios reales generan apenas el 49% del total del tráfico web , mientras que el resto es generado por ordenadores que tienen en la mayoría de los casos intenciones malignas.
Como se puede ver en el gráfico, además de superarse la mitad en tráfico no generado por humanos, el 31% tiene como principal objetivo dañar la web. Para recolectar esta información la empresa hizo un estudio sobre más de mil sitios de clientes suyos con un promedio que va desde 50.000 a 100.000 visitantes mensuales.
En promedio el 5% del total del tráfico de la web proviene de herramientas de hackeo diversas que tienen como objetivo robar información privada, introducir malware o afectar la estabilidad del sitio. Otro 5% lo consumen scrapers que toman automáticamente el contenido de otros sitios para volver a publicarlo, para capturar infromación que sirva para la construcción de base de datos, etc. Un 2% proviene de spammers que publican contenido irrelevante, arruinan la información presentada y alentan la conectividad en general. El restante 19% sale de la suma de todos los demás tipos de acciones automatizadas como análisis de palabras claves, alarmas de actualizaciones, etc.
Según lo que declaran los sistemas más populares para estadística web no contabilizan este tipo de tráfico aunque se esté llevando a cabo. Servicios como el de Google Analytics sólo te muestran las visitas realizadas por usuarios reales. De esta forma aunque no veamos las visitas maliciosas o no podamos medir en la administración diaria de nuestros sites, la mitad del esfuerzo de nuestros servidores y conexiones se está gastando en operaciones automáticas que tienen la intención de atentar contra nuestro servicio.
Antes de alarmarse, es normal que gran parte del tráfico funcione con robots o sistemas automatizados, los buscadores mejoran el indexado gracias a recorrer intensamente la web gracias a eso mejoran la experiencia para el usuario. El desafío a futuro en la web será achicar el 31% del tráfico que busca hacer daño.
Foto (cc): Abode of Chaos
☛ El artículo completo original de Agustín Salaberry lo puedes ver aquí
Labels:
infografía,
internet
Infografía compara la enciclopedia Británica con la Wikipedia
Hace unos días os anunciamos que la Enciclopedia Británica dejaría, después de 244 años, de imprimirse, siendo la edición de 2010 la última que veríamos en papel.
La versión web de la enciclopedia es muy completa, constantemente actualizada y extremadamente consultada por los que pagan la mensualidad que da derecho a toda su información, sin contar con la versión para iPad que, por 2 dólares al mes, incluye toda el conocimiento humano en “el bolsillo”… el papel dejó de tener sentido.
Como homenaje, en statista.com han creado la infografía que aquí podéis ver, comparando los dos monstruos de la información: Wikipedia Vs Encilopedia Británica.
☛ El artículo completo original de Juan Diego Polo lo puedes ver aquí
La versión web de la enciclopedia es muy completa, constantemente actualizada y extremadamente consultada por los que pagan la mensualidad que da derecho a toda su información, sin contar con la versión para iPad que, por 2 dólares al mes, incluye toda el conocimiento humano en “el bolsillo”… el papel dejó de tener sentido.
Como homenaje, en statista.com han creado la infografía que aquí podéis ver, comparando los dos monstruos de la información: Wikipedia Vs Encilopedia Británica.
☛ El artículo completo original de Juan Diego Polo lo puedes ver aquí
Google lanzaría un tablet Nexus de 7 pulgadas y 199 dólares en mayo
Según lo dicho, el tablet saldría a la venta en el mes de mayo gracias a ASUS, que ya nos había dicho que tiene una excelente relación con Google. El rumor encaja además con las declaraciones de Eric Schmidt, que no hace mucho tiempo habló acerca de un tablet propio sin querer dar muchos más detalles.
De ser cierto el rumor, Amazon debería empezar a preocuparse por el futuro de Kindle Fire, que aunque ofrezca acceso a contenidos propios, no deja de ser un tablet Android de un precio similar. Con respecto al iPad, se nos hace difícil pensar que Google pretenda competir por el mismo mercado que Apple; no sólo por la diferencia de pantallas (10 y 7 pulgadas), sino porque el propio precio del tablet Nexus lo situaría en otro segmento. De todas maneras, insistimos en que esto no es más que un rumor; por nuestra parte estaremos atentos para traerte cualquier novedad sobre el asunto.
☛ El artículo completo original de Jose Andrade lo puedes ver aquí
16 de marzo de 2012
Una guía práctica para escoger una distro Linux
Linux es una genial alternativa para cualquier sistema operativo. Y no, no es sólo para nerds ni para genios computacionales. A mi me encanta.
Pero eso no quiere decir que no tenga sus detalles. Quizás algo de lo que detiene a mucha gente para usar Linux es el hecho de que hay más de 600 versiones distintas de Linux por ahí, un número que cualquiera (le guste o no le guste Linux) puede encontrar abrumador.
¿Qué distribución de Linux usar? ¿Por qué? Quizás no sean preguntas fáciles, pero en IdentidadGeek queremos ayudarles a elegir una distro Linux sin muchos problemas y también queremos mostrarles opciones distintas a las que ya están usando.
Esta guía práctica no es absoluta y está pensada para personas que ya tienen algo de experiencia con Linux, aunque apenas vayan empezando.
Aún así, si son principiantes, les recomiendo que lean primero acerca de qué es una distribución Linux; pero si no quieren hacerlo y quieren ir a leerlo, les diré rápidamente que una distro es «una distribución de software basada en el núcleo Linux que incluye determinados paquetes de software para satisfacer las necesidades de un grupo específico de usuarios, dando así origen a ediciones domésticas, empresariales y para servidores». Así que es un montón de pequeños programas que te ayudan a construir un sistema operativo.
Con esto en mente y sabiendo que hay muchas opciones hablemos primero de las principales diferencias entre las distros Linux:
Entorno de escritorio
El escritorio es la manera en que los usuarios perciben al sistema operativo, por eso es el primero en el que nos fijamos; ya hemos hablado mucho, de por ejemplo, como Linux es una de las pocas fuentes de innovación en los escritorios y cada uno de ellos tiene muchas propuestas distintas pero normalmente las diferencias son cosas del estilo:- El estilo y diseño de las ventanas y el área de trabajo, incluidos los menús y demás. Aunque esto es a su vez más personalizable.
- El uso de recursos (hay entornos muy bonitos y pesados y otros ligeros y sencillos)
- La manera en que se integran tus programas con tu escritorio y los unos con los otros (hay entornos de escritorio que tienen un set de programas “base”, como KDE)
- La manera en que trabajas. Hay unos muy dinámicos y modernos (Como GNOME con Gnome Shell) y otros muy clásicos (como XFCE)
Gestor de paquetes
Un gestor de paquetes es la manera en que puedes instalar nuevos programas en tu computadora; con él también instalarás nuevas partes de tu sistema operativo. Hay muchos distintos y en realidad no hay uno mejor que otro; está APT que se usa en Debian, Ubuntu, Mint y una gran cantidad de distros basadas en Debian. Me atrevería a decir que es la más común.También tenemos Yum de Fedora que muchos consideran más sencillo que APT desde la línea de comandos. Está el sistema Pacman usado por Arch Linux y el RPM de RedHat.
La cosa aquí no es que sea fácil de usar, es la disponibilidad de paquetes para cada gestor. Si usas Fedora, por ejemplo, quizás sea más difícil encontrar paquetes de un programa que para Ubuntu. ¿Es esto un problema? En teoría no, pero te verás en la necesidad de compilar más programas en lugar de instalar de los repositorios.
¿El más popular? APT.
Hardware
No podemos negarlo, ha habido muchos avances a la hora de compatibilidad con hardware de Linux. Pero distintas distros tienen distintos drivers preinstalados; así que la computadora en donde funcionaba todo con una distro puede causar problemas con otra.Siempre puedes instalar más drivers, pero hacerlo es aburrido. Mientras busques distros, opta por las que tengan un Live CD para poder probarla en tu computadora y ver si todo funciona a la perfección. Si tienes una computadora de escritorio armada con partes poco usuales, prepárate para batallar un poco.
Comunidad e información dsiponible
Hay algo que es cierto para todo el software libre: muchas veces una buena comunidad hace la diferencia. ¿Qué hacer cuando tienes un problema y no encuentras como solucionarlo? Lo más común es recurrir a la comunidad de usuarios de tu distro para que te ayuden a dar soluciones; la mayoría de las comunidades son muy participativas y están siempre dispuestas a ayudar.Aquí la gran ventaja la tiene Ubuntu, que al ser la distro más popular es también de la que se tienen más dudas y de la que más se responden, podrás encontrar virtualmente cualquier problema y posiblemente su solución en los foros de Ubuntu.
Entre más información tengas a la mano, mejor será le experiencia; la gente siempre está dispuesta a ayudar y en el caso de las distros Linux, muchas veces se lo toman muy en serio. Las comunidades de Debian y de Fedora son también grandes y atienden a problemas específicos siempre que pueden, así que son buena opción. Busca en Internet y averigua que tanta información de la distro que estás probando hay por ahí.
Entonces ¿cuáles distros hay? ¿cuáles son las distros que hay que probar?
Una vez que hemos visto lo que hace que cada distro sea única; ¿por dónde seguirle?La primera opción son los blogs especializados en Linux o también está la página llamada DistroWatch que siempre tiene el ojo en nuevas distros y en la popularidad de las distros actuales. Aún así, acá les traemos una pequeña lista con algunas distros y sus principales pros y contras. Algunas de ellas son muy conocías y de otras hemos hablado en el blog (como en el caso de estas 5 distros linux distintas pero buenas).
Así que lean la lista, pregunten sus dudas y sugieran nuevas distros o alguna que no esté aquí. Y lo más importante: no se limiten a esta pequeña lista, que hay un mundo de posibilidades allá afuera.
Ubuntu: la popular
Unos la odian, otros la aman; lo más probable es que sea de la primera que hayas oído hablar (y si no ha oído hablar de ella probablemente hayas estado atrapado debajo de una piedra los últimos 5 años).La idea original de Ubuntu era llevar Linux al usuario promedio y lo ha hecho bastante bien. Es una buena distro para introducirte al mundo de Linux. Es muy simple, tiene nuevas versiones cada seis meses, un “Centro de Software” que funciona como una tienda de aplicaciones y viene con todo lo necesario para poder hacer lo que comúnmente haces con tu computadora.
Además, tiene una gran comunidad y mucha información alrededor de ella. Quizás el único pero que muchos -como yo- le pondrían es el hecho de que en sus últimas ediciones han usado un shell de escritorio nuevo llamado Unity, que hace que la experiencia de usarlo sea muy distinta a como era antes. Como dijimos, se puede cambiar -yo lo hago- pero no está de más probarlo. La estadística dice que te gustará.
Además, hoy en día cuenta con muchas cosas que la hacen muy innovadora, como el hecho de que tiene integración con la nube por default con Ubuntu One.
No por nada es la distro más popular del momento.
elementary OS: la minimalista
Si lo que quieres es algo sencillo que trabaje, te tengo una buena noticia: existe y se llama elementaryOS.
Si has intentado usar alguna distro linux y la has encontrado “poco bonita” te tengo una buena noticia, esta distro te va a gustar; todo su concepto está basado en un set de íconos sencillo llamado elementary, que después pasó a convertirse en un proyecto que terminó siendo esta distro basada en Ubuntu.
Tiene toas las aplicaciones básicas para Internet, ofimática y un poco más. Usa Gnome, por lo que no es pesada, aunque no se compara con otras mucho más ligeras. A mucha gente le encanta, pero pocos la conocen. La gra ventaja es que puedes usar la mayoría de las cosas que usas en Ubuntu.
Fedora: la moderna
Fedora es una distro que nace como alternativa no comercial a RedHat y es una de las más modernas que podrás encontra: siempre tiene lo último y lo mejor de lo mejor. Tiene nuevas versiones cada seis meses y no son soportados por mucho tiempo.Esta distro es para los que les gusta tener lo último de lo último, así que espera actualizaciones constantes; si sale una nueva versión de un software es probable que la encuentres en los paquetes oficiales a las pocas horas.
El gran problema es que esto puede hacer que esta distro sea un poco menos estable que las otras, pero si estás dispuesto a eso con tal de tener lo último del software, probablemente estés bien. Fue la primera que usó GNOME 3 con Gnome Shell (mi elección personal) y es la distro más popular que lo tiene por default.
Usa el gestor de paquetes YUM y aunque no hay muchos paquetes preparados para Fedora, compilar no es tan difícil. Y es probable que ya encuentres muchas cosas en los repositorios o como archivos instalables con un par de clics.
Muchos la consideran más profesional que Ubuntu y más seria y definitivamente es una buena opción.
Debian: la clásica y estable
Debian es de las distros más clásicas de las clásicas, nació en 1993lo que la hace una de las más longevas.Si ustedes buscan estabilidad, esta es la suya; aquí no hay mucha modernidad, todo se trata de adaptar a esta distro, es por eso que sacan versiones nuevas de cada uno a tres años y casi nunca tienen las últimas versiones de software. Si no les interesa no tener las últimas versiones del software que usan comúnmente, pero quieren estar seguros de que todo funcionará como debe, esta es la suya. Además de que podrán usar los mismos paquetes que en Ubuntu, los famosos archivos DEB.
Arch Linux: la DIY
Aquí nos vamos a topar con algo completamente distinto a lo que veíamos antes, se trata de una distro en la que vas creando todo desde cero.Lo que tienes al instalar Arch es una terminal desde la cual vas construyendo tu propio sistema operativo, desde los drivers, las aplicaciones, el escritorio y todo lo demás. Se podría decir que es la distro para hacerlo tú mismo, puede ser pequeña y ligera o completa y grande.
Si lo que quieren es aprender cómo funciona un sistema operativo y crear algo completamente personalizado en el proceso; Arch es su opción. Quizás el único gran pero que le pondría sería que su comunidad no es tan participativa como en otras distros.
Slackware: para el experimentado
Está enfocada a la solidez en el desempeño mediante la simplicidad del software y a ser el Linux más semejante al Unix.El enfoque de Slackware hacia lo simple no tiene nada que ver con lo fácil de usarse sino más bien con la eficiencia del software; de forma que no es una distribución para principiantes, es una distro para usuarios más experimentados. Es muy popular entre los usuarios más puristas de los sistemas Linux por el alto grado de personalización que permite y por que su eficiencia le permite correr con alto desempeño sobre hardware muy viejo.
Algunas cosas la hacen muy de la vieja escuela, como el hecho de que no tiene un gestor de paquetes y de que el sistema no revisa si las dependencias de un paquete están satisfechas y eso es responsabilidad del usuario. En pocas palabras: si no sabes qué es lo que estás haciendo, Slackware no será de mucha ayuda.
Obviamente hay muchas distros Linux muy populares que han quedado fuera de esta pequeña lista, además de que hay variaciones de las mismas dependiendo del escritorio que tengan por default; hay unas especializadas en ser muy pequeñas, como Damn Small Linux, y otras en verse bonitas. Hay algunas muy minimalistas como CrunchBang y otras que simplemente son distintas, como las 5 distros con enfoques distintos de las que ya hablamos. Pero entre más pruebes, más sabrás cual es la que es para ti.
¿Ustedes cómo hicieron para elegir la suya? ¿Qué consejos le darían a los demás lectores?
☛ El artículo completo original de zapata131 lo puedes ver aquí
Labels:
cultura libre,
linux
Google ya no ofrecerá soporte para navegadores móviles que no acepten cookies
Dudamos que muchas personas se vean afectadas por esta decisión de Google, pero por si acaso te vamos avisando para que estés preparado cuando tu querida tía te llame para contarte que no puede leer su correo en el teléfono. Nos referimos a la decisión de Google de cancelar soporte para navegadores móviles que no acepten cookies, que como curiosidad, suponen todavía la mayor parte en Japón. Servicios como Maps o el de búsquedas seguirán funcionando porque pueden ser usados sin ingresar a la cuenta de usuario, pero todo otro servicio que necesite de información de usuario funcionará únicamente en dispositivos que permitan grabar cookies. El cambio se hará a partir del primero de mayo, así que alrededor del 12 de ese mes recibirás la mencionada llamada de tu tía.
[Foto cortesía de Shutterstock]
☛ El artículo completo original de Jose Andrade lo puedes ver aquí
[Foto cortesía de Shutterstock]
☛ El artículo completo original de Jose Andrade lo puedes ver aquí
Labels:
google,
internet,
smartphone
Los accionistas de Samsung dan luz verde a la separación de la división LCD
Existen muchas razones para que una compañía como Samsung decida separar a una división creando una empresa aparte, y por lo tanto no tenemos una opinión bien formada en cuanto a si la escisión de su departamento dedicado a la producción de pantallas LCD es acertada o no. Sea como sea, la noticia es que los accionistas del gigante coreano han aprobado dicha separación, que se verá reflejada en la creación de una compañía posiblemente llamada Samsung Display Co.
Samsung mantendrá el 100 por ciento del control sobre el nuevo fabricante de LCDs, que será dirigido por Park Dong-gun, presidente de la nueva empresa y ex vicepresidente de la división de LCD. El gigante coreano dice que la separación creará una compañía más ágil y preparada para responder a las necesidades de sus clientes con mayor velocidad, y si eso se traduce en precios más bajos, nosotros apoyamos la idea aunque no seamos accionistas.
☛ El artículo completo original de Jose Andrade lo puedes ver aquí
Samsung mantendrá el 100 por ciento del control sobre el nuevo fabricante de LCDs, que será dirigido por Park Dong-gun, presidente de la nueva empresa y ex vicepresidente de la división de LCD. El gigante coreano dice que la separación creará una compañía más ágil y preparada para responder a las necesidades de sus clientes con mayor velocidad, y si eso se traduce en precios más bajos, nosotros apoyamos la idea aunque no seamos accionistas.
☛ El artículo completo original de Jose Andrade lo puedes ver aquí
Labels:
samsung
Los actuales récords mundiales Guinness de escritura de un mensaje de texto (SMS)
Pinche aquí para ver el vídeo
Para los récords mundiales Guinness hay dos campeones en envío de SMS a través de teléfonos móviles. El primero es Frode Ness (de Noruega), quien en una competencia de SMS efectuada en la ciudad de Oslo, logró escribir 160 caracteres en 34.65 segundos. Ojo que no cualquier texto, sino el base que se utiliza (en inglés) para redactar y participar por el record, el cuál es el siguiente:
Por otra parte, como un segundo récord, existe lo hecho por Melissa Thompson de Inglaterra el 22 de agosto de 2010. A diferencia del noruego, Melissa hizo el récord del mensaje de texto más rápido en una pantalla táctil. Esto lo logró gracias a la tecnología Swype que están en los Android y que incluyen teléfonos como Samsung o HTC. Ella logró escribir el mismo texto de prueba en 25.94 segundos.
☛ El artículo completo original de Felipe Ovalle lo puedes ver aquí
Para los récords mundiales Guinness hay dos campeones en envío de SMS a través de teléfonos móviles. El primero es Frode Ness (de Noruega), quien en una competencia de SMS efectuada en la ciudad de Oslo, logró escribir 160 caracteres en 34.65 segundos. Ojo que no cualquier texto, sino el base que se utiliza (en inglés) para redactar y participar por el record, el cuál es el siguiente:
“The razor-toothed piranhas of the genera Serrasalmus and Pygocentrus are the most ferocious freshwater fish in the world. In reality they seldom attack a human.”Aquél registro de Frode Ness, fue un 13 de noviembre de 2010 y pueden verlo en el video adjuntado al escrito.
Por otra parte, como un segundo récord, existe lo hecho por Melissa Thompson de Inglaterra el 22 de agosto de 2010. A diferencia del noruego, Melissa hizo el récord del mensaje de texto más rápido en una pantalla táctil. Esto lo logró gracias a la tecnología Swype que están en los Android y que incluyen teléfonos como Samsung o HTC. Ella logró escribir el mismo texto de prueba en 25.94 segundos.
☛ El artículo completo original de Felipe Ovalle lo puedes ver aquí
Labels:
telefonía
Nokia patenta tatuajes que nos avisarán que nos llaman por teléfono
Una de las armas que esgrimen, con demasiada frecuencia, las empresas tecnológicas para enfrentarse a la competencia son las patentes; derechos exclusivos que otorga un Estado a una empresa o a una persona física por desarrollar una idea que no haya sido registrada con anterioridad y que, por tanto, protegen dicha idea de su uso por otras personas o empresas salvo que se concedan licencias de uso. Teniendo en cuenta que suelen usarse como artillería en batallas legales, se suelen patentar múltiples ideas de las que no todas se implementan a corto plazo y entre las últimas ideas patentadas en Estados Unidos, Nokia ha sorprendido con el registro de una patente en la que un tatuaje indicaría al usuario que le están llamando por teléfono y, además, indicaría el nombre de la persona que está llamando.
Hoy en día es raro un smartphone que no vibre cuando entra una llamada o que, en el caso de las pantallas táctiles, notemos cierto temblor al tocar la pantalla como feedback de la pulsación que hemos hecho sobre el teclado virtual del teléfono. Esa retroalimentación que recibimos del dispositivo en forma de vibración es lo que se denominaría una respuesta háptica (sensaciones táctiles). Nokia quiere extender esto fuera del terminal y llevarlo a nuestro cuerpo de manera que sintamos que nos llaman sin necesidad de sacar el teléfono de nuestra mochila, por ejemplo. Para sentir que nos llaman, Nokia ha pensado en tatuajes e implantes y eso es lo que ha plasmado en una solicitud de patente (la 20120062371) que presentó ayer mismo en la Oficina de Patentes de Estados Unidos.
El tatuaje se realizaría con tintas ferromagnéticas que provendrían de un proceso de fabricación a altas temperaturas para que pierda su magnetización. A partir de ahí, el tatuador realizaría el tatuaje sobre el usuario y, mediante un imán, se magnetizaría el tatuaje y éste vibraría en base a los campos magnéticos que el smartphone enviaría y que dependerían de si recibimos un mensaje, una llamada e, incluso, del llamante.
Teniendo en cuenta que un tatuaje es algo para toda la vida, Nokia también baraja la posibilidad de utilizar implantes que no sean permanentes y que tomarían como base un material biocompatible que podría implantarse, por ejemplo, en el brazo. Al igual que el tatuaje, los campos magnéticos harían vibrar a este implante que se emparejaría de manera unívoca con el teléfono y que, dependiendo de si se recibe una llamada, un mensaje o alguna acción concreta, la vibración del implante variaría.
La verdad es que el entorno debe ser extremadamente ruidoso como para que el vibrador del smartphone sea insuficiente y sea necesario implantarse un dispositivo en el brazo o realizarse un tatuaje. Dudo mucho que este tipo de tecnología, tal cual está descrita en la patente, llegue a implementarse realmente porque, bajo mi punto de vista, es bastante inquietante.
Imágenes: LA Ink y Unwired View
☛ El artículo completo original de JJ Velasco lo puedes ver aquí
Labels:
nokia,
tecnología
Intel apuesta por Tobii: 21 millones de dólares para la tecnología de seguimiento ocular
Probablemente este no sea el mejor momento para hacer una demostración de la tecnología de Tobii, ya que teniendo en cuenta la oferta que la compañía acaba de recibir por parte de Intel, los ojos de sus creadores tienen que estar ahora mismo dando vueltas de la emoción. Nada más y nada menos que 21 millones de dólares son los que la compañía del seguimiento ocular ha recibido, una cantidad que supone una participación del 10% en la compañía sueca y con la que Intel reforzará la investigación para la integración de la nueva versión del producto en portátiles. Según informa el cofundador de Tobii, John Elvesjö, la idea es comentar por el mercado de los portátil para más adelante adentrarse en otros mercados como el de los automóviles o la telefonía móvil. Evidentemente la llegada de Intel impulsará estas metas, por lo que puede que estemos más cerca de lo que pensamos de controlar nuestro futuro equipo con Windows 8 a base de guiños.
☛ El artículo completo original de Carlos Martinez lo puedes ver aquí
☛ El artículo completo original de Carlos Martinez lo puedes ver aquí
El iPod de los 8 millones dólares: las Matemáticas de copyright
Creo que esta es una de las mejores pláticas que habla acerca de la verdad detrás de las empresas que están apoyando leyes como SOPA, PIPA o ACTA y que nos habla también de cómo la manipulación emocional juega un papel muy importante en la política y la legislación.
Rob Reid, el fundador de Rhapsody examina las matemáticas detrás de los argumentos que las empresas y asociaciones que apoyan las leyes más rigurosas en cuanto a propiedad intelectual.
La plática es irónica y levanta risas en el auditorio por lo absurda que puede llegar a ser; pero no es la plática la que es absurda, es la verdad -y la ridiculez- detrás de muchos reclamos de la industria del cine y de la música. Acá están la frases en las que se basa Robert Reid para ridiculizara la industria con matemáticas básicas:
El análisis de Reid es sencillo y se puede entender incluso si no sabes mucho inglés: estas acusaciones son ridículas. La industria de la música es la única que ha pedido ganancias -aunque sigue con ganancias millonarias-, las demás industrias relacionadas con contenidos han ganado más en los últimos años y están en constante crecimiento. En cuanto a los trabajos, todas estás industrias combinadas decían tener 330,000 trabajadores en EEUU. Lo cual, obviamente nos deja con trabajos negativo a la hora de decir que se perdieron 373,000.
Según los matemágos del copyright, cada que una canción es pirateada, esto produce una pérdida equivalente a $150,000 millones de dólares. Como lo hace notar Reid, esto quiere decir que si tú tenías uno de los primeros reproductores de MP3, que podía cargar 10 canciones, podías tener en él un millón y medio de dólares, egún la industria del copyright. ¿Que pasa si llevamos esto a los reproductores actuales? Sencillo, en un iPod clasic -que puede cargar 40,000 canciones- tendrías ocho mil millones de dólares (ocho millardos u ocho billones en inglés) en canciones pirateadas en tu mano.
¿Ridículo? Ya lo creo. Esas son las matemáticas del copyright. Si les interesa el tema, deberían leer lo que Antonio Martíez escribió al respecto en CriticaPura.
☛ El artículo completo original de zapata131 lo puedes ver aquí
Rob Reid, el fundador de Rhapsody examina las matemáticas detrás de los argumentos que las empresas y asociaciones que apoyan las leyes más rigurosas en cuanto a propiedad intelectual.
La plática es irónica y levanta risas en el auditorio por lo absurda que puede llegar a ser; pero no es la plática la que es absurda, es la verdad -y la ridiculez- detrás de muchos reclamos de la industria del cine y de la música. Acá están la frases en las que se basa Robert Reid para ridiculizara la industria con matemáticas básicas:
La MPAA dice que “… más de $58 mil millones de dólares se pierden para la economía de los Estados Unidos debido al robo de contenidos, incluidos más de 373,000 trabajos dentro de EEUU”¿Qué quiere hacer la industria de la música con estos números gigantescos? Tratar de llevar sus acusaciones -o pretendiendo, tan siquiera- al mundo de la objetividad y hacer que la gente se alarme con números grandes, pérdidas millonarias y trabajos que ya no existen. Tratando de sembrar el miedo en la gente y de hacerles ver lo malo que es robar, aunque por lo visto no se dan cuenta de que robar y copiar es algo distinto.
El análisis de Reid es sencillo y se puede entender incluso si no sabes mucho inglés: estas acusaciones son ridículas. La industria de la música es la única que ha pedido ganancias -aunque sigue con ganancias millonarias-, las demás industrias relacionadas con contenidos han ganado más en los últimos años y están en constante crecimiento. En cuanto a los trabajos, todas estás industrias combinadas decían tener 330,000 trabajadores en EEUU. Lo cual, obviamente nos deja con trabajos negativo a la hora de decir que se perdieron 373,000.
Según los matemágos del copyright, cada que una canción es pirateada, esto produce una pérdida equivalente a $150,000 millones de dólares. Como lo hace notar Reid, esto quiere decir que si tú tenías uno de los primeros reproductores de MP3, que podía cargar 10 canciones, podías tener en él un millón y medio de dólares, egún la industria del copyright. ¿Que pasa si llevamos esto a los reproductores actuales? Sencillo, en un iPod clasic -que puede cargar 40,000 canciones- tendrías ocho mil millones de dólares (ocho millardos u ocho billones en inglés) en canciones pirateadas en tu mano.
¿Ridículo? Ya lo creo. Esas son las matemáticas del copyright. Si les interesa el tema, deberían leer lo que Antonio Martíez escribió al respecto en CriticaPura.
☛ El artículo completo original de zapata131 lo puedes ver aquí
Labels:
copyright
Joven británico es acusado de bloquear la web de la CIA
Un presunto "hacker" británico compareció hoy ante un tribunal de Londres para responder a las acusaciones de haber bloqueado las páginas web de la CIA estadounidense y de la Agencia Británica contra el Crimen Organizado.
Ryan Ackroyd, de 25 años, se enfrenta además a cargos por tratar de acceder de manera ilícita al sistema informático del Servicio Nacional de Salud británico y de News Internacional, compañía editora del diario "The Sun" y del clausurado dominical "News of the World".
El presunto pirata informático formaba parte, según las acusaciones, del grupo "LulzSec", que ha lanzado diversos ataques informáticos a través de internet en los últimos meses.
Junto a Ackroyd, afrontan los mismos cargos otros tres jóvenes: Jake Davis, de 18 años; Ryan Cleary, de 19, y un menor de 17 años.
La fiscalía alega que los cuatro acusados conspiraron para lanzar un ataque de "denegación de servicio" a las páginas web, con el que presuntamente colapsaron sus servidores mediante peticiones masivas de acceso desde múltiples orígenes.
El grupo está acusado, asimismo, de dirigir esos ataques contra los servidores de firmas tecnológicas como la japonesa Sony y la estadounidense Bethesda.
Howard Riddle, magistrado del Tribunal londinense de Westminster, confirmó la libertad condicional de Ackroyd hasta la siguiente vista del caso, el 11 de mayo en la Corte de Southwark.
Mientras no se dicte sentencia, el presunto "hacker" no tiene permiso para acceder a internet ni para poseer cualquier dispositivo con posibilidad de conectarse a la red.
☛ El artículo completo original de LaTercera lo puedes ver aquí
¿Que tan distinto es el «Retina Display» bajo el microscopio?
Es muy distinto.
Y es que las imágenes no mienten. El cambio más notable en el nuevo iPad -además de las debidas mejoras de procesador y RAM- es la pantalla, la cual los de la manzanita llaman Retina Display (porque los términos convencionales como Full HD, o HD no son suficiente para Apple).
El Retina Display apareció por primera vez en el iPhone 4S, y hay que aceptar que hace que todo se vea muchísimo más vibrante y con más color. Para el nuevo iPad, los chicos de Cupertino se han encargado de meter 264 pixeles por pulgada cuadrada. Esto suena a mucho, pero aún así Lukas Mathis tenía curiosidad acerca de qué tanta mejora verdadera hacía esto. La solución obvia era ver las pantallas bajo un microscopio que las aumentara 80 veces. La diferencia se hace notar.
A esta escala, el amontonamiento de pixeles es bastante obvio; como también lo son las mejoras tecnológicas. Así que si alguna vez se preguntan por qué “la imagen se veía mejor en mi teléfono”, acá tienen la respuesta.
Además de analizar y comparar productos de los chicos de Cupertino, Mathis también se encargó de revisar algunos productos de sus competidores. Por ejemplo, acá tenemos al Kindle Fire:
Acá está la pantalla del Kindle tradicional, la cual usa tinta electrónica; una tecnología muy distinta que usa cápsulas de partículas cargadas que se encogen o que aumentan para crear la ilusión del texto impreso. Y debo decir que lo hacen increíblemente. Es, sin lugar a dudas, la mejor manera de leer un libro electrónico.
Acá tenemos la pantalla del Google Nexus One, que tiene algunos LED con forma extraña:
Y acá el Xperia Play, que al parecer también tiene una buena resolución, aunque no tanta como la de los productos de Apple:
Si quieren ver más pantallas, en Ignore The Web, la página de Mathis, tienen muchas más, desde el PSP hasta el HP Veer, con algunas otras que quizás les llamen la atención. Además, habla acerca del tipo de pixeles y el por qué son escogidos.
Todos sabemos que algunas pantallas son mejores que otras y para algunos es un factor decisivo a la hora de comprar un producto mientras que para otros es sólo una característica más; aún así, ver la realidad de las pantallas de una manera tan cercana, cambia completamente la visión que tenemos de estas tecnologías.
☛ El artículo completo original de zapata131 lo puedes ver aquí
India cierra 104 sitios de descargas
Cada uno de los 387 proveedores de Internet en India han recibido la orden de bloquear 104 sitios que ofrecen descargas de música sin tener los derechos para su reproducción. El triunfo de la industria musical local, asociada en torno a la IMI, implica el cierre de los sitios y no hay medidas intermedias. La llamada Deep Packet Inspection asegurará el mantenimiento del cierre de esos sitios. Aunque la potente industria cinematográfica del país había obtenido algún éxito legal, el de la industria discográfica es el mayor. Sin embargo algunos sitios cerrados, como Songs.pk (de Pakistán), ha encontrado cobijo en Chequia y ahora se llama Songspk.pk.
☛ El artículo completo original de Javier Martín lo puedes ver aquí
☛ El artículo completo original de Javier Martín lo puedes ver aquí
Blade Runner cumple 30 años: curiosidades y vídeos de una obra irrepetible | Retrogeek
Tres años después de rodar Alien, Ridley Scott estrenaría una de las películas claves en la historia de la ciencia ficción. Basada en la novela de Philip K. Dick ¿Sueñan los androides con ovejas mecánicas? y ambientada en la ciudad de Los Ángeles en el año 2019, nacía un filme cuya leyenda aún sigue vigente entre nosotros. Única e irrepetible, en 1982 se estrenaba en las salas de cine Blade Runner.
Aunque desde ALT1040 hemos escrito infinidad de veces sobre la obra y su repercusión, esta entrada es un homenaje más a una fecha tan especial. Una serie de curiosidades, vídeos y fotografías acompañadas de muchas de las escenas clave del filme, en su mayoría con la banda sonora brutal que compuso Vangelis para la ocasión.
Una historia cuyo comienzo decía así…
A principios del siglo XXI, la poderosa Tyrell Corporation creó, gracias a los avances de la ingeniería genética, un robot llamado Nexus 6, un ser virtualmente idéntico al hombre pero superior a él en fuerza y agilidad, al que se dio el nombre de Replicante. Estos robots trabajaban como esclavos en las colonias exteriores de la Tierra. Después de la sangrienta rebelión de un equipo de Nexus-6, los Replicantes fueron desterrados de la Tierra. Brigadas especiales de policía, los Blade Runners, tenían órdenes de matar a todos los que no hubieran acatado la condena. Pero a esto no se le llamaba ejecución, se le llamaba “retiro”…
- Una de los puntos más destacados del filme es la composición de Vangelis. La mayoría de los que tenéis la banda sonora quizá os habréis dado cuenta pero el maravilloso tema Rachel´s song no se utilizó en la película. Podemos adivinar que iría dirigido al personaje de Rachel y las dudas que comenzaban a aflorar sobre su identidad. Quizá por ello finalmente se decidieron por el tema Memories of Green. Les dejo con la edición que realizó un usuario en YouTube sobre lo que sería el filme con la inclusión de la pieza…
- Hace varios meses se mostraron una serie de fotografías Polaroid que pertenecían a Sean Young. Una especie de “detrás de las escenas…” que incluían las siguientes fotos inéditas:
- Con la reciente muerte de Moebius se fue uno de los grandes ilustradores de todos los tiempos. A la vez, su pérdida nos recuerda la influencia decisiva que tuvo en muchas de las grandes obras de ciencia ficción, los mundos distópicos y el cyberpunk. El propio Scott ha reconocido en el tiempo que tanto Blade Runner como Alien estaban inspiradas en los trabajos de Moebius haciendo hincapié en una de sus obras. The Long Tomorrow fue el título del cómic escrito por Dan O´banano e ilustrado por Moebius en 1976. Una obra inspirada en el cine policiaco, cine negro en tiras de cómic sobre un futuro lejano. Ridley Scott diría que tras la lectura de The Long Tomorrow esta se convertiría en una referencia visual clave para Blade Runner…
- Curiosidad de la película que pudiera parecer lo contrario. Blade Runner se hizo por completo en “analógico”. No hubo ningún tipo de gráficos por ordenador.
- De la gran cantidad de videojuegos que se lanzaron tras el filme, uno de los primeros fue Blade Runner de 1985. Como curiosidad, el juego estaba inspirado vagamente en la película y, sobre todo en la banda sonora de Vangelis… aunque sobre una base de la misma ya que los editores no pudieron obtener los derechos de autor. El juego fue lanzado por CRL Group CPC para Commodore 64, Spectrum ZX y Amstrad CPC.
- De todos los documentales que se han realizado sobre la película On The Edge es posiblemente el mejor de todos. Un paseo y disección por los entresijos del clásico:
- Seis fotografías del set que quizás no habías visto…
- Para acabar este pequeño homenaje, tres vídeos. El primero se trata del trailer original de la cinta. El segundo son escenas del filme acompañadas del tema de Vangelis Love Theme. El último es uno de los monólogos más grandes de la historia del cine y una de las escenas claves de la película (spoiler). Que lo disfruten.
☛ El artículo completo original de Miguel Jorge lo puedes ver aquí
Labels:
geek,
televisión
Microsoft crea Lifebrowser, un navegador que rastrea nuestras informaciones personales
En un artículo de technologyreview.com comentan la experiencia que tuvieron al probar Lifebrowser, un navegador de información personal, creado por Microsoft Research, que busca entre emails, histórico del navegador, eventos del calendario, fotos y otros documentos guardados en el ordenador para detectar momentos clave que puedan ser destacados.
Podemos, por ejemplo, buscar por el nombre de una persona y ver cómo se recupera el primer email con el que cruzamos información, fotos que tenemos en común, fechas en las que nos encontramos, documentos importantes con los que hemos trabajado juntos… todo después de un profundo análisis entre los datos guardados en nuestro disco duro.
Lifebrowser no usa Internet, usa los archivos de nuestro PC, con lo que sería inútil para los que usamos herramientas online (webmail, picasa, google calendar, zoho, etc), estando más orientado para los que tienen un disco duro con gigas de información con toda su historia digital.
El programa, que aún no está disponible de forma pública, usa un sistema de inteligencia artificial para diferenciar el contenido irrelevante de lo que merece ser destacado, siendo comparado en algunas ocasiones, dentro del artículo de technologyreview con el nuevo timeline de Facebook.
Eric Horvitz, responsable en Microsoft por el proyecto, ya lo está probando de forma privada con algunas personas. Estaremos atentos a su publicación para que lo podáis probar.
☛ El artículo completo original de Juan Diego Polo lo puedes ver aquí
Labels:
lifebrowser,
microsoft,
privacidad
El Parlamento Europeo recomienda el ajedrez en los colegios
415 eurodiputados han firmado una declaración en la que solicitan a la Comisión Europea y a los Países europeos que apoyen un programa de ajedrez en los colegios.
La declaración ha sido formalmente aprobada por el Parlamento Europeo ya que supera los 378 escaños, más de la mitad de los 754 parlamentarios. La declaración no es vinculante, pero los promotores confían en que el programa Ajedrez en la Escuela reciba el visto bueno de la Comisión.
Los promotores son el búlgaro Slavi Binev (No Inscritos), el socialista maltés John Attard-Montalto, el conservador británico Nirj Deva, el italiano Mario Mauro (Partido Popular Europeo) y el liberal finlandés Hannu Takkula. Su propuesta la realizan:
Considerando que, sea cual sea la edad del niño, el ajedrez puede mejorar su concentración, paciencia y persistencia y puede ayudarle a desarrollar el sentido de la creatividad, la intuición, la memoria y las competencias, tanto analíticas como de toma de decisiones; que el ajedrez enseña asimismo valores tales como la determinación, la motivación y la deportividadEl ajedrez es el juego por excelencia. Una metáfora de la vida, de la lucha, de la batalla. Enfrenta a dos ejércitos sobre el campo de batalla, el tablero. Cada bando dispone de soldados o peones y piezas de mayor valor hasta llegar al rey. La estrategia, el planteamiento a largo plazo define muchas partidas. Pero los golpes a corto plazo, como el ataque doble pueden definir el juego. Matar al rey enemigo en su alcoba es un golpe táctico que puede acabar con la guerra. La iniciativa es importante. El ataque debe ser sólido, si no perderá ante una buena defensa. Hay que ocupar el terreno y cambiar las piezas adecuadas en cada momento. Cada jugada tiene su tiempo oportuno, no puede hacerse antes o después sin amenazar el resultado. Un sacrificio puede llevar al éxito o al fracaso.
El reloj se inventó para evitar el juego eterno. Hay partidas de dos horas por jugador, semirrápidas de media hora y rápidas de 5 minutos. La gestión del tiempo es esencial. El análisis de la posición, la planificación, la resistencia a abandonar, la memoria o el control de las emociones son valores que el ajedrez estimula.
¿Y la emoción? ¿Qué sienten los jugadores mientras están concentrados? ¿Están fríos y calculadores? Todo lo contrario, padecen un auténtico hervor emocional, una cascada de sensaciones que no se transmite pero que bulle con fuerza.
Puedes jugara al ajedrez en casa, en un club o en un parque. Pero el ajedrez se ha visto muy beneficiado por Internet. Ahora hay múltiples sitios donde jugar online desde tu casa. O mejor aún, con tu móvil, en el metro o esperando una cola. Juegas contra personas, no contra programas, sintiendo la misma emoción que sientes cuando tienes al rival enfrente.
El ajedrez, juego de juegos estará en los colegios si triunfa la iniciativa.
☛ El artículo completo original de Antonio Orbe lo puedes ver aquí
Armageddon tenía razón: una bomba atómica podría salvar a la Tierra de un asteroide
En la película Armageddon, Bruce Willis, Ben Affleck, Steve Buscemi y compañía son enviados por la NASA a un enorme asteroide que amenaza la Tierra y consiguen destruirlo tras hacer explotar una bomba atómica en la que ha sido una de las mayores fantasmadas de la historia de Hollywood, que ya es decir. ¿O quizá no?
Científicos del Laboratorio Nacional de los Álamos, un centro dependiente del Departamento de Energía de los Estados Unidos que emplea a más de 9.000 trabajadores, cuenta con un presupuesto anual de 2.200 millones de dólares y en cuyas instalaciones se realizan investigaciones centradas en el diseño de armas nucleares, han estudiado en un supercomputador cuán efectivo sería detonar un arma nuclear de 1 megatón contra un cuerpo rocoso de 500 metros que se encaminara hacia nuestro planeta.
La simulación que han llevado a cabo indica que el estallido fragmentaría el asteroide en un cúmulo de partes de menor tamaño que supondrían un riesgo muy inferior para la vida en la Tierra incluso en el caso de que impactasen contra la misma. Unos resultados alentadores, más aun si se tiene en cuenta que en el modelo en 3D que han analizado con la ayuda de los 107.264 procesadores y 221,5 terabytes de memoria del supercomputador Cielo se ha supuesto que la bomba explotaría en la superficie del asteroide y no en su interior como en el filme dirigido por Michael Bay.
☛ El artículo completo original de Jose lo puedes ver aquí
Labels:
astronomía,
tecnología
El 6 de septiembre se realizará el primer megasimulacro de terremoto y tsunami entre Chile y Perú
El ejercicio binacional quedó concretado tras la firma de un convenio de cooperación mutua en caso de catástrofes entre la Onemi y el Instituto de Defensa Civil del vecino país.
Para el próximo 6 de septiembre quedó programado el primer megasimulacro binacional de terremoto y tsunami entre Chile y Perú, según informó el portal Radio Uno de Tacna.
El acuerdo se suscitó tras la forma de un convenio de cooperación mutua en caso de catástrofes entre la Onemi y el Instituto de Defensa Civil del vecino país, ceremonia que tuvo lugar en Arica.
El ejercicio será organizado de forma bilateral por la intendencia de Arica y Parinacota y su similar de Tacna.
Las reuniones serán los segundos miércoles de cada mes mediante videoconferencias.
Para el 11 abril está contemplado el inicio de las citas que servirán para el intercambio de información y la implementación de sistemas de alerta.
http://www.soychile.cl/Arica/Sociedad/2012/03/16/78506/El-6-de-septiembre-se-realizara-el-primer-megasimulacro-de-terremoto-y-tsunami-entre-Chile-y-Peru.aspx
El acuerdo se suscitó tras la forma de un convenio de cooperación mutua en caso de catástrofes entre la Onemi y el Instituto de Defensa Civil del vecino país, ceremonia que tuvo lugar en Arica.
El ejercicio será organizado de forma bilateral por la intendencia de Arica y Parinacota y su similar de Tacna.
Las reuniones serán los segundos miércoles de cada mes mediante videoconferencias.
Para el 11 abril está contemplado el inicio de las citas que servirán para el intercambio de información y la implementación de sistemas de alerta.
http://www.soychile.cl/Arica/Sociedad/2012/03/16/78506/El-6-de-septiembre-se-realizara-el-primer-megasimulacro-de-terremoto-y-tsunami-entre-Chile-y-Peru.aspx
☛ El artículo completo original de Felipe Control_Sur Talcahuano lo puedes ver aquí
La CIA y el futuro de las “casas inteligentes”: “nos permitirá un espionaje en tiempo real”
Muchos podemos pensar en un futuro cercano donde todos los hogares estén conectados a la red, donde la automatización de cualquier electrodoméstico nos haga la vida más sencilla gracias a la conectividad que dispondremos. Eso mismo piensa la CIA, aunque una vida más sencilla en su terreno. El director de la agencia, David Petraus, ha hablado acerca del futuro que nos llega, un futuro donde cada dispositivo conectado facilitará la “llegada” de datos personales a las agencias de espionaje en el mundo, donde cada paso que damos a través de la conexión les dirá lo que hacemos.
Y es que si bien vamos encaminados a que cada dispositivo del hogar se conecte a Internet, cada uno de ellos se puede convertir de forma fácil y sencilla en un flujo de datos para la propia CIA. Un efecto del que habló Petraus durante la última cumbre de In-Q-Tel (empresa de la CIA de capital de riesgo) y que no dudó en tildar como “el efecto clandestino”.
La razón es muy simple. Si durante muchos años hemos visto en cientos de películas como los servicios de espionaje se dedicaban a infiltrarse en casas para incluir dispositivos de escucha o cámaras, la llegada de las “casas inteligentes” permitiría erradicar estas prácticas. Petraus habla del envío diario de tags, etiquetados que realizaríamos de la misma forma que en un equipo personal. Habla de los datos que mostraremos de geolocalización en tiempo real. Imaginemos un smartphone con una aplicación que nos permita bajar la intensidad de una sala de la casa, estos datos permitirían que la agencia puede saber el punto exacto en el que nos encontramos.
Según Petraus:
Los productos que sean de nuestro interés serán identificados, localizados, se llevará un seguimiento e incluso un control remoto a través de las tecnologías como pueden ser a través de radiofrecuencias, sensores de redes, pequeños servidores embebidos, recolectores de energía. Además todo sería posible a través de una conexión a la red de próxima generación, utilizando bajo coste y alta potencia de cálculo. Iremos encaminados hacia el cloud computing y en última instancia hacia la computación cuántica.Quizá las palabras de Petraus van demasiado lejos pero como apuntan desde Wired, es posible que de sus palabras podamos leer entre líneas. Existe un vacío legal en la actualidad en torno a la recopilación de datos de geolocalización en los dispositivos. GPS, smartphones, tablets… la mayoría de fabricantes de hardware tienen la capacidad de guardar durante un tiempo que varía muchos de nuestros datos, situación que hace fácil la tarea de seguimiento para cualquier agencia de espionaje gubernamental si así lo requiriera.
Estos dispositivos de espionaje del hogar cambiarán nuestras nociones sobre las actividades, nos hará replantearnos acerca de nuestras nociones (actuales) sobre la identidad y la definición de “secreto”.
No sólo eso, cuando Petraus habla de replantearse las identidades online para los espías encubiertos habla de erradicar la huella digital de los agentes tras sus acciones.
Nuestros futuros agentes están creciendo con nuevas fórmulas encaminadas a las redes sociales y los medios de comunicación online, nuevas formas de crear huellas digitales con las que accederemos en las próximas décadas.Posiblemente hable de una especie de “caché” invisible para los espías… o simplemente de la posibilidad que comienzan a “ofrecer” espacios como Facebook y su Timeline, donde el historial del usuario es sumamente sencillo de retroceder en el tiempo y por tanto de recabar cualquier información sin necesidad de agentes encubiertos.
☛ El artículo completo original de Miguel Jorge lo puedes ver aquí
Labels:
privacidad,
tecnología
IBM convierte a Río de Janeiro en una 'ciudad inteligente'
Cerca de la playa de Copacabana, en la ciudad brasileña de Río de Janeiro, hay una sala de control que parece salida directamente de la NASA.
Empleados municipales vestidos con monos blancos trabajan en silencio delante de un gigantesco muro de pantallas, una especie de Río virtual en tiempo real. Las trasmisiones de vídeo llegan desde estaciones de metro e intersecciones importantes. Un programa meteorológico predice en qué puntos de la ciudad va a llover. En un mapa centellean los sitios en los que se producen accidentes de tráfico, cortes de electricidad y otros problemas.
El orden y la precisión parecen fuera de lugar en esta despreocupada urbe. Pero lo que sucede aquí es el reflejo de un experimento atrevido y posiblemente lucrativo que podría modelar el futuro de ciudades de todo el mundo.
Este edificio es el Centro de Operaciones de la Ciudad de Río, y su sistema fue diseñado por IBM. Río es un laboratorio de pruebas para esta empresa. Se prevé que, en 2050, alrededor de un 75% de la población mundial vivirá en ciudades. Muchas zonas metropolitanas ya utilizan sistemas de obtención de datos como sensores, videocámaras y dispositivos GPS. Pero los avances en la potencia de los ordenadores y los análisis de datos permiten a empresas como IBM recopilar toda esa información y, utilizando algoritmos informáticos, identificar patrones y tendencias. Se espera que el sector que suministra sistemas inteligentes a las ciudades alcance los 57.000 millones de dólares de aquí a 2014, según IDC Government Insights, una empresa de estudios de mercado. E IBM quiere un trozo del pastel.
El centro de operaciones de Río, que el departamento Smarter Cities de IBM inauguró a finales de 2010, forma parte de una iniciativa destinada a afianzarse en este mercado. Desde su inicio, en 2010, Smarter Cities ha participado en miles de proyectos.
Río, que se extiende entre montañas y el océano Atlántico, es a la vez una urbe de rápido desarrollo, una ciudad costera, un paraíso, una pesadilla, un centro de investigación y un lugar en obras. Está restaurando grandes estadios y creando un sistema de autobuses rápidos de cara al Mundial de fútbol de 2014 y los Juegos Olímpicos del verano de 2016.
Las complejas condiciones generan una especie de invernadero para que IBM amplíe su negocio de gobierno local. Si la empresa puede convertir Río en una ciudad más inteligente, será capaz de hacer lo mismo con cualquier lugar.
“La inteligencia depende de la información”, afirma Guru Banavar, de 45 años y jefe de tecnología del sector público internacional de IBM. “Una vez que posees la información, y la entiendes, y sabes qué hacer con ella, estás a medio camino de ser inteligente”.
Lo que dio pie al centro de operaciones fue una torrencial tormenta veraniega que cayó hace dos años. Hacia las cuatro de la madrugada, el alcalde, Eduardo Paes, empezó a recibir informes alarmantes. Hubo deslizamientos de tierra en algunas favelas, con peligro de que se produjeran muchos más. Se registraron inundaciones repentinas. Las crecidas dejaron atrapados a coches y camiones. Pero Río no contaba con una localización predeterminada desde la cual el alcalde pudiera controlar la situación y supervisar la respuesta. “En ese momento me di cuenta de que éramos muy débiles”, recuerda Paes.
IBM había desarrollado centros de control de delitos para Madrid y Nueva York, además de un sistema de tarifas para los atascos de tráfico en Estocolmo. Pero crear un plan interdepartamental para toda la ciudad de Río era una labor mucho más difícil.
IBM incorporó sus equipos informáticos, sus programas, sus sistemas analíticos y sus investigaciones. Una plataforma de operaciones virtual ejerce de base de datos central en la Red, e integra información que llega a través del teléfono, la radio, el correo electrónico y los mensajes de texto. Cuando los empleados municipales se conectan, pueden introducir, por ejemplo, información sobre el escenario de un accidente, o ver cuántas ambulancias se han enviado. También pueden analizar información histórica para determinar, pongamos por caso, dónde suelen producirse accidentes de tráfico. Además, IBM ha desarrollado un sistema de previsión de inundaciones diseñado especialmente para la ciudad.
Según Paes, el proyecto ha costado a la ciudad unos 14 millones de dólares. Si todo funciona, podría convertirse en un modelo para la gestión urbana mediante datos. “Queremos situar a Río por delante de todas las ciudades del mundo en lo que respecta a operaciones de la vida cotidiana y respuesta a emergencias”, afirma el alcalde. Pero puntualiza que el desafío será lograr que todo funcione de manera más eficiente sin apagar el brío que hace que Río sea Río. “No queremos ser Lausana o Zúrich”.
Una noche de finales de enero, se derrumbó un edificio de oficinas de 20 plantas situado en el centro, junto al teatro municipal, y arrastró con él a otros dos edificios más. El centro de operaciones entró en acción.
Resultó que un empleado municipal estaba tomando una cerveza cerca del lugar de los hechos y alertó a Carlos Roberto Osório, secretario de Obras Públicas y Conservación de la ciudad. “Ganamos un minuto por una cuestión de suerte, pero el sistema funcionó muy bien”, afirma Osório.
En el centro de operaciones, los trabajadores avisaron a los departamentos de bomberos y protección civil y pidieron a las empresas del gas y la electricidad que interrumpieran el servicio en la zona.Otros cerraron temporalmente el metro que circulaba por debajo, cortaron la calle, enviaron ambulancias, alertaron a los hospitales, mandaron maquinaria pesada para retirar los escombros y movilizaron a los agentes de protección civil para que evacuaran los edificios cercanos y custodiaran el lugar del accidente. Al menos 17 personas fallecieron en el derrumbamiento. Aun así, la respuesta coordi-nada supuso un triunfo para el centro de operaciones.
A finales del mes pasado, IBM anunció que Zhenjiang, una ciudad de unos tres millones de habitantes situada en el este de China, había adquirido el nuevo sistema para gestionar el transporte público.
Sin embargo, muchos ciudadanos de Río nunca han oído hablar del centro o, si lo han hecho, no saben a ciencia cierta a qué se dedica. Algunos se preguntan si es solo una fachada para tranquilizar a las autoridades olímpicas y los inversores extranjeros. A otros les preocupa que beneficie más a los barrios acomodados que a las favelas. Y hay quienes temen que tanta vigilancia pueda coartar las libertades o invadir la privacidad, y quienes ven el centro como un parche que no resuelve los problemas de infraestructura.
A los ciudadanos les resulta difícil apreciar cuándo se ha evitado una crisis, decía el alcalde Paes. “Son los problemas que podrían ocurrir a diario y que no ocurren".
☛ El artículo completo original de El País lo puedes ver aquí
Empleados municipales vestidos con monos blancos trabajan en silencio delante de un gigantesco muro de pantallas, una especie de Río virtual en tiempo real. Las trasmisiones de vídeo llegan desde estaciones de metro e intersecciones importantes. Un programa meteorológico predice en qué puntos de la ciudad va a llover. En un mapa centellean los sitios en los que se producen accidentes de tráfico, cortes de electricidad y otros problemas.
El orden y la precisión parecen fuera de lugar en esta despreocupada urbe. Pero lo que sucede aquí es el reflejo de un experimento atrevido y posiblemente lucrativo que podría modelar el futuro de ciudades de todo el mundo.
Este edificio es el Centro de Operaciones de la Ciudad de Río, y su sistema fue diseñado por IBM. Río es un laboratorio de pruebas para esta empresa. Se prevé que, en 2050, alrededor de un 75% de la población mundial vivirá en ciudades. Muchas zonas metropolitanas ya utilizan sistemas de obtención de datos como sensores, videocámaras y dispositivos GPS. Pero los avances en la potencia de los ordenadores y los análisis de datos permiten a empresas como IBM recopilar toda esa información y, utilizando algoritmos informáticos, identificar patrones y tendencias. Se espera que el sector que suministra sistemas inteligentes a las ciudades alcance los 57.000 millones de dólares de aquí a 2014, según IDC Government Insights, una empresa de estudios de mercado. E IBM quiere un trozo del pastel.
El centro de operaciones de Río, que el departamento Smarter Cities de IBM inauguró a finales de 2010, forma parte de una iniciativa destinada a afianzarse en este mercado. Desde su inicio, en 2010, Smarter Cities ha participado en miles de proyectos.
Río, que se extiende entre montañas y el océano Atlántico, es a la vez una urbe de rápido desarrollo, una ciudad costera, un paraíso, una pesadilla, un centro de investigación y un lugar en obras. Está restaurando grandes estadios y creando un sistema de autobuses rápidos de cara al Mundial de fútbol de 2014 y los Juegos Olímpicos del verano de 2016.
Las complejas condiciones generan una especie de invernadero para que IBM amplíe su negocio de gobierno local. Si la empresa puede convertir Río en una ciudad más inteligente, será capaz de hacer lo mismo con cualquier lugar.
“La inteligencia depende de la información”, afirma Guru Banavar, de 45 años y jefe de tecnología del sector público internacional de IBM. “Una vez que posees la información, y la entiendes, y sabes qué hacer con ella, estás a medio camino de ser inteligente”.
Lo que dio pie al centro de operaciones fue una torrencial tormenta veraniega que cayó hace dos años. Hacia las cuatro de la madrugada, el alcalde, Eduardo Paes, empezó a recibir informes alarmantes. Hubo deslizamientos de tierra en algunas favelas, con peligro de que se produjeran muchos más. Se registraron inundaciones repentinas. Las crecidas dejaron atrapados a coches y camiones. Pero Río no contaba con una localización predeterminada desde la cual el alcalde pudiera controlar la situación y supervisar la respuesta. “En ese momento me di cuenta de que éramos muy débiles”, recuerda Paes.
IBM había desarrollado centros de control de delitos para Madrid y Nueva York, además de un sistema de tarifas para los atascos de tráfico en Estocolmo. Pero crear un plan interdepartamental para toda la ciudad de Río era una labor mucho más difícil.
IBM incorporó sus equipos informáticos, sus programas, sus sistemas analíticos y sus investigaciones. Una plataforma de operaciones virtual ejerce de base de datos central en la Red, e integra información que llega a través del teléfono, la radio, el correo electrónico y los mensajes de texto. Cuando los empleados municipales se conectan, pueden introducir, por ejemplo, información sobre el escenario de un accidente, o ver cuántas ambulancias se han enviado. También pueden analizar información histórica para determinar, pongamos por caso, dónde suelen producirse accidentes de tráfico. Además, IBM ha desarrollado un sistema de previsión de inundaciones diseñado especialmente para la ciudad.
Según Paes, el proyecto ha costado a la ciudad unos 14 millones de dólares. Si todo funciona, podría convertirse en un modelo para la gestión urbana mediante datos. “Queremos situar a Río por delante de todas las ciudades del mundo en lo que respecta a operaciones de la vida cotidiana y respuesta a emergencias”, afirma el alcalde. Pero puntualiza que el desafío será lograr que todo funcione de manera más eficiente sin apagar el brío que hace que Río sea Río. “No queremos ser Lausana o Zúrich”.
Una noche de finales de enero, se derrumbó un edificio de oficinas de 20 plantas situado en el centro, junto al teatro municipal, y arrastró con él a otros dos edificios más. El centro de operaciones entró en acción.
Resultó que un empleado municipal estaba tomando una cerveza cerca del lugar de los hechos y alertó a Carlos Roberto Osório, secretario de Obras Públicas y Conservación de la ciudad. “Ganamos un minuto por una cuestión de suerte, pero el sistema funcionó muy bien”, afirma Osório.
En el centro de operaciones, los trabajadores avisaron a los departamentos de bomberos y protección civil y pidieron a las empresas del gas y la electricidad que interrumpieran el servicio en la zona.Otros cerraron temporalmente el metro que circulaba por debajo, cortaron la calle, enviaron ambulancias, alertaron a los hospitales, mandaron maquinaria pesada para retirar los escombros y movilizaron a los agentes de protección civil para que evacuaran los edificios cercanos y custodiaran el lugar del accidente. Al menos 17 personas fallecieron en el derrumbamiento. Aun así, la respuesta coordi-nada supuso un triunfo para el centro de operaciones.
A finales del mes pasado, IBM anunció que Zhenjiang, una ciudad de unos tres millones de habitantes situada en el este de China, había adquirido el nuevo sistema para gestionar el transporte público.
Sin embargo, muchos ciudadanos de Río nunca han oído hablar del centro o, si lo han hecho, no saben a ciencia cierta a qué se dedica. Algunos se preguntan si es solo una fachada para tranquilizar a las autoridades olímpicas y los inversores extranjeros. A otros les preocupa que beneficie más a los barrios acomodados que a las favelas. Y hay quienes temen que tanta vigilancia pueda coartar las libertades o invadir la privacidad, y quienes ven el centro como un parche que no resuelve los problemas de infraestructura.
A los ciudadanos les resulta difícil apreciar cuándo se ha evitado una crisis, decía el alcalde Paes. “Son los problemas que podrían ocurrir a diario y que no ocurren".
☛ El artículo completo original de El País lo puedes ver aquí
Labels:
futuro,
ibm,
tecnología
Proyectan un sistema de videovigilancia inteligente para grandes ciudades
Desplegar un sistema de videovigilancia en ciudades con millones de personas es un reto complicado. A los costes de las cámaras y la infraestructura se añaden los de los operadores humanos, ya que se necesita una gran cantidad de personal para monitorizar lo que ocurre en cada cámara. Con el fin de aprovechar las posibilidades que ofrecen las TIC en este sentido, diez entidades de Israel, Turquía, Corea y España, entre ellas la Universidad de Valladolid como única universidad participante, han iniciado el proyecto HuSIMS. El trabajo forma parte de la iniciativa Eureka-Celtic de la Comisión Europea, cuyo objetivo es fomentar la I+D colaborativa para incrementar la competitividad en materia de telecomunicaciones.
Javier Aguiar, coordinador del Grupo CIT (Comunication and Information Technologies) de la Universidad de Valladolid, precisa que el proyecto HuSIMS pretende diseñar una red de cámaras de videovigilancia capaz de identificar de forma inteligente cuándo en la imagen se está dando una situación de emergencia, desde un accidente de tráfico a un incendio.
“Se trata de sistemas de monitorización y videovigilancia con redes de sensores masivas para controlar grandes áreas metropolitanas de forma inteligente, es decir, sin la necesidad de que un operador humano esté constantemente monitorizando lo que sucede en las cámaras”, señala.
De esta manera, se podrían controlar miles de cámaras con pocos operadores, ya que éstos solo recibirían alertas ante situaciones anómalas. “Las cámaras ni siquiera toman las imágenes, sino que las modelizan a través de modelos matemáticos, y esos parámetros que van capturando (la posición, tamaño o velocidad de los objetos), al ser datos, ocupan mucho menos ancho de banda, con lo cual reduces también el coste de transmisión, porque son cámaras inalámbricas que mandan toda la información a una unidad central”, detalla. Así, añade, se reducen también los costes de las cámaras.
En el proyecto participan dos empresas israelíes punteras en este tipo de dispositivos, “cámaras que, al ser inalámbricas, evitan gastos de infraestructuras y que, al no procesar directamente la información, sino que la envían a una unidad centralizada, permiten un bajo coste”.
Entrenamiento
Tal y como explica Javier Aguiar, estos sistemas de videovigilancia basados en inteligencia artificial requieren de un tiempo de “entrenamiento” para distinguir los comportamientos anómalos de los que no lo son. “Una vez que preparas a los sistemas el operador ya no tiene que estar al tanto de las cámaras, solo de las alarmas que generan”, recuerda, una información muy útil para los equipos de emergencia.
En estos momentos los investigadores están realizando pruebas en torno a diferentes situaciones anómalas, como accidentes de tráfico. “Una vez que entrenamos a las cámaras para que sepan qué es lo que están vigilando, en este caso la seguridad vial, luego es relativamente sencillo a través de modelos matemáticos saber si lo que sucede es normal o si los parámetros tomados se salen de lo previsto, como por ejemplo un coche circulando en dirección contraria”, subraya Aguiar, quien apunta que se trata de utilizar la inteligencia artificial “en un campo en el que aún no se había aplicado”.
El hecho de poner “adaptar” la videovigilancia a diferentes situaciones supone, a juicio del experto, un importante valor añadido. “Una de las cosas más potentes de estas nuevas tecnologías es que el núcleo es común y se puede aplicar a distintos usos, por lo que trabajamos también en temas de vandalismo o medio ambientales”, resalta. En este último campo, se están empleando cámaras satélite para el control de incendios forestales. “Lo único que hay que hacer es cambiar las reglas de la inteligencia artificial para que te detecte unos casos anómalos u otros”.
La inquietud por parte de la Comisión Europea en esta línea de investigación se ha incrementado en los últimos años para evitar casos de terrorismo. En este sentido, Aguiar avanza que ya hay empresas de seguridad interesadas en los resultados de este proyecto, que concluirá en 2013.
Javier Aguiar, coordinador del Grupo CIT (Comunication and Information Technologies) de la Universidad de Valladolid, precisa que el proyecto HuSIMS pretende diseñar una red de cámaras de videovigilancia capaz de identificar de forma inteligente cuándo en la imagen se está dando una situación de emergencia, desde un accidente de tráfico a un incendio.
“Se trata de sistemas de monitorización y videovigilancia con redes de sensores masivas para controlar grandes áreas metropolitanas de forma inteligente, es decir, sin la necesidad de que un operador humano esté constantemente monitorizando lo que sucede en las cámaras”, señala.
De esta manera, se podrían controlar miles de cámaras con pocos operadores, ya que éstos solo recibirían alertas ante situaciones anómalas. “Las cámaras ni siquiera toman las imágenes, sino que las modelizan a través de modelos matemáticos, y esos parámetros que van capturando (la posición, tamaño o velocidad de los objetos), al ser datos, ocupan mucho menos ancho de banda, con lo cual reduces también el coste de transmisión, porque son cámaras inalámbricas que mandan toda la información a una unidad central”, detalla. Así, añade, se reducen también los costes de las cámaras.
En el proyecto participan dos empresas israelíes punteras en este tipo de dispositivos, “cámaras que, al ser inalámbricas, evitan gastos de infraestructuras y que, al no procesar directamente la información, sino que la envían a una unidad centralizada, permiten un bajo coste”.
Entrenamiento
Tal y como explica Javier Aguiar, estos sistemas de videovigilancia basados en inteligencia artificial requieren de un tiempo de “entrenamiento” para distinguir los comportamientos anómalos de los que no lo son. “Una vez que preparas a los sistemas el operador ya no tiene que estar al tanto de las cámaras, solo de las alarmas que generan”, recuerda, una información muy útil para los equipos de emergencia.
En estos momentos los investigadores están realizando pruebas en torno a diferentes situaciones anómalas, como accidentes de tráfico. “Una vez que entrenamos a las cámaras para que sepan qué es lo que están vigilando, en este caso la seguridad vial, luego es relativamente sencillo a través de modelos matemáticos saber si lo que sucede es normal o si los parámetros tomados se salen de lo previsto, como por ejemplo un coche circulando en dirección contraria”, subraya Aguiar, quien apunta que se trata de utilizar la inteligencia artificial “en un campo en el que aún no se había aplicado”.
El hecho de poner “adaptar” la videovigilancia a diferentes situaciones supone, a juicio del experto, un importante valor añadido. “Una de las cosas más potentes de estas nuevas tecnologías es que el núcleo es común y se puede aplicar a distintos usos, por lo que trabajamos también en temas de vandalismo o medio ambientales”, resalta. En este último campo, se están empleando cámaras satélite para el control de incendios forestales. “Lo único que hay que hacer es cambiar las reglas de la inteligencia artificial para que te detecte unos casos anómalos u otros”.
La inquietud por parte de la Comisión Europea en esta línea de investigación se ha incrementado en los últimos años para evitar casos de terrorismo. En este sentido, Aguiar avanza que ya hay empresas de seguridad interesadas en los resultados de este proyecto, que concluirá en 2013.
☛ El artículo completo original de Cristina G. Pedraz/DICYT/T21 lo puedes ver aquí
Labels:
tecnología
Suscribirse a:
Entradas (Atom)