The Information Systems and Computer Applications examination covers material that is usually taught in an introductory college-level business information systems course.

Archive for September, 2010

IE9 – SmartScreen Download Reputation

IE9 – SmartScreen Download Reputation: “

clip_image002

Debido a que aún no ha sido incluido en la versión Beta de Internet Explorer, es posible que aún no conozcáis el nuevo sistema de protección que Microsoft ha decidido incorporar a la futura versión de ‘Internet Explorer 9’.

Sin embargo, sí que podemos avanzaros una pequeña descripción sobre qué consiste este sistema que Microsoft ha bautizado como ‘SmartScreen Download Reputation’, y que incluirá próximamente en la versión 9 de ‘Internet Exlorer’.

SmartScreen Download Manager’ se trata de una aplicación que tras su instalación se añadirá como un complemento para nuestro navegador y nos ayudará a identificar de una manera más precisa, si los ficheros que estamos descargando contienen presuntamente malware o pueden ser perjudiciales para nuestro equipo.

Esto nos permite realizar una navegación en internet mucho más segura, siempre y cuando utilicemos este navegador junto con el filtro ‘Download Reputation’ habilitado.

En caso de que el filtro ‘SmartScreen Download Reputation’ identifique el fichero como posible malware, nos mostrará un mensaje de alerta donde se nos indicará que el fichero es considerado como de ‘alto riesgo’.

Como hemos comentado anteriormente, la descarga aún no está disponible, pero os mantendremos informados sobre este novedoso sistema en cuanto salga su versión beta, sobre la cual realizaremos un análisis de efectividad.

También podeis visitar la página oficial de este filtro en la dirección http://ie.microsoft.com/testdrive/Browser/DownloadReputation/, donde se publicarán las próximas novedades sobre el mismo


Automatiza la gestión de tus equipos con OCS

Automatiza la gestión de tus equipos con OCS: “

ocsinventory Automatiza la gestión de tus equipos con OCS

Hace poco estuvimos revisando GLPI, un helpdesk orientado al soporte de sistemas y microinformática que incluía un completo inventario de hardware, con el que llevar un completo seguimiento de las incidencias y peticiones asociadas a usuarios y equipos. Sin embargo, mantener al día el inventario, es decir, dar de alta nuevos equipos o anotar las modificaciones puede ser un poco tedioso y una tarea que, a veces, descuidamos hasta que llega una auditoría de calidad. Si además, tenemos que llevar un conteo del software instalado, la tarea aún se complica más. OCS Inventory es una aplicación en software libre, basada en un modelo cliente-servidor, que recopila la información del software y el hardware instalado en los equipos de nuestra red en un sistema centralizado.

Toda la información que extrae OCS se realiza mediante la instalación de un agente, en cada uno de los equipos a gestionar (ya sean Windows, Linux o MacOS), que envia la información al servidor mediante HTTP e intercambiando archivos XML. El entorno requerido no es nada complejo: Apache + Perl + PHP + MySQL, por lo que podemos montar el servicio sin mucha dificultad. En el lado del cliente, por ejemplo en Windows, tan sólo hay que instalar un simple ejecutable que dejará un servicio ejecutándose en el sistema.

OCS Inventory es capaz de detectar todos los dispositivos activos en la red, incluyendo switches, routers, impresoras en red y cualquier dispositivo desatendido. Para cada uno de ellos, almacena la dirección MAC y la dirección IP permitiendo su posterior clasificación. Cuando el servidor central se ejecuta sobre un sistema Linux, si tenemos disponibles las funciones nmap y nmblookup, podremos también escanear un dirección IP o una subred para obtener información detallada de equipos no inventariados.

Otra de las ventajas de OCS Inventory, además de tener un control completo del hardware de cada uno de los dispositivos de nuestra red, el software instalado o los usuarios del sistema, es la de permitir instalar remotamente aplicaciones, por ejemplo, realizar un despliegue masivo en todo nuestro parque informático de manera centralizada, lo cual es un aspecto muy interesante.

Diagramas OSC 01 Automatiza la gestión de tus equipos con OCS

El funcionamiento es bastante sencillo:

  • El agente que se está ejecutando en el equipo envía un estado actualizado del inventario al servidor OCS

  • El servidor procesa dicho inventario y comprueba si hay paquetes de software asignados para el despliegue en el equipo que ha enviado el reporte

  • Si existen paquetes asignados para este equipo, el servidor de comunicación y/o despliegue lo envía al agente mediante protocolo SSL

  • El agente descarga el paquete y lo ejecuta. Una vez ejecutado, devuelve un código notificando el estado de la instalación.

Un punto muy interesante es el de integrar GLPI y OCS, ya que, combinando ambas herramientas, podremos conseguir un inventario de hardware y software totalmente actualizado y de forma automática. Lo cual libera a los administradores de la aburrida tarea de mantener a mano un inventario actualizado, consignando todas las instalaciones de software que se realicen.

La verdad es que el tándem GLPI y OCS Inventory es un poderoso aliado del equipo de soporte de sistemas de cualquier empresa.

Imagen: Tecnoquia

Automatiza la gestión de tus equipos con OCS escrita en Bitelia el 28 September, 2010 por jjvelasco
Enviar a Twitter | Compartir en Facebook


¿Facebook y Twitter reemplazarán a los lectores de feeds?, difícilmente…

¿Facebook y Twitter reemplazarán a los lectores de feeds?, difícilmente…: “

Google Reader vs. Facebook y Twitter
En vista del reciente declive de servicios como el otrora popular lector de feeds Bloglines, o la empresa Six Apart, antes dedicada al desarrollo de la plataforma Movable Type para blogs (la misma que Genbeta ocupaba en sus orígenes), muchas han empezado ya a augurar el declive de los lectores RSS, asegurando que estos se encuentran en retirada para dar paso a servicios sociales como Facebook y Twitter, que pueden ser usados como fuentes de información.

Justamente a raíz de esto, los de Google Reader han sacado a la luz unas cifras bastante esclarecedoras sobre el tema. Se trata de las estadísticas de uso de este lector de feeds desde su lanzamiento, las cuales desmienten que el uso de servicios como este esté decayendo. Muy por el contrario, la cantidad de usuarios activos de Google Reader ha aumentado de forma constante en ese periodo. De hecho, en el gráfico se aprecia que 2009 fue un año de crecimiento récord, donde el uso estuvo cerca de duplicarse (perdonadme la insensatez de aseverar esto sin las cifras exactas en mano).

Estadísticas de Google Reader

Que cierre Bloglines no debe ser interpretado como un síntoma de la salud de los agregadores de feeds en general, solo es síntoma de una alta concentración por parte de Google, lo cual no es necesariamente malo, ya que alternativas no faltan (FeedDemon el escritorio, montones de lectores de feeds para móviles, otros en la web como NewsBlur o Feedlook, etc), solo que ninguno ha sido capaz de ofrecerle a los usuarios un servicio del nivel del de GReader. Y en el caso específico de Bloglines, ya sabemos que este lector venía de capa caída desde hace tiempo.

Por supuesto que nos gustaría que existiera más descentralización en este mercado. Pero decir que el cierre Bloglines significa que la lectura de feeds RSS se viene abajo es ir demasiado rápido.

Redes sociales y lectores de feeds: complementos antes que competidores

¿Pero cómo interpretamos la explosiva popularización de Facebook y Twitter como fuentes de noticias? Lo que ocurre simplemente es que estas herramientas han acercado el consumo de contenidos digitales al “gran público”, sólo eso. El usuario avanzado sigue prefiriendo la comodidad y versatilidad de un lector de feeds RSS, ya sea web o de escritorio. ¿O alguno de ustedes ha dejado de usar un lector de feeds para “pasarse” a Twitter como lector de noticias? Creo que muy pocos.

De hecho, es probable que muchos usuarios, al descubrir esta nueva forma de acceder a los contenidos, distinta de los medios tradicionales, hayan querido dar “un paso adelante” y hacer upgrade desde informarse vía Twitter, a agregar a un lector de feeds sus medios online favoritos.

Esto explicaría el explosivo aumento del uso de Google Reader que ocurre casi a la par con la popularización de Facebook/Twitter. No son sustitutos, sino que complementos. No se trata de usar uno y el otro. Cada uno cumple una función específica, con Google Reader recibimos contenidos, con Twitter iniciamos una conversación sobre estos.

El salto desde usar “Twitter para todo”, a ocupar un lector RSS especializado está dado por un aumento del tiempo que el usuario dedica a los medios online. Cuando este tiempo se reparte entre radio, televisión, diarios en papel, etc, solo quedan unos minutos al día para leer en la web.

En este escenario, es obvio que las redes sociales son un canal más conveniente para informarse, ya que funcionan más como la televisión o el diario: son un flujo constante de información que circula en cada momento, que podemos dejar semanas o incluso meses sin atender, para luego echar un vistazo solo a lo más reciente (del mismo modo como cuando volvemos de vacaciones la televisión no nos dice “tienes no-se-cuántos noticieros pendientes por ver”).

How RSS works

En tanto, Google Reader funciona más como el correo electrónico: nos suscribimos a los feeds que nos interesan y en cierto modo se nos obliga a seguirles el rastro, a enterarnos de todo lo que se publica. Existe una pequeña presión para permanecer al día con todo lo que sale.

Pero cuando el usuario va migrando desde los medios tradicionales hacia el contenido web, dispone más tiempo para recibir información online, y es natural que migre a una herramienta más especializada como Reader (que es lo que de hecho ocurre).

Además, Google ha sabido integrar en su lector las funciones sociales que tanto se le alaban a Twitter y Facebook, de forma tal que sean de utilidad para sus usuarios. Personalmente, muchas veces me ha pasado que cuando no tengo tiempo de ponerme al día con todas las suscripciones, simplemente me pongo a revisar lo que han compartido las personas a las que sigo, dejando que el criterio de ellos funcione como un auténtico filtro que separe lo que vale la pena leer de lo irrelevante.

También se nos permite comentar los posts e iniciar conversaciones en el mismo lector, y se nos sugieren feeds acordes a nuestros gustos. Incluso, Reader va más allá de lo que ofrecen las redes sociales tradicionales, y ofrece un algoritmo que ordena los artículos no por antigüedad, sino que por los temas que nos interesan.

Los lectores de feeds tampoco son perfectos: el problema de la “infoxicación”

Google Reader en móviles

Hay ciertos elementos que caracterizan a que caracterizan a Twitter y Facebook como fuentes de información y que han sido causantes de su fuerte aceptación entre la gente. Los lectores de feeds bien podrían aprender de esto e incorporar estos elementos, para así acercar más los agregadores RSS al “usuario de a pie”, pero sin perder las ventajas que ya poseen.

Como dije arriba, los lectores RSS tienden a esclavizarnos a “un estilo de vida” de sobreinformación. Esto puede ser aceptable para los “power users” y los llamados nativos digitales, pero no para el usuario común.

Por esto, sería espectacular si Google Reader y otro lectores agregan un “modo de lectura” ad-hoc para los lectores ocasionales. Que en vez de ofrecerse la opción de “marcar como leído lo que sea anterior a 48 horas”, se muestre como pendiente por leer sólo lo publicado en las últimas horas, sin que el usuario tenga usar la opción de “marcar como leído”.

Por supuesto, de implementarse esta función, tendría que estar desactivada por defecto, pero ser sugerida de forma automática a quienes ingresen a su cuenta de Google Reader cada 1 semana o menos. De ese modo, Reader se estaría adaptando a las necesidades de cada tipo de usuario.

El futuro de los blogs

Blogs

Para ir cerrando este artículo, no niego que estamos presencia de la retirada de los blogs como fenómeno masivo donde todos publiquen contenidos, de la utopía de 1 blog por persona. Ahora existen formas mucho más efectivas de compartir y difundir información personal, ideas, comentarios, opiniones, etc.

Pero como medios de comunicación, los blogs todavía van en alza, y a un ritmo envidiable. Por ejemplo, la red de blogs Gawker ya ha superado en número de lectores a la mayoría de los diarios online de Estados Unidos, y por otras latitudes la tendencia es la misma. Y mientras haya blogs, habrá lectores RSS, ya que es la forma más efectiva y cómoda de acceder a los contenidos de estos.

Imágenes (Flickr) | Latte Blog, Google Reader Mobile, RSS flow


Exportando claves privadas marcadas como no-exportables con Jailbreak

Exportando claves privadas marcadas como no-exportables con Jailbreak: “

Que no os confunda el nombre de la herramienta de la que os vamos a hablar en este post. Aquí no encontrarás nada de iPhone, iPad o iPod, ni como cargar aplicaciones no oficiales ni demás. Os vamos a hablar de certificados digitales, y de como poder exportar la clave privada de los certificados cuando esta ha sido marcada como no exportable en el momento de su generación.
Si nos remontamos a nuestro primer post aquí en Security By Default, FNMT: Insecure by default, Yago nos presentó una herramienta programada por él mismo, CertDump, encargada de buscar en nuestro contenedor criptográfico certificados cuya clave privada fuese exportable y exportarla junto con su certificado en un fichero PKCS#12 sin contraseña (pudiendo así instalar el certificado en cualquier otro sistema).
Pues bien, la herramienta Jailbreak de iSEC Partners es capaz de realizar justamente la tarea complementaria: buscar en nuestro contenedor criptográfico certificados cuya clave privada fuese marcada como NO exportable y exportar seguidamente el certificado incluyendo su clave privada en un fichero PFX.
La técnica que utiliza consiste en el parcheo del Crypto Service Provider para deshabilitar la comprobación sobre los certificados sobre si son o no exportables. La clave privada se encuentra en el propio sistema de ficheros, y se podrá obtener siempre y cuando este no se encuentra cifrado o dicha clave se haya almacenado en cualquier solución ‘hardware’ como por ejemplo una smartcard.
Dentro del fichero comprimido que descargamos nos encontraremos una .dll llamada jb_dll.dll, la cual se inyectará en el proceso del CSP. En el momento de la comprobación sobre si las claves privadas de nuestros certificados son exportables o no, la librería aplicará el parche, y durante ese proceso los certificados con claves privadas no exportables podrán exportarse satisfactoriamente.
Ahora bien, esta técnica no es para nada actual (actualmente la versión más actual de Jailbreak es la 3.4, pero incluso podemos comprobar como en el servidor de iSEC Partners tenemos la 2.0, del 2007). Es más, incluso fué aprovechada por varios creadores de malware para su difusión mediante bichos que eran capaces de exportar los certificados incluyendo sus claves privadas y enviarlos a servidores externos. La DLL por tanto pasó a considerarse como peligrosa por las firmas de Antivirus, de ahí que os pueda saltar el aviso de que se trate de una backdoor. En este enlace tenéis el informe de VirusTotal sobre jb_dll.dll.
Antes de comenzar, indicar unos pre-requisitos básicos que tienen que cumplirse para que esta herramienta realice su trabajo correctamente:
  • jailbreak.exe, jbstore.exe y jbcsp.exe funcionan bajo:
    • Windows XP SP2 x86
    • Window 2003 SP1 x86
    • Windows Vista RTM & SP1 x86
    • Windows 7 x86

  • En las versiones x64 de Windows Vista y Windows 7 únicamente funcionará la aplicación jbstore.exe
  • Como comentamos anteriormente, para poder exportar la clave privada, esta debe encontrarse en el sistema de ficheros de la máquina. Dicho sistema de ficheros no debe encontrarse cifrado y necesitamos contar con permisos de acceso sobre él.
Comprobación de que el certificado tiene marcada la clave privada como no exportable

Mediante la consola de gestión de Microsoft (Microsoft Management Console, mmc.exe) añadimos los complementos referentes a los certificados:

Hacemos clic dos veces en el certificado del cual queremos exportar su clave privada, comprobando que se dispone de ella en el sistema de ficheros:

Seguidamente, con el certificado seleccionado, hacemos clic con el botón derecho -> Todas las tareas -> Exportar…

y comprobamos como la casilla de ‘Exportar la clave privada‘ se encuentra deshabilitada en el siguiente paso del Asistente:

Entra en juego el Jailbreak.

Utilizando Jailbreak

Dentro del .zip descargado nos encontraremos los siguientes ficheros, que describiremos a continuación:

  1. README.txt: Información sobre la utilización de cada uno de los ejecutables de los que se compone la herramienta.
  2. jb_dll.dll: DLL que realizará el trabajo del parcheo del CSP para marcar como exportables las claves privadas de los certificados.
  3. jailbreak.exe y jailbreak.msc: Programa principal que requiere interacción por parte del usuario que lo ejecute.
  4. Tras la ejecución de jailbreak.exe y el correspondiente parcheo por parte de la DLL, se invocará una instancia de la consola de gestión de Microsoft (Microsoft Management Console, mmc.exe) con los complementos referentes a los certificados del sistema ya cargados (vista definida mediante el fichero jailbreak.msc incluido en el ZIP de la herramienta). Una vez ahí, podremos acceder a los certificados y realizar la tarea de exportación, en la que se comprueba como la casilla de ‘Exportar la clave privada” se encuentra esta vez habilitada.

    La marcamos, introducimos la contraseña que queramos y el nombre del fichero para exportar, y listo.
    Tendremos un fichero .pfx que contendrá el certificado y su clave privada, listo para distribuir y utilizar…como queramos.

  5. jbstore.exe: JBStore es una aplicación que se ejecuta por línea de comandos y que exporta todos los certificados del almacen ‘Personal’ sin requerir la interactuación con la Microsoft Management Console como para el caso de la aplicación Jailbreak.
  6. Es posible seleccionar tanto el almacen “Personal” del usuario actual o del equipo local indicándolo como parámetro (/user o /computer respectivamente):

  7. jbcsp.exe: jbcsp es una aplicación que se ejecuta por línea de comandos y que exporta las claves que se encuentran dentro del CSP (Cryptographic Service Provider) pero que no están asociadas con un certificado.
Como veis, una tarea sencilla, limpia, ideal para procesos de backup o migraciones… Eso sí, esta aplicación debería formar parte de nuestra colección de ‘Herramientas que necesito subir a TU ordenador’.

Especial Contraseñas Seguras: Almacena las contraseñas en el navegador

Especial Contraseñas Seguras: Almacena las contraseñas en el navegador: “

Gestiona las contraseñas desde tu navegador favorito

Seguimos con otro artículo de nuestro Especial Contraseñas Seguras. Esta vez vamos a explorar las opciones que tenemos para la aplicación que más solemos usar: el navegador.

En Internet hay un gran número de servicios, y la mayoría necesitan una contraseña para entrar, a espera del desarrollo de otros protocolos como OAuth o Facebook Connect. Por eso, es importante que nuestro navegador gestione bien nuestras contraseñas y las almacene de forma segura. Después del salto tenéis el análisis, empezando por los gestores de contraseñas integrados.

Gestores de contraseñas integrados en el navegador

Los gestores integrados de Firefox, Chrome y Opera

Todos los navegadores tienen un gestor de contraseñas más o menos decente, que almacena automáticamente nuestros datos para entrar en los servicios web. El mejor, sin duda, es el de Opera. Pulsando Ctrl+Enter, rellenará el formulario y directamente entraremos en el servicio en cuestión. Además, podemos establecer una contraseña maestra, y también tenemos la posibilidad de que rellene automáticamente los formularios de registro con nuestros datos. Lo malo es que sólo podemos ver en qué sitios hay contraseña almacenada, y no podemos ver ni el usuario ni la contraseña usadas.

El siguiente gestor es el de Firefox. Al igual que el de Opera, rellena automáticamente los formularios de entrada, y podemos establecer una contraseña maestra. Después podemos ver tanto el usuario como la contraseña de los sitios en los que se ha almacenado. El gestor de Chrome es igual, salvo por el hecho de que no podemos elegir una contraseña maestra.

Los gestores integrados de Safari e Internet Explorer

Safari también gestiona las contraseñas de manera similar a Chrome, pero no nos permite ver las contraseñas almacenadas. Por cierto, este gestor no viene activado por defecto, para hacerlo hay que ir a Preferencias, después Autorrelleno y activarlo desde ahí.

Por último, Internet Explorer. Lo único que hace con sus contraseñas es almacenarlas y luego rellenar formularios, pero no podemos ver nada de lo que está guardado, ni siquiera los sitios con estas contraseñas guardadas.

LastPass

Diálogo de LastPass para almacenar contraseñas

De LastPass hemos hablado en casi todos los artículos de este especial, y es que es un servicio realmente excepcional. Funciona en Firefox, Chrome, Internet Explorer y Safari, y nos permite guardar las contraseñas y sincronizarlas con el servidor online, para luego rellenar los formularios automáticamente. Además, se integra muy bien sin molestar en la navegación.

Podemos clasificar las contraseñas por grupos, y también tenemos opciones para acceder automáticamente sin pulsar ningún botón. Si queremos también podemos meter nuestros datos (nombre, apellidos, correo, dirección, etc) para que rellene él solito los formularios de registro.

Descarga | LastPass

XMarks

Diálogo sincronización Xmarks

XMarks era, en un principio, una extensión para Firefox que sincronizaba los marcadores entre distintas instalaciones. Sin embargo, ha ido mejorando con el tiempo y ahora funciona en Internet Explorer, Firefox, Chrome y Safari, y además de los marcadores también sincroniza nuestras contraseñas.

Una ventaja que le veo a XMarks es que se integra con el gestor interno de cada navegador, sólo sincronizando los datos, para que el navegador se encargue de rellenar los formularios y almacenar las contraseñas. Así resulta muy poco molesto, y pasa inadvertido. Además, XMarks protege nuestras contraseñas con un código PIN para que sólo nosotros podamos acceder a ellas, ya sea desde el navegador o desde la web my.xmarks.com.

Descarga | XMarks

Sincronizar Firefox y las carteras de GNOME y KDE

Firefox con Gnome y KDE

Y por último y antes de acabar con este artículo, un pequeño bonus. Muchos de los usuarios de Linux usamos Firefox como navegador predeterminado, y es una lata que no se integre con los gestores de contraseñas de los entornos GNOME y KDE. Por suerte, existen dos extensiones que cumplen con esta función para ambos escritorios. De esta forma, podremos aprovechar la potencia de los entornos de escritorio, que tienen este tipo de gestores muy bien integrados. Aquí van los enlaces:

Descarga | Integración de Firefox con GNOME-keyring
Descarga | Integración de Firefox con la cartera de KDE

Y hasta aquí esta entrega del Especial Contraseñas Seguras en Genbeta. Espero que os haya sido útil, y dentro de poco tendréis el siguiente artículo, en el que veremos cómo guardar las contraseñas en vuestros móviles.

En Genbeta | Especial Contraseñas Seguras


Como modificar webs en ‘runtime’ con Internet Explorer 9

Como modificar webs en ‘runtime’ con Internet Explorer 9: “

Aproximadamente una semana después de su publicación, una de las características que más me ha gustado en la ‘beta de Internet Explorer 9’ es la implementación de las ‘Herramientas de desarrollo’.

Dichas herramientas nos permitirán entre otras cosas, poder modificar el código HTML en tiempo real, acceder a todas las propiedades del árbol DOM e incluso realizar depuración de código Javascript.

Este artículo se centrará únicamente en la modificación de código HTML, dejando a un lado la depuración de código Javascript para otro artículo.

Para la visualización del panel de ‘Herramientas de desarrollo’, desde el cual realizaremos todas las operaciones, es necesario presionar ‘F12’ o activar la opción en el menú desplegable que se ve a continuación.

clip_image001

Una vez activo se nos abrirá una nueva ventana, la cual por comodidad, recomiendo anclar al navegador pulsando Control+P.

Para la modificación de código HTML tenemos tres alternativas que son, por un lado la localización directamente a través del árbol DOM del contenido que deseamos modificar, por otro lado la utilización del buscador situado en el lateral derecho, y por último la utilización del puntero del ratón para la selección del elemento deseado.

Una vez más, aconsejo la utilización del puntero para la realización de este tipo de tareas, ya que resulta mucho más cómodo y rápido.

Para activar esta característica, es necesario hacer clic en ‘Buscar -> Seleccionar elemento con un clic’, o pulsar Control+B.

clip_image002

Una vez hayamos realizado el paso anterior, podremos seleccionar en nuestro navegador el elemento a modificar. Si os fijáis bien, veréis que Internet Explorer lo pinta de otro color para facilitarnos su búsqueda.

clip_image004

Ahora podemos modificar sus propiedades, estilos, agregar, eliminar atributos, etcétera. Nosotros en este ejemplo realizaremos un cambio de color a la barra de búsqueda de Bing, añadiéndole el siguiente estilo: style=”background-color:red;”.

clip_image006

De este modo podemos cambiar el aspecto visual, incluso la funcionalidad o validaciones Javascript que dichas páginas realicen. Sin duda una característica muy útil, sobre todo para la comunidad de desarrolladores web.

¡Hasta otra!


A more fontastic Google Docs

A more fontastic Google Docs: “(Cross-posted from the Google Docs Blog)

Documents without font choices are like photographs without colors. Just as shades of color can add depth to a picture, smart font choices give your text another dimension.

For a long time, the set of fonts that you’ve seen when you browsed the web has been quite limited. That’s because you could only use a font that’s already been installed on your computer. So if a website designer wanted all her visitors to see the same thing, she could only use fonts that are so ubiquitous that the chances are very high that every computer will have them. And there are only a handful of fonts that fit that bill.

Thankfully, that situation is changing. All modern browsers now support the ability to download web fonts. A web font doesn’t need to be installed on your local computer—it can be read directly from a web server and used immediately on the webpage that you’re loading. In May, we launched the Google Font API, which makes it easy for website developers to include any one of an ever-growing list of web fonts on their pages. We’re already using the new API for the latest themes in Google forms.

As of today, Google documents supports web fonts (using the Google Font API) and we’re excited to announce six new fonts.

Droid Serif and Droid Sans
Android fans will already be familiar with the Droid family of fonts. Droid Serif and Droid Sans both feature strong vertical lines and a neutral, yet friendly appearance. They’re designed specifically for reading on small screens.


Calibri and Cambria
Every day we have many people import documents from Microsoft Word into Google Docs. Today we’re making import fidelity better by adding two of the most popular Microsoft Word fonts. Calibri is a beautiful sans serif font characterized by curves and soft edges. It’s designed to be high impact. Cambria is built with strong vertical serifs and subtle horizontal ones. It’s very legible when printed at small sizes.

Consolas and Corsiva
Consolas joins Courier New as the second monospaced font in Google Docs. It’s a modern monospaced font with character proportions that are similar to normal text. Finally, Corsiva is our first italic font with embellished characters and an elegant style.

Right now our font support covers most Latin and Western European character sets. However, we’ll be adding web fonts for other languages (like Hebrew and Greek) soon. If you don’t see the new fonts in your documents, check that web fonts are supported in your language and that the document language is set correctly from the File -> Language menu.

This is just the beginning of fonts in Google Docs. We added six new fonts today and we’re already testing our next batch. You’ll see many more new fonts over the next few months. And because Google Docs uses web fonts, you’ll never need to install a new font: when you load your document, the latest set of fonts will always be there, ready to use.

Finally, adding web fonts is just one of the challenges that the Google Docs team has been working on. If you’re interested in learning more about the challenges of building a collaborative application, check out the first post of a three-part series on collaboration posted on the Google Docs Blog.

Posted by Jeremie Lenfant-Engelmann, Software Engineer


La patrulla secreta que filmó el horror atómico

La patrulla secreta que filmó el horror atómico: “
“Una tarde recibí una llamada de Woody Mark. Me dijo “George, te necesito mañana para una prueba especial… las bombas van a volar a 10.000 pies sobre vosotros”. Yo le dije: “Bueno, ¿qué clase de protección voy a tener?”. Y me respondió: “Ninguna”. Entonces recordé que tenía una gorra de béisbol, y me la llevé por si acaso”.

Son palabras de George Yoshitake, un anciano de 82 años y uno de los últimos supervivientes del equipo que el Gobierno de EEUU mantuvo en secreto durante décadas. Su historia dejó de ser clasificada en 1997 cuando el Gobierno decidió sacar a la luz los documentos y admitir que la existencia de una auténtica división cinematográfica establecida en Hollywood y dedicada a fotografiar y filmar en secreto las más de 200 pruebas nucleares que el Ejército llevó a cabo entre 1946 y 1962. (Seguir leyendo)


De aquellos hombres, apenas quedan unos pocos supervivientes. Muchos de ellos murieron de cáncer como consecuencia, probablemente, de las fuertes radiaciones a las que se sometieron sin protección. Aquel equipo arriesgó su vida, como recuerdan en The New York Times, para rodar unas 6.500 películas en las que se veían las explosiones sobre el desierto de Nevada y los atolones del Pacífico y obtener un material que sirvió a los científicos para obtener valiosísimas informaciones sobre el efecto de las bombas y su capacidad de destrucción.

La locura por realizar pruebas nucleares de todo tipo (subterráneas, aéreas e incluso sobre la atmósfera) les llevó a volar pueblos enteros, con maniquíes, coches, zepelines y en ocasiones con animales vivos. El anciano Yoshitake, por ejemplo, confiesa que no se puede sacar de la cabeza los efectos que las pruebas tenían sobre los cerdos, cuya piel guarda cierta semejanza con la humana.

Pero para realizar aquel despliegue no bastaba el esfuerzo de unos cuantos profesionales actuando por su cuenta. En realidad, según se ha sabido después, el Ejército tenía movilizado a un estudio completo, situado en las colinas de Hollywood y cuyas instalaciones estaban rodeadas por alambre de espino. Al menos 250 personas, entre productores, directores y cámaras, trabajaron en aquel estudio secreto situado en la avenida Wonderland.

Sobre aquel estudio se ha escrito un libro (“How to Photograph an Atomic Bomb” ) y se han rodado un par de documentales. Muchos especialistas trabajan todavía en la recopilación y restauración del material filmado aquellos años, uno de los mejores testimonios de la locura que se vivió durante los años de la Guerra Fría. Algunos canales, como Atomcentral, están subiendo a la red algunas de las piezas grabadas por aquel equipo de cineastas fantasmas. Para completar esta entrada, creo que lo mejor es que echéis un vistazo por vosotros mismos a aquel material y recordaros que aún hay miles de armas nucleares como éstas durmiendo en silos de todo el planeta. Ojalá sigan siendo solo un recuerdo del pasado.

Algunas muestras del material filmado por los estudios secretos:

Vía: The New York Times

Otras entradas ‘nucleares’ en Fogonazos:

Volando en el interior de un hongo nuclear

El hombre que vio a través de sus huesos

Agacharse y cubrirse

Cuando las pirámides lanzaban misiles

Hiroshima, el horror que nunca nos quisieron enseñar

Pruebas nucleares con dirigibles

Una luna nuclear

Las bombas del arco iris


Insync, otra forma para compartir archivos en la nube y con integración en Google Docs

Insync, otra forma para compartir archivos en la nube y con integración en Google Docs: “

A la hora de sincronizar archivos entre un ordenador y la nube, Dropbox es de las aplicaciones más utilizadas por varias razones, pero principalmente por su sencillez y buen funcionamiento. Precisamente con estas dos premisas sale al mercado Insync, el último producto de una startup filipina.

Insync es un servicio gratuito para sincronizar archivos entre la nube y nuestros ordenadores, pero que tiene una característica muy particular, y es su total compatibilidad con Google Apps y Docs en particular.

¿Qué significa esto? Pues que cualquier documento que introduzcáis en la carpeta de Insync que se creará en vuestros ordenadores podrá ser visualizado y editado en Google Docs. Y en ambas direcciones, es decir, si editas algo en el documento esto aparecerá automáticamente en Docs, y si lo haces en éste los cambios aparecerán también reflejados en el documento del disco duro.

El proceso para poner en marcha Insync es muy sencillo. Basta con identificarse con una cuenta de GMail o Google Apps para poder descargar el programa. Una vez hecho esto, el proceso de instalación consiste en la creación de una especie de carpeta virtual en el disco duro que permitirá la sincronización instantánea, como en Dropbox.

insync-barra.png

A partir de ese momento tendremos en la barra de tareas un pequeño icono que nos permitirá manejar la aplicación en todo momento: ver cuáles han sido los últimos archivos compartidos, acceder directamente a nuestro espacio virtual en la web o controlar lo que introducimos en la carpeta de Insync de nuestro ordenador.

En estas semanas posteriores al lanzamiento todas las personas que se registren utilizando su cuenta de Google o GMail recibirán 1 GB de espacio de forma gratuita. A partir de ahí, y aunque se desconocen las tarifas, podremos ir adquiriendo más espacio.

Una de las características que diferencia a Insync de servicios como Dropbox, además de la integración con Google Docs, es que si compartimos alguna carpeta o archivo con uno de nuestros contactos éste no verá afectada su cuota de espacio, por lo que ese 1 GB de espacio que se “regala” puede ser cantidad suficiente para ir probándolo en estas primeras semanas.

En definitiva, otra aplicación más para poder tener nuestros archivos disponibles en cualquier momento y en cualquier equipo. Una cosa que se echa en falta es una aplicación móvil, pero seguro que en el futuro los chicos de Insync se deciden a desarrollar una, si es que no lo están haciendo ya.

Vía | Insync


Cuatro alternativas para recuperar nuestros controladores

Cuatro alternativas para recuperar nuestros controladores: “

Cuatro alternativas para recuperar nuestros controladores
Una de las cuestiones que más me molesta a la hora de tener que reinstalar un equipo es no tener los controladores a mano cuando hemos terminado de reinstalar el sistema. Ver como no nos funcionan algunos periféricos o determinados componentes de la placa base puede ser un problema que tiene solución si tenemos copia de seguridad de nuestros controladores. Por eso vamos a plantearos cuatro alternativas para recuperar nuestros controladores.

Seguro que muchos piensan que esto era un problema cuando Internet no estaba tan extendido como ahora, y no les falta razón, pero uno puede llevarse sorpresas sobre todo si el controlador que nos falta o nos falla es el de la tarjeta de red. Es en este momento cuando te arrepientes de no tener a mano esta opción de copia de seguridad de los controladores. Sin duda nos ahorrará tiempo en la puesta en marcha de los sistemas una vez reinstalados.

Vamos a ver alguna de las alternativas disponibles:

Driver Magician Lite

Driver Magician Lite

Esta es una de mis alternativas favoritas puesto que no es necesaria la instalación de la aplicación y la podemos ejecutar directamente desde nuestra memoria USB externa. Identifica los controladores de los que dispone Windows y aquellos que no están disponibles en el sistema. De esta manera podemos elegir de que controladores realizamos copias de seguridad.

Una vez seleccionados los controladores para su copia y una vez ejecutada creará una serie de carpetas con el nombre de cada controlador. De esta manera podemos tener ordenada una copia de seguridad para cada ordenador de nuestra casa en unas cuantas carpetas. Como principal punto en contra podemos decir que quizás es un poco lenta en su ejecución.

Más Información | Drivers Magician Lite

SlimDrivers

SlimDrivers

Esta es una aplicación que transciende más allá de la simple copia de seguridad de los drivers de nuestro equipo puesto que además es capaz de buscar actualizaciones de los controladores de nuestro equipo. Esta opción es importante sobre todo para aquellos drivers que utilizamos de los fabricantes de los componentes, no los que nos incluye Windows dado que estos se actualizan junto con el sistema.

También nos incluye la opción de instalar las actualizaciones que tenemos pendientes de Windows. De esta manera también nos ayuda a mantener todo el sistema, y no sólo los controladores actualizados. Respecto a Driver Magician tiene la desventaja de que tenemos que instalarlo en nuestros equipos. Está disponible en versión beta para Windows Xp, Vista y 7.

Lo mejor de esta opción es la posibilidad de poder buscar nuevas versiones de los controladores de nuestros equipos además de realizar la copia de seguridad de los mismos. Lo peor es que no nos da la opción de poder guardar la copia de seguridad de los controladores del propio sistema, por lo que si tenemos alguna actualización y el resultado de la misma afecta al trabajo de algún componente no tendremos a mano el controlador anterior que nos estaba funcionando correctamente.

Más Información | SlimDrivers

Double Driver

Double Driver

En este caso se trata de otra alternativa portable, que no necesitamos instalar en nuestro sistema. Funciona de manera bastante ágil y nos posibilita hacer la copia de seguridad de todos los drivers del sistema, tanto los que nos proporcionan los fabricantes como los que nos proporciona Microsoft.

Dos de las cosas que tiene esta alternativa que me gustan bastante son las facilidades que nos da para restaurar las copias de seguridad de los controladores y también la posibilidad si tenemos más de un sistema operativo instalado recuperar también los controladores del sistema que no esté en uso en ese momento

Más Información | Double Driver

DriverMax

DriverMax

En este caso hablamos de una completa solución para reconocer los dispositivos que tenemos instalados y realizar su copia de seguridad. Para sacar todo el partido a la aplicación debemos registrarnos y crear una cuenta de usuario en DriverMax, que nos dará acceso a ver actualizaciones de programas o los controladores más adecuados para nuestros componentes.

Dispone de una opción interesante para crear un informe del hardware instalado de manera que nos puede ser muy útil para otras cuestiones como pueden ser ampliaciones de equipo. La parte buena es que dispondremos de la información en nuestra cuenta online, de manera que será accesible desde distintas ubicaciones.

Más Información | DriverMax.

Son cuatro alternativas válidas para gestionar una copia de seguridad de los controladores de nuestros equipos. Tener guardada esta copia seguro que nos ahorra mucho tiempo y disgustos cuando por algún problema tenemos que reinstalar el equipo o si por alguna circunstancia perdemos alguno de los controladores instalados en el equipo.

Vía | Tecnología Pyme
En Genbeta | Evita que Windows Update te pregunte por buscar drivers al conectar nuevo hardware


Editores hexadecimales

Editores hexadecimales: “

De un hilo sobre editores hexadecimales de la lista más profunda y oscura de Internet he hecho una recopilación con los que se han ido mencionando para ver sus características más importantes y resumirlas en esta entrada.
Pese a que todos son usados para lo mismo, las diferencias entre muchas de ellas son importantes y dependiendo de la situación y los requisitos es posible que se use más de una.
Como siempre, lo mejor es descargar una demo de todas e ir probando sus funcionalidades. Al final cada persona aprecia aspectos distintos.
  • SweetScape 010 Editor – Su principal característica es el uso de plantillas o “Binary Templates”, que permiten automatizar tareas con un lenguaje similar a C/C++. Además soporta la comparación entre archivos, uso de histogramas y etiquetar posiciones con marcadores. El precio es de 129.95$ para la licencia comercial y de 49.95$ si es de uso académico o personal.
  • Zynamics Hexer – Hexer de la compañía especialista en ingeniería inversa Zynamics. Está programada en Java, lo que la hace multiplataforma. Además también soporta plantillas y es gratuita.
  • McAfee FileInsight -Esta herramienta está enfocada al reversing en malware tanto de archivos como de páginas web, dispone de plugins basados en python y múltiples decodificadores. La aplicación la distribuye McAfee de forma gratuita
  • IDM UltraEdit – Es posiblemente la más popular. Es además utilizada como editor para varios lenguajes de programación. Soporta la apertura de múltiples ficheros, coloreado según el lenguaje, conexión remota mediante FTP, remplazado de texto avanzado. No está enfocada al reversing pero es muy versatil. El precio de la licencia es de $59.95.
  • Radare – Radare no es únicamente un editor hexadecimal, se compone de un conjunto de herramientas para la ingeniería inversa en sistemas tipo Unix y multiplataforma. Pese a que es compleja (funciona bajo línea de comandos) para este entornos es sin duda la más potente.
  • BreakPoint Hex WorkShop – Este editor es altamente configurable y permite estructurar un archivo en secciones. También permite comparar archivos binarios. Su precio es de $89.95.
  • Hiew – Hiew es una aplicación de consola que permite el desensamblado y edición de ejecutables NE, LE, LX, PE/PE32+ little-endian o ELF/ELF64. Soporta macros y búsqueda y remplazo avanzado. La licencia tiene un precio de 64$.


Protección de Laptops ante robos

Debido a algunas consultas en relación a este tipo de incidentes realicé un pequeño lab asociado a la evaluación de 2 productos opensource referidos a la protección/recupero de laptops:

  1. PreyProject @ www.preyproject.com
  2. The Laptop Lock @ www.thelaptoplock.com

El primero dentro de todo es una solución nueva y el segundo ya tiene un tiempo.

En ambos productos es necesario registrarse, y a través de la instalación de un agente, dar de alta los equipos que quieren monitorearse. En este sentido PreyProject provee muchas más opciones de monitoreo que The Laptop Lock, sin embargo este último provee acciones al denunciar robada la laptop, que el otro producto no provee, por ejemplo, borrar una determinada carpeta, cifrar el contenido de una carpeta, etc.

En los dos productos es necesario denunciar el equipo robado a través de la interfaz web, lo cual dispara las distintas acciones que hayamos configurado en el agente.

A modo de ejemplo les comento algunas acciones:

Preyproject: genera un mensaje en el equipo robado con el texto que nosotros definamos, por ejemplo “Este equipo ha sido extraviado, contáctese con “x””, además se puede disparar una sirena que comienza a reproducirse en el equipo. Una característica importante es que toma una captura de pantalla de la sesión activa, el usuario logueado, los procesos y direccionamiento público y privado. El direccionamiento lo trata de ubicar geográficamente (esto último no está funcionando muy bien). En apple y linux puede cambiar el wallpaper con algún texto que nosotros definamos. Con toda esta información genera un reporte que luego puede ser visualizado vía web, también envía alertas por mail anunciando que el contenido está disponible.
El agente puede configurarse para que trabaje cada “n” cantidad de minutos, en el equipo evaluado no se ha notado caída de performance por el funcionamiento del producto.

Preyproject utiliza unix (cron, bash), sin embargo toda la configuración es a través de un GUI junto con la instalación y desinstalación. Cerrando la sesión activa, e iniciando otra, también ha notificado que el equipo ha sido robado y ha generado un informe con las características antes mencionadas.

Si el usuario logueado posee permisos privilegiados también informa el Default Gateway y la Mac Address.

The Laptop Lock: el producto es mucho más simple que Preyproject, sin embargo provee medidas de protección reactivas que favorecen el resguardo de la información que pudiera contener el equipo robado. Cifrar archivos o carpetas, reproducir un comando, etc son las facilidades que provee este producto, la protección del agente a través de una contraseña es una medida de seguridad que lo diferencia de Preyproject. Los reportes contienen la IP involucrada y un link hacia DNStuff para realizar un WhoIs, etc, pero no tiene el mismo detalle que Preyproject en cuanto a los reportes.

Conclusiones
Los 2 productos son buenos, tienen diferencias que permiten optar por uno u otro según el tipo de tratamiento/protección que queramos implementar. Es importante mencionar que la utilización de estos productos debe estar acompañada de políticas de seguridad asociadas a la gestión de los equipos portables/móviles, dado que un usuario con permisos de administración podría desinstalar el producto. Adicionalmente dado que estos productos requieren de internet para comunicarse con el web service, si no tienen conexión no se podrá relevar ninguna información.

Estos productos no reemplazan una solución de cifrado (si la clasificación de la información lo amerita), sino que son un complemento a estas medidas y podrían facilitar el recupero de los equipos.
Por otro lado, políticas asociadas al uso de la información podrían disminuir la posibilidad de que en los equipos portables se encuentre información de negocio que tuviera algún valor para un posible atacante.

En fin estos productos no son infalibles, pero sin dudas, en conjunto con otros controles podrían ser muy útiles para el recupero de equipos robados.

Fuente: SecureTech


Destripando OAuth en Twitter

Destripando OAuth en Twitter: “

Avisados estábamos de que a partir del 1 de Septiembre en Twitter se dejaba de permitir la autenticación básica en sus aplicaciones. A partir de ese momento, a todos aquellos que éramos amiguitos de desarrollar scripts en perl o python por ejemplo para comunicarse con Twitter, nos surgió una traba nueva, o como se ha denominado en Internet: el OAuthcalipsis. Así pues, la versión anterior de Tweetme.pl, herramienta de la que os hablamos hace tiempo, también dejó de funcionar!

Anteriormente, con proveer un par usuario/contraseña de una cuenta válida de Twitter, en el desarrollo y la ejecución, todo era maravilloso de sencillo, aunque más inseguro, puesto que los ingredientes de la receta de la autenticación viajaban en claro (cuántas y cuántas veces habremos dejado de utilizar twitter en eventos con redes compartidas/peligrosas) a través de la red.

OAuth llega a solucionarle a Twitter este problema… y a generarnos otros tantos a los desarrolladores ‘amateur’. Me explicaré un poco mejor. Para la autenticación mediante OAuth, es necesario proveer 4 elementos a Twitter:

  • Consumer Key -> El desarrollador ha de registrar, a nombre de una cuenta twitter, la aplicación que desee. Así se generará este identificador único de aplicación.
  • Consumer Secret -> Para evitar suplantar diferentes identificadores de aplicación (mediante un ataque de fuerza bruta, pero que muy muy bruta, 21 caracteres alfanuméricos con mayúsculas y minúsuculas), se complementa el par con una clave denominada Consumer Secret.
  • Access Token Key -> Para cada usuario, será necesario asociar un identificativo de token que permita suplantar para esa aplicación, a ese usuario mediante ese token para operar en Twitter (de hecho es posible definir la aplicación como de ‘sólo lectura’ o ‘lectura/escritura’ según las necesidades)
  • Access Secret -> Como par asociado al Token Key se establece un Token secret.

De esta manera, cuando un usuario requiera la utilización de una aplicación/script que use Twitter, será necesario proveer los cuatro elementos descritos.
Si somos los desarrolladores de la aplicación/script y sólo lo vamos a utilizar nosotros, no hay problema en obtener esos cuatro datos directamente y ‘hardcodearlo’ en el código. El problema viene en el momento en el que se comparte/distribuye esa aplicación a terceros, ya sea como software libre o como software comercial.
Y es que resulta que Twitter no ve con buenos ojos el distribuir el consumer key y consumer secret de una aplicación determinada, de forma masiva. Twitter comunicó que, una vez que un par consumer key/secret son de dominio público, las revocarían (en su propia Revocation List) y la aplicación queda inutilizada.
Por otra parte, el par Access Token Key/secret es único para cada usuario que quiera hacer uso de esa aplicación. En el caso que N usuarios quieran utilizar una aplicación twitter con OAuth, deberán permitir a su usuario twitter que la aplicación identificada por $consumer_key y $consumer_secret lea/escriba en twitter con su identidad.
Para ello es necesario generar un par de Token key/secret distintos para cada cuenta, manteniéndose fijo el par Consumer key/secret que identifican a la aplicación. Para generar los access token key/secret es necesario haber hecho login vía web en Twitter con la cuenta que queramos y, al ejecutar la aplicación, ésta nos deberá proveer de una URL a la que acceder, que nos indicará que la aplicación X requiere nuestra aprobación para ser usada con nuestra cuenta. Después de aceptar, aparecerá un PIN que habrá que introducir en la aplicación para poder obtener el par token key/secret también necesarios para la aplicación.
Algunos lectores diréis: ‘No me cuadra esto que dicen en SbD porque yo no he actualizado mi cliente Twitter (como Tweetdeck por ejemplo) y todo me sigue funcionando igual y sin problemas. Además no he tenido que hacer cosas raras con los tokens y los consumer keys ni nada de esto’. Pues efectivamente, tenéis razón. Y es que es posible, para algunas aplicaciones, utilizar xAuth, otra forma de autenticación que requiere que Twitter manualmente verifique y apruebe ese tipo de autenticación para dicha aplicación en concreto. Me recuerda un poco al procedimiento para añadir una aplicación en la appstore de Apple. Para ello hay que proporcionar, entre otras cosas el ‘consumer key’ de la aplicación, pero que en el fondo son peticiones con POST vía HTTPS a Twitter.
En aplicaciones no ‘reconocidas’ por Twitter o FOSS, aún no se ha solucionado el problema de la distribución del consumer key/secret en formato texto. Debido al concepto Open Source y al tener que poner a disposición de cualquiera el código fuente completo de la aplicación, y que si Twitter descubre un par consumer key/secret éstas serán deshabilitadas, me gustaría proponer un par de opciones, que por supuesto no son la panacea, puesto que son fácilmente bypasseables, pero al menos Twitter no podrá invalidar el par consumer key/secret porque no van en la propia aplicación en modo texto:

  • Ofuscar tanto el valor como el nombre del parámetro a la autenticación con OAuth mediante un ROT13 o cualquier otro mecanismo de cifrado. (Método propuesto por Marc Mims, mantenedor del módulo Net::Twitter para Perl)

De esta manera:

Net::Twitter->new(

   traits => [qw/API::REST OAuth RetryOnError/],
decode_entities => 1,
(
grep tr/a-zA-Z/n-za-mN-ZA-M/, map $_,
pbafhzre_xrl => 'ZlPbafhzreXrl',
pbahfzre_frperg => 'ZlFrperg',
),
);

En tiempo de ejecución se sustituye por:

Net::Twitter->new(

    traits => [qw/API::REST OAuth RetryOnError/],
decode_entities => 1,
consumer_key => 'MyConsumerKey',
consumer_secret => 'MySecret',
);

Lo cual no es publicarlos en claro en el código.

  • Otra opción sería forzar que los valores de ambas variables estén en una ubicación remota. Puesto que para acceder a Twitter, es necesario que haya conectividad con Internet, antes de acceder a la autenticación, es obtener consumer_key y consumer_secret previamente y utilizarlos en la autenticación. Si Twitter bloquea dicho par, con generar uno nuevo, no es necesario bajar una nueva versión de la aplicación y ‘hardcodearlos’ (que puede generar retrasos de semanas si nos referimos a una aplicación que esté en la AppStore de Apple por ejemplo) sino hacer un cambio en el servidor únicamente.

Para Tweetme.pl he implementado una mezcla de ambas, que no incumpla las exigencias de Twitter, pero que permita no tener que entregar un programa compilado y ofuscado (que finalmente sería comprometido igualmente por gente con capacidades de reversing), ni que utilice xAuth, por el papeleo y trámite que ello permite con Twitter (siempre y cuando aprueben xAuth en una aplicación Open Source, claro está). Además, en esta nueva versión se provee de un script para que sea sencillo obtener los tokens y personalizarlo para cada usuario.


IDF 2010: Esta es la TV inteligente de Google

IDF 2010: Esta es la TV inteligente de Google: “

googtv4

Intel está bastante emocionado con la idea de las TVs del futuro (ante la perspectiva de que llevarán sus chips adentro). Uno de los socios de negocio más interesantes a este respecto es Google, que prepara el lanzamiento de su TV inteligente en el “otoño” del hemisferio norte – que comienza el próximo mes.

Durante IDF, Intel tiene un stand dedicado al nuevo aparato que hasta el momento funcionará con un set top box de Logitech o bien con un televisor de Sony lanzará próximamente.

La idea es que ambos equipos integrarán un chip C4100 y un chip Atom. El primero se encargará de procesar el streaming y búsquedas de video y programación, mientras que el chip Atom permitirá correr aplicaciones. El equipo corre en frío (no tiene ventilador).

La idea de Google es tener un Marketplace con aplicaciones para televisores (como Widgets por ejemplo), que podrás descargar a tu gusto, en lugar de tener las que el fabricante quiso integrar. La TV corre con Android, así que la plataforma ya es conocida por los desarrolladores, que tendrán aquí un nuevo mercado.

Todavía no hay información de precios y fechas, aunque todo indica que se demorará algo de tiempo en salir de Estados Unidos. Hasta el momento, Google está trabajando con la operadora de cable Dish, y todavía está por verse cómo funcionará la combinación con empresas de televisión de pago, y si se podrá adquirir el sistema independientemente del TV cable.

Link: Intel Developers Forum


Realidad en HDR de la mano de un par de Canon EOS 5D Mark II

Realidad en HDR de la mano de un par de Canon EOS 5D Mark II: “

Filed under: ,

Últimamente la red no ha parado de llenarse de imágenes sobresaturadas y con aspecto plasticoso. Son los llamados HDR, un tipo de efecto que se consigue tomando varias fotografías a distintas exposiciones y fusionándolas en una sola. La llegada de iOS 4.1 ayudará a extender las tres siglas por todos los rincones de la red de redes (aunque es cierto que las imágenes resultantes no están del todo mal), sin embargo, debido a la complejidad que requiere su creación, todavía nos faltaba por ver este efecto en movimiento.
Menos mal que existen empresas como la productora Soviet Montage, encargada del vídeo que vas a ver a continuación. Para su grabación, han utilizado dos Canon EOS 5D Mark II con distintas exposiciones, una sobreexpuesta y otra subexpuesta, de forma que con los dos vídeos resultantes han podido capturar por separados todos los detalles ocultos en las sombras y en aquellas zonas más iluminadas. El trabajo de edición ha debido de ser interminable, pero viendo los resultados, estamos seguros que todo el tiempo ha merecido la pena. Eso sí, en planos cercanos a personas mejor olvidarlo, ¿no crees?. Te dejamos con el vídeo tras el salto.

Continue reading Realidad en HDR de la mano de un par de Canon EOS 5D Mark II

Read | Permalink | Email this | Comments


DARPA trabaja en cascos militares con “control mental” mediante ultrasonidos

DARPA trabaja en cascos militares con “control mental” mediante ultrasonidos: “

Filed under: ,

Las atolondradas cabecitas de DARPA ya pueden ir pensando en encontrar una buena firma de relaciones públicas, porque van a pasarlas canutas tratando de explicar su última ocurrencia sin quedar como una pandilla de locos enfundados en batas blancas. Y si no, a ver cómo puedes suavizar la idea de que la Agencia de Investigación de Proyectos Avanzados de Defensa está financiando un estudio que contempla el uso de dispositivos transcraneales con el propósito de manipular las funciones cerebrales de los soldados.

El sistema, cuyo estudio se está realizando en la Universidad Estatal de Arizona, utiliza dispositivos de ultrasonidos que podrían ser utilizados desde el casco para estimular distintas regiones del cerebro, permitiéndoles reducir sus niveles de estrés fuera de combate, y aumentando la atención durante las guardias. Es más, hasta se habla de reducir el dolor de las heridas sin el uso de calmantes, e incluso de la posibilidad de usar los ultrasonidos para reducir daños por tumefacción cerebral, y todo ello sin técnicas invasivas como la implantación de electrodos.

Por supuesto, hoy día el ejército de Estados Unidos (entre otros) ya relaja a sus soldados y aumenta su percepción durante periodos de alta tensión mediante el uso de fármacos, pero suponemos que hablar al público de los beneficios de dispositivos de “control mental” como este puede ser un poco más difícil…

[Foto: DVIDSHUB, CC 2.0]

Read | Permalink | Email this | Comments


ContourGPS: La vídeocámara para deportistas extremos ahora con GPS

ContourGPS: La vídeocámara para deportistas extremos ahora con GPS: “

Filed under: ,

La cámara todo terreno para deportistas extremos se nos actualiza. La nueva versión se llama ContourGPS, y tal como su nombre indica, ofrece geoposicionamiento de toda nuestra grabación. Con idéntica calidad Full HD que su predecesora la ContourHD 1080p, la nueva ContourGPS cuesta 349 dólares (272 euros) y a la hora de compartir los vídeos podremos adjuntar un seguimiento del recorrido en un mapa en tiempo real (basado en Google maps) como el que tienes tras el salto.

Continue reading ContourGPS: La vídeocámara para deportistas extremos ahora con GPS

Permalink | Email this | Comments


Microsoft Livecam Studio: Tus videoconferencias ahora en Full HD

Microsoft Livecam Studio: Tus videoconferencias ahora en Full HD: “

Filed under: ,

Ahora, además de las películas, las cámaras de fotos y las pequeñas videocámaras de bolsillo, las videoconferencias retransmitidas por internet también deben de ser en 1080p. Así lo intenta Microsoft con la nueva Lifecam Studio, una bonita cámara con sensor de 1080p, tecnología Truecolor y ClearFrame y modo de enfoque automático. La imagen capturada por esta pequeña webcam es de formato panorámico 16:9, pudiendo además orientar su cuerpo en un total de 360 grados para que no perdamos detalle en todo lo que pasa a nuestro alrededor. Tras el salto puedes ver un vídeo demostrativo que ha realizado nuestro compañero Tim en Engadget en inglés, y en el que podrás observar la mejoría conseguida respecto a otras cámaras, sobre todo en lo relacionado con el sonido y el contraluz. El nuevo modelo llegará a España en enero del 2011 a un precio todavía desconocido.

Continue reading Microsoft Livecam Studio: Tus videoconferencias ahora en Full HD

Permalink | Email this | Comments


Introducción a RFID

Introducción a RFID: “

La tecnología RFID (Radio Frequency Identification) permite identificar de manera unívoca automáticamente un objeto gracias a una onda emisora incorporada en el mismo, que transmite por radiofrecuencia los datos identificativos del objeto. Actualmente estamos acostumbrados a encontrar esta tecnología en forma de etiquetas adhesivas, de forma que un objeto con una de estas etiquetas puede ser localizado a una distancia que va desde unos pocos centímetros hasta varios kilómetros, dependiendo de la fiabilidad de varias características de estas etiquetas, como pueden ser la frecuencia de la emisión, la antena o el tipo de chip que se use. En la etiqueta se graban los datos identificativos del objeto al que ésta está pegada, y dicha etiqueta genera una señal de radio que un lector físico se encargaría de recibir, transformar en datos y transmitir dicha información a la aplicación informática especifica (middleware).

La tecnología RFID va dirigida principalmente al sector logístico y al sector de la defensa y seguridad, pero sus beneficios son aplicables a otros ámbitos ya que dispone de múltiples ventajas. Entre otras, podemos citar que permite el almacenamiento de un gran volumen de datos mediante un mecanismo de diminutas dimensiones, automatiza los procesos para mantener la trazabilidad y permite incluir una mayor información a la etiqueta reduciendo así los errores humanos, evita su visibilidad en caso de intento de robo y permite mayor facilidad de retirada de un determinado producto del mercado en caso de que se manifieste un peligro para la seguridad.

Actualmente podemos encontrar dicha tecnología en tiendas de artículos, para identificar los productos y sus precios o como medida de seguridad, en transportes públicos para el control de acceso o de equipajes, en identificación de mascotas implantando un chip subcutáneo, en pago automático de peajes, en bibliotecas, eventos deportivos tipo maratones para identificar corredores, en el ámbito sanitario para control de medicamentos, identificación de muestras, etc.

Basándonos en lo anterior podemos hablar de cuatro componentes básicos en ésta tecnología:

  • Las etiquetas: también conocidas como tags o transpondedores (transmisor+responder). Están compuestas por una antena que se encarga de transmitir la información, un transductor radio que convierte la información que transmite la antena y un microchip capaz de almacenar el numero de identificación y otros datos. Dichas etiquetas tienen un coste de apenas unos céntimos de euro y sus dimensiones son de hasta 0.4 mm². Según la fuente de energía que usen podemos encontrar:

    • Etiquetas pasivas: no necesitan fuente de alimentación interna, son circuitos resonantes. Alcanzan distancias entre unos pocos milímetros y 7 metros. Son de un tamaño menor que el habitual. Se suelen insertar en pegatinas y son las mas baratas del mercado.
    • Etiquetas activas: poseen una batería interna, por lo que su cobertura (cientos de metros) y capacidad de almacenamiento es mayor. Se puede usar en zonas de agua, o con mucha presencia de metales y siguen siendo válidas. Son más fiables y seguras, por lo tanto más caras y de mayor tamaño.
    • Etiquetas semi-pasivas: mezcla de las dos anteriores.

    Según la frecuencia a la que trabajen, las etiquetas se pueden clasificar en baja (125kHz – 134kHz), alta (13,553 MHz – 13,567 MHz ), ultra alta (400 MHz – 1000 MHz ) y microondas (2,45 GHz – 5,4 GHz ). Dicha frecuencia está ligada a diferentes características, como la capacidad de trasmisión de datos, velocidad, radio de cobertura, coste…

  • Lector de RFID: recibe la información emitida por las etiquetas y la transfiere al middleware. Está formado por una antena, un transceptor y un decodificador. Si la etiqueta permite escritura también incorporaría un módulo programador.
  • Middleware: software instalado en un servidor y que hace de intermediario entre el lector y las aplicaciones. Filtra los datos que recibe, para que a las aplicaciones sólo les llegue la información útil.
  • Programadores RFID: dispositivos que realizan la escritura sobre la etiqueta. Codifican la información en un microchip ubicado dentro de la etiqueta RFID.

Además de las aplicaciones citadas anteriormente, se están estudiando otras nuevas aplicaciones de esta tecnología:

  • Pagos electrónicos con móviles a través de la tecnología NFC (Near Field Communication), que permite que un teléfono móvil recupere los datos de una etiqueta RFID. Esto, combinado con medios de pago electrónicos para móviles (Mobipay, Paybox, etc.), permite comprar productos con tal solo acercar el teléfono al punto de información del producto de donde RFID extrae los datos.
  • Pasaportes electrónicos que almacenan la información del titular, fotografía, huella dactilar, etc.
  • Activación de vehículos y maquinaria. La etiqueta actúa en este caso como control de verificación personal.

Como hemos podido observar, la tecnología RFID plantea múltiples e interesantes nuevas oportunidades de mejorar la eficiencia de los sistemas de uso diario además de añadir comodidad, pero dichas mejoras plantean nuevos riesgos, algunos de los cuales veremos en la siguiente entrada de la serie.

(Más información en la Guía sobre seguridad y privacidad de la tecnología RFID que ha publicado INTECO)


Introducción a RFID (II)

Introducción a RFID (II): “

Como pudimos observar en la primera parte de esta introducción publicada hace un par de días, la tecnología RFID plantea nuevas oportunidades de mejorar la eficiencia de los sistemas de uso diario además de añadir comodidad. Pero dichas mejoras conllevan nuevos riesgos para la seguridad por ataques o caídas del servicio, riesgos para la privacidad como acceso ilegitimo a información sensible, y otros riesgos derivados de la exposición a las radiaciones. Dichos riesgos se comentarán un poco mas en profundidad a continuación. Todos los participantes de esta tecnología tienen la responsabilidad de prevenir estos riesgos, desde los responsables de desplegar la tecnología hasta los organismos o los propios usuarios.

Los riesgos para la seguridad son los derivados de acciones que pueden deteriorar, interrumpir o sacar provecho de forma maliciosa del servicio. Podemos citar diversos ataques:

  • La forma mas sencilla de ataque a un sistema RFID es evitar la comunicación entre lector y etiqueta, lo que se consigue introduciendo la etiqueta en una “jaula de Faraday” (en este blog se explicó el efecto Faraday en este post) creando un campo electromagnético que interfiera con el que ha creado el lector. Este ataque puede ser considerando, en otro entorno completamente diferente, como un sistema de protección. Por ejemplo, existen fundas especiales para el pasaporte electrónico que crean una “jaula de Faraday” evitando lecturas no autorizadas de su información.
  • Otro tipo de ataque sería la suplantación, que consiste en enviar información falsa que parece ser válida. De esta manera se podrían obtener productos caros con etiquetas suplantadas de productos mas económicos.
  • Un tercer ataque detectado es la inserción de comandos ejecutables en la memoria de datos de la etiqueta, que podrían inhabilitar lectores y otros elementos permitiendo algún tipo de fraude o una DoS.
  • Por otro lado, si saturamos el sistema enviándole de forma masiva mas datos de los que es capaz de procesar, o somos capaces de anular la comunicación de radiofrecuencia emitiendo ruido potente estaríamos frente a un ataque de denegación de servicio.

Aparte de éstos, también se pueden dar ataques como inyectar código SQL hacia el soporte físico que lee la tarjeta, ataques por inyección de malware o ataques Man in the Middle capaz de vulnerar la confianza mutua en los procesos de comunicación y reemplazar una de las entidades. También se pueden inutilizar las etiquetas sometiéndolas a un fuerte campo electromagnético si disponemos por ejemplo de una antena altamente direccional. Todos estos ataques pueden ser parcial o totalmente mitigados aumentando la capacidad de memoria y procesamiento de las etiquetas, permitiendo de esta manera implementar mecanismos avanzados de seguridad y cifrado.

Para evitar estos riesgos, se recomienda usar etiquetas de sólo lectura o no escribir los datos directamente en ellas, incluir únicamente un código en la etiqueta y el resto de información en una BBDD con mas seguridad, e incluir métodos de autenticación previos al borrado o desactivación de las etiquetas, y para realizar la comunicación entre lector y etiqueta.

Hablemos ahora de los riesgos para la privacidad de los usuarios. En éstos, se usan ataques con técnicas similares a las anteriormente mencionadas pero en los que se accede a la información personal. Este tipo de ataques van desde accesos no permitidos a las etiquetas con datos personales, hasta el rastreo de las acciones o gustos de las personas: accesos a recintos, hábitos, transportes…etc.

Las medidas para evitar los riesgos para la privacidad son una tarea primordial para las organizaciones, y requieren de una adecuada planificación del sistema de información. Al respecto, la Comisión Europea ha aprobado una Recomendación sobre Privacidad en Comunicaciones RFID denominada “On the implementation of privacy and data protection principles in applications supported by radio-frequency identification SEC (2009) 3200 final“, en la que se establecen recomendaciones y buenas practicas para implementar comunicaciones RFID.

Decir también que la Ley orgánica 15/1999 de 13 de diciembre de Protección de Datos de Carácter Personal (LOPD) es directamente aplicable a la tecnología RFID y con ello cada uno de los principios, derechos y obligaciones que regula. Por tanto los desarrolladores de este tipo de productos tiene que tener en cuenta entre otras cosas que:

  • Debe realizarse un juicio previo sobre si realmente es necesario usar tecnología RFID, definir las funcionalidades claramente y adoptarse revisiones en relación con la cancelación posterior de los datos personales recopilados cuando no sean necesarios.
  • Los usuarios deberán ser informados de la existencia del tratamiento que se le da a sus datos personales.
  • Debe garantizarse la seguridad de todos los recursos relacionados con los tratamientos de datos personales vinculados a la tecnología RFID (hardware, software, organizativos…). La implantación de este tipo de tecnologías en territorio español debe respetar las normas del Real decreto 1720/2007.

Por último y no menos importante, deberá tenerse en cuenta el futuro desarrollo de la Directiva 2009/136/CE7 que indica la necesidad de velar por la protección de los derechos fundamentales, y en particular del derecho fundamental a la protección de datos, cuando las etiquetas RFID estén conectadas a redes públicas de comunicaciones electrónicas o usen servicios de comunicaciones electrónicas como infraestructura básica. En este caso, deberán aplicarse las disposiciones pertinentes de la Directiva 2002/58/CE (Directiva sobre la privacidad y las comunicaciones electrónicas), incluidas las relativas a seguridad, datos de tráfico y de localización, y a la confidencialidad.

Cómo recomendaciones finales para los usuarios, para evitar este acceso indeseado a la información existen diversos sistemas:

  • Utilización de etiquetas watchdog. Estas etiquetas informan de intentos de lectura y escritura que se hagan en su área de actuación.
  • Aislamiento. Evitando la lectura de las etiquetas salvo en los momentos que se desee. Para ello, sólo hay que introducir la etiqueta en una funda de material metálico o plástico, que haga la función de “jaula de Faraday” comentada anteriormente.
  • Firewall RFID. Estos dispositivos crean una zona segura alrededor del usuario mediante la emisión de ondas que anulan la efectividad de RFID. Se denominan también inhibidores de radio- frecuencia. Esta solución es aplicable a entornos de máxima seguridad, no compatible con situaciones en las que ciertas lecturas deben ser permitidas y otras no.
  • La inutilización de las etiquetas una vez se haya realizado la transacción, destruyéndola físicamente, o mediante el comando KILL.

Con esto, finaliza la breve y básica introducción a RFID; si quieren indagar más en el tema, pueden seguir con la Guía sobre seguridad y privacidad de la tecnología RFID que ha publicado INTECO, y con los múltiples recursos que ofrece la red sobre esta tecnología tan interesante como potencialmente peligrosa.


Seguridad en Cloud computing

Seguridad en Cloud computing: “

He decidido poner el término Cloud computing en el titulo del post para tener mas visitas, ya que es un termino de moda, pero si me disculpan la pequeña “trampa”, en su lugar voy a hablar de la seguridad en Infraestructuras compartidas, que es un tema tanto o más interesante en seguridad.

Cuando hablamos de Infraestructuras compartidas nos referimos a la serie de infraestructuras TI que en cualquier organización son compartidas por diversos proyectos. Por ejemplo es habitual que se comparta la infraestructura de red, el almacenamiento en una cabina de discos, o los mismos servidores físicos mediante virtualización; si es un proveedor de servicios el que ofrece la infraestructura, estos elementos estarán compartidos además entre diversos clientes que en si mismo son organizaciones diferentes (vamos, el servicio de hosting de toda la vida).

Así pues, vamos a comentar diversas vulnerabilidades que con las medidas adecuadas están contempladas y en teoría resueltas, pero que son en todo caso posibles vulnerabilidades que pueden aparecer cuando se comparten infraestructuras.

Infraestructura de red compartida: No es difícil imaginar un escenario donde tenemos varios servidores conectados a la misma infraestructura de red, donde, si todo se configura bien no deberían haber problemas, pero si se configura mal, pueden pasar entre otras las siguientes cosas: (1)

  • Sniffing: Un equipo puede ver el trafico del equipo de al lado; esto puede pasar si están conectados al mismo switch y no se han tomado las necesarias precauciones (arp posisoning).
  • DOS: Al estar un equipo próximo a otro, puede atacarlo con un gran ancho de banda o un gran numero de conexiones.
  • Interceptar/sustituir: Es posible que un equipo pueda suplantar a otro (p.e. cambiando la IP) para interceptar el trafico o suplantar respuestas.
  • Atacar: Es posible que al compartir una misma infraestructura de red, desde dentro de la misma red (por ejemplo dentro de la misma DMZ) los equipos puedan atacar a los otros, teniendo mas visibilidad de servicios que desde el exterior están cerrados. Una descripción de cómo hacer esto pueden encontrarla aquí.

¿Están las infraestructuras de red compartidas convenientemente independizadas en los servicios de hosting y de Cloud?

Infraestructura de disco compartida: En cualquier infraestructura TI, es habitual que se disponga de una cabina de disco (SAN/NAS) a la que se conectan todos los servidores (desde servidores internos, hasta servidores de la DMZ)(2)

  • Acceso a datos (no autorizados): Técnicamente es posible que un servidor se conecte al disco de otro servidor si comparte cabina, con lo que podría leer o incluso alterar los datos. Las cabinas de disco normalmente limitan qué servidor puede conectar a qué parte de disco, basándose en la direccion “MAC” (se llama WWN) de la tarjeta. ¿Podría un hacker cambiar esa dirección? ¿Tenemos hard-zoning para evitar este ataque? Aun no he visto ninguna instalación en que se configure hard-zoning ya que es bastante mas incómodo. Si piensa que es muy raro que todos los servidores tengan acceso a los mismos discos, piense en todos sus servidores host de virtualizacion que pueden acceder a todos los discos del cluster.
  • DOS/Carga: ¿Qué pasa si un servidor monopoliza todos los recursos?
  • Acceso a datos borrados: ¿Qué pasa si montamos una unidad de disco en el servidor de un cliente y luego la conectamos a otro servidor de otro cliente? ¿Si leemos el disco vemos los datos del otro cliente? Muchos me diréis que es una posibilidad muy extraña ya que las cabinas de discos limpian las LUNs antes de asignarlas, pero esto “se le paso” a Amazon Ec2.

¿Están las infraestructuras de almacenamiento convenientemente independizadas en los servicios de hosting y de Cloud? (3)

  • Virtualización: Cualquier entorno TI de hoy en día dispone de servidores virtualizados, ya que es una de la manera mas efectivas de compartir recursos, garantizar la disponibilidad, ahorrar energía y muchas otras cosas. Numerosos sistemas Cloud (IAAS) están basados fundamentalmente en sistemas virtualizados, con APIs de autoprovisionamiento. Veamos algunos de los ataques que se pueden realizar en este tipo de entornos.

    • Ataques de guest a host: Ya han aparecido vulnerabilidades mediante las cuales un guest ha podido ejecutar código en el espacio del host, y por lo tanto desde un servidor virtual es posible atacar a otras maquinas virtuales. Véase este enlace para más detalles.
    • Consolas remotas compartidas (el “control panel” del cloud): Si tenemos un sistema de virtualización compartido, al cual accedemos desde una consola de gestión remota a través de Internet, ¿qué pasa si esta consola de gestión tiene alguna vulnerabilidad y alguien coge el control? Pueden haber muchos posibles problemas, desde vulnerabilidades de la aplicación de gestión remota (XSS para robo de sesión sería un ataque viable) a posibles pérdidas de credenciales. La autenticación de estos sistemas por ahora es simple y sin dispositivos robustos. Otro vector de ataque pueden ser las APIs de gestión de ofrecidas por los servicios de cloud, ya que mediante estas APIs se pueden crear o destruir servidores; ¿seguro que no hay vulnerabilidades mediante las cuales se puedan crear o destruir servidores de otro cliente?
    • Carga/DOS/QOS: ¿Qué pasa si un cliente monopoliza todos los recursos?
    • Vulnerabilidades del host (desde fuera, o desde los guests): El host es otro sistema que puede ser atacado, bien desde donde sea accesible (consola de gestión p.e.) o bien desde los propios guest que debido a alguna vulnerabilidad son capaces de coger control de host. Dicho de otra forma, aunque uno pueda tener su servidor web y sus aplicativos securizados, quizá el host que los alberga no lo está.

  • Servidores web/servidores de aplicaciones compartidos: Es habitual compartir el mismo servidor de aplicaciones entre diversos proyectos, pero hay que contemplar los problemas que nos podemos encontrar:(4)

    • Tienen acceso al mismo almacenamiento.
    • Son el mismo usuario de maquina/BBDD/memoria.
    • QOS: Puede un usuario degradar el rendimiento de todos los usuarios.

    Un ejemplo de estos servicios en la nube son: Windows azure o Google Application Engine.

¿Están las infraestructuras de virtualización convenientemente independizadas en los servicios de hosting y de Cloud?

Hosting/Aplicaciones SAAS compartidas: Dentro de lo que está tan de moda del cloud, también se incluyen de alguna manera las aplicaciones compartidas modelo cloud (SAAS). En el fondo, éste es el modelo mas antiguo de hosting, en el que las aplicaciones originales eran servidores web, servidores de correo compartidos entre diversos clientes. Hoy en día se ofrecen aplicaciones mas elaboradas que ofrecen más valor a las organizaciones. Veamos qué problemas nos podemos encontrar en estos modelos.

Imagínese que comparte aplicación entre “perfiles” o clientes. Es posible que dos usuarios de la misma aplicación, por algún error de diseño de ésta, tengan acceso a lectura o modificación de otro usuario. Por ejemplo, recordarán que hace poco sucedió que un usuario de facebook podía ver cualquier conversación del chat de otro. Así pues, si usamos de manera compartida una “aplicación” SAAS, nos podemos encontrar con posibles problemas si no ésta no está bien implementada. ¿Podría pasar que en nuestro CRM en SAAS por un error de programación pudiéramos ver los clientes de otra empresa también albergada en este SAAS? Facebook tuvo una vulnerabilidad con la que podías ver los chats de otros usuarios.

¿Están las aplicaciones convenientemente independizadas en los servicios de hosting y de Cloud? (5)

Mira por dónde, sin quererlo, he acabado hablando de Cloud Computing, nada nuevo respecto a lo que ya conocemos en cuanto a infraestructuras compartidas, pero sin duda una novedad en cuanto a que está todo junto, con las ventajas que esto aporta, pero con el añadido que hay que considerarlo todo conjuntamente.

Por repasar los tipos de Cloud existentes:

  • IAAS, Infraestructure as a service: básicamente podríamos decir que tenemos una macroplataforma virtualizada bajo demanda (1)(2)(3).
  • PAAS, Platform as a Service: tenemos una especie de servidor de aplicaciones distribuido y autoescalable (4).
  • SAAS, Software as a Service: tenemos una aplicación general la cual nos da servicio (5).

En este post hemos revisado algunas vulnerabilidades desde un punto de vista técnico que aparecen si compartimos infraestructuras. Desde el punto de vista de control sobre los servicios externalizados y concentrados en datacenters de megacorporaciones también hay mucho que hablar, y por otro lado los proveedores de sistemas virtuales están redefiniendo sus productos haciendo que cada vez se parezcan mas a una nube “privada” en cuanto a que se dispone de unas infraestructuras compartidas autogestionadas. Todas la posibles vulnerabilidades mencionadas sólo son posibles puntos de fallo por donde aparecerán vulnerabilidades, que aunque en principio ya están contempladas y cubiertas, debemos contar que irán apareciendo nuevas vulnerabilidades causadas por compartir infraestructura. Si dicha infraestructura es sólo compartida entre proyectos internos de la organización los riesgos son unos, pero si la infraestructura es compartida con no sabemos quién, y disponible en Internet los riesgos son mayores. Esto es lo que hay que saber valorar.

A pesar de ello, los servicios en Cloud son la evolución lógica de hosting (infraestructuras compartidas de toda la vida). Todo lo que tuviera sentido en ese entorno ahora lo puede tener en la nube; en todo caso los proyectos que necesitan una grandísima escalabilidad normalmente están asociados a accesos desde Internet, en cuyo caso la nube tiene todo el sentido del mundo, ya que nos permite acceder a proveedores con grandes capacidades de almacenamiento, ancho de banda y servidores. Es más, me atrevería a apostar que los proveedores serios de Cloud sí tienen en mente que todos los recursos compartidos deben estar independizados, y probablemente sean más conscientes de estos riesgos que los provedores de hosting más tradicionales, con aproximaciones más “ligeras” al Cloud.

Dicho esto, pasen un buen fin de semana, y ¡¡nos vemos en la nube!!


You should check out Seesmic Web (http://seesmic.com/web) because


Control de la integridad de los servidores

Control de la integridad de los servidores: “

Control de la integridad

Cuando un servidor a sido “pirateado” el atacante suele enmascarar su paso borrando las huellas en los diarios de actividad, los ficheros log. Además puede instalar un serie de herramientas que le permiten crear una puerta trasera para poder volver a entrar sin dejar ningún tipo de huellas. Algunos, rizando el rizo, piensan en corregir la vulnerabilidad que les ha permitido entrar para evitar que cualquier otro pirata informático pueda entrar.

Su presencia en un servidor se puede detectar con algunos comandos de administración que permiten presentar la lista de procesos en ejecución o más sencillamente la lista de usuarios conectados. Desgraciadamente existen unos programas, llamados rootkit, que se encargan de sobrescribir la mayoría de las herramientas del sistema y remplazarla por comandos equivalentes que enmascaren la presencia del pirata informático.

Está claro que, en ausencia de signos de deterioro, puede ser muy difícil para un administrador de sistemas de darse cuenta que una máquina a sido atacada. Cuando aun así nos encontramos con la prueba de una intrusión es necesario intentar darle una fecha probable al ataque para así poder determinar su posible extensión a otros servidores.

Análisis de la presencia de rootkits

Algunas herramientas, como por ejemplo chkrootkit, ver la web http://www.chkrootkit.org/, permiten identificar la presencia de rootkits en un sistema. Esto estaría muy bien si no fuese que para utilizar este tipo de herramientas es necesario estar seguro de la herramienta y de la información que nos devuelve pero un sistema que ha sido atacado no puede estar considerado como confiable.

Análisis de integridad

Para poder estar seguro de la integridad de un sistema informático es necesario detectar las vulnerabilidades cuanto antes. Este es el objetivo que persiguen programas controladores de integridad como puede ser Tripwire (http://sourceforge.net/projects/tripwire/).

El programa Tripwire, desarrollado en 1992 por Gene Kim y Eugène Spafford, permite asegurar la integridad de los sistemas vigilando de manera permanente las modificaciones efectuadas a ficheros o directorios concretos. Tripwire efectúa un control de integridad y mantiene al día una base de datos de las firmas de dichos ficheros o directorios. A intervalos regulares inspecciona las siguiente características de los ficheros para identificar cualquier modificación y en consecuencia un posible ataque:

  • Permisos
  • Fecha de última modificación
  • Tamaño del archivo
  • Fecha del último uso
  • Firma del archivo.

Las alertas, si las hay , son enviadas por correo electrónico, de manera preferente a un servidor remoto para así evitar cualquier borrado por parte del pirata informático.

Uno de los creadores de este programa, Gene Kim, fundó la empresa Tripwire Incorporated, http://www.tripwire.com/, en 1997 para dar servicio al mercado comercial pero sus dos productos Tripwire Enterprise y Tripwire for Servers son muy similares a la versión Open Source.

Límites al control de integridad.

Para poder utilizar los resultados que nos devuelva un controlador de integridad es necesario estar seguro de la integridad de la máquina en el momento de su instalación. Es bastante complicado configurar este tipo de programas ya que el número de ficheros a vigilar es potencialmente muy elevado, además es necesario, en cada instalación de un nuevo software, volver a configurar estos controladores de seguridad par añadir los ficheros de configuración y los directorios de trabajo de estos nuevos programas bajo control.

Tenemos que tener en cuenta que este tipo de solución puede emitir un número muy elevado de falso positivos, sobre todo cuando el servidor modifica de manera automática ficheros de configuración o ficheros del sistema en el momento de una actualización de este. Mi recomendación es:

  • Desactivar las actualizaciones automáticas de cualquier equipo y en particular de cualquier servidor. Es preferible que una de las tareas diarias del administrador del sistema sea la de decidir si instalar o no una actualización del sistema operativo, de los programas instalados o de un controlador de dispositivo. Esta recomendación no solo es para que tengamos controladas las alertas de los controladores de integridad sino también para que podemos decidir con criterio si tal o tal actualización es necesaria para nuestro equipo. Mi visión particular es que fuera de las actualizaciones de seguridad prefiero tener un servidor un poco menos a la última pero seguro. Si podemos disponer de un servidor de pre-producción entonces recomiendo instalar las actualizaciones no urgentes en ese servidor para probarlas, si no dan problemas las pasaremos a producción.
  • Limitar el número de ficheros y directorios que queramos tener controlados y nos limitemos a los que realmente son importantes.

Programas controladores de actividad:

Tripwire: http://sourceforge.net/projects/tripwire/

Afick: http://afick.sourceforge.net/index.html

Fuente: Blaunia


Share your story with the new Google Translate

Share your story with the new Google Translate: “

(Cross-posted from the Google Translate blog)

Today, you may have noticed a brighter looking Google Translate. We’re currently rolling out several changes globally to our look and feel that should make translating text, webpages and documents on Google Translate even easier. These changes will be available globally within a couple of days.

Google Translate’s shiny new coat of paint


With today’s functional and visual changes we wanted to make it simpler for you to discover and make the most of Google Translate’s many features and integrations. For example, did you know that you can search across languages on Google using Google Translate? Or that you can translate incoming email in Gmail or take Google Translate with you on your phone? We’ve added all these tips on the new Do more with Google Translate page. You can also see some of these tips rotating on the new homepage.

We’ve also created an Inside Google Translate page, where you can learn how we create our translations. Is it the work of magic elves or learned linguists? Here Anton Andryeyev, an engineer on our team, gives you the inside scoop:

It’s always inspiring for us to learn how Google Translate enables people to break down communication barriers around the world. Lisa J. recently shared with us how she uses Google Translate to stay in touch with her grandparents. “I moved to the U.S. from China when I was six,” Lisa told us, “so I speak both English and Chinese fluently but I’m not very good at reading the complex Chinese alphabet.” When she gets an email from her grandparents in China, Google Translate helps her understand the sentences she can’t quite read. She also uses Google Translate when she’s writing her response. “I use Google Translate to make sure I’m using the right character in the right place,” she explained.

Do you use Google Translate to stay in touch with distant relatives? Read foreign news? Or make the most of your vacation? We’d love to hear from you, and invite you to share your story with us. Who knows, we might feature your story on the Google Translate blog!

Posted by Awaneesh Verma, Product Manager