The Information Systems and Computer Applications examination covers material that is usually taught in an introductory college-level business information systems course.

Science

Científicos descubren que la sal de mesa podría sextuplicar la capacidad de los discos duros

(cc) flickr matsuyuki

El doctor Joel Yang del Instituto de Investigación de Materiales e Ingenieria (IMRE) junto a un grupo de científicos de Singapur, ha conseguido mejorar el proceso de fabricación de las unidades de discos duros en base a una capa de solución salina sobre la superficie del disco que permitiría aumentar la densidad de grabación de datos a seis veces la capacidad actual.

Este descubrimiento podría aumentar considerablemente la capacidad de los discos duros sin un incremento drástico en los costos de fabricación y comercialización, siempre y cuando la tecnología SSD no mejore sus costos. Yang de 32 años y que trabaja en conjunto con el MIT gracias a una beca que obtuvo en 2004 para un posgrado (32), asegura que este proceso de fabricación podría comenzar a utilizarse en 2016, “cuando las técnicas actuales se queden sin combustible y los fabricantes de discos duros precisen encontrar métodos alternativos de aumentar el espacio”, aclaró.

El cloruro de sodio, más conocido como sal común permite al patrón de bits que se encuentran en la superficie del disco magnético un mejor orden y distribución de cada clúster. En el formato actual la distribución de este sistema de archivos irregular y lineal es al azar y sin muchas posibilidades de controlar, lo que permite alojar 1 bit de datos por cada 7 nanómetros de ancho de superficie.

Yang descubrió que un grano de sal de 10 nanómetros se puede alojar también 1 bit de información, pero al tener una capacidad de ordenamiento mayor, la densidad de almacenamiento (que originalmente Yang pensaba duplicar con este experimento) se sextuplicó pasando de 3 Terabytes a 18 Terabytes en el mismo disco duro, tal como se ve en la imagen de abajo.

 

Lo único que no aclaró el doctor Yang es si estos discos podrán ser utilizador por usuarios con hipertensión arterial (sé que es malo, pero es el único chiste que se me ocurrió…)

Link: Hard disk space can be increased with a pinch of salt (Wired UK)


A la caza de la energía oscura

 Observatorio Astrof�sico de Javalambre

Durante las últimas décadas la Cosmología ha sufrido avances gigantescos pero aún no tenemos un modelo que dé plena cuenta del funcionamiento del Universo. El hecho de que la velocidad de alejamiento de las galaxias esté aumentando es una evidencia de que el Universo se está acelerando, pero para poder explicarlo es necesario recurrir a la existencia de la energía oscura.

 

Según el modelo más aceptado, el 23% del Universo estaría formado por materia oscura y el 73% por energía oscura, pero de ellas se sabe poco o casi nada. Para poder estudiarlas hace falta conocer su distribución en el Universo y analizar su comportamiento. Esta necesidad hace imprescindible el desarrollo de proyectos con una nueva instrumentación específica, diseñada para hacer estudios a gran escala del Universo que muestreen grandes volúmenes del Cosmos.

 

Para dar respuesta a estas necesidades, se está construyendo el Observatorio Astrofísico de Javalambre (OAJ), en Teruel. Situado en el Pico del Buitre a 1.957 metros de altitud, el observatorio contará antes del año 2013 con dos telescopios de nueva generación, cuyos espejos principales serán de 2.5 metros (T250) y 80 cm (T80) de diámetro. Estarán dedicados fundamentalmente a la realización de un cartografiado en tres dimensiones del cielo, cubriendo un área de 8.000 grados cuadrados en apenas 5 años. El cartografiado permitirá determinar la distancia a la que se encuentran más de 250 millones de galaxias con precisiones mayores del 0.7%, así como estudiar la historia de la expansión del Universo de los últimos 10.800 millones de años.

 

Los datos que se obtengan serán además relevantes para muy diferentes campos de la Astrofísica y la Cosmología, incluyendo objetos a alto redshift, estudio de poblaciones estelares en galaxias y de su evolución, cuásares y galaxias peculiares, grupos de galaxias, estudios galácticos (estrellas del halo, cúmulos globulares) o incluso cuerpos del sistema solar.

 

La fase de ejecución de las instalaciones, que están financiadas a partes iguales por el Gobierno de España y el Gobierno de Aragón, comenzaron en marzo de 2010. El diseño, construcción, operación y explotación científica del observatorio se encuentra al amparo del Centro de Estudios de Física del Cosmos de Aragón. La institución, creada en el año 2008, es el primer centro específico de investigación en Astrofísica y Cosmología de Aragón.

 

Una instrumentación única para un cartografiado único

 

Para poder llevar a cabo el cartografiado de forma eficaz en un periodo de tiempo razonable, los telescopios han sido especialmente diseñados para poder cubrir grandes zonas de cielo en un solo apuntado. Este factor supone un reto tecnológico. A pesar de no ser telescopios de gran diámetro, sus campos de visión, de 3 y 1.7 grados de diámetro respectivamente, los hace únicos en el mundo.

 

Field of View

El T250 será además el mayor telescopio del que dispondrá nuestro país como exclusivamente suyo. Contará con una cámara panorámica de gran campo (JPCam) compuesta por un mosaico de catorce CCDs de gran formato, además de un sistema de 56 filtros que proporcionarán un espectro de baja resolución de cada punto del cielo observado en el rango óptico. Los detectores CCD de 10×10 cm cada uno estarán dispuestos en un área circular de medio metro de diámetro y con cada apuntado se cubrirá un área equivalente a 36 lunas llenas.

 

JPCam, que se encuentra ahora en plena fase de licitación, será la cámara con mayor número de píxeles (unos 1.200 millones) hasta la entrada en funcionamiento del LSST. Su peso estimado es de una tonelada y su costo de más de 4 millones de euros.

 

Un gran almacén

 

Otro de los desafíos que se presentan en el proyecto es la transmisión y tratamiento del volumen de datos que generará el cartografiado. La información que generarán las observaciones una vez terminadas ocupará 1.8 petabytes, equivalente a la capacidad de más de 380.000 DVDs. Para poder gestionarla el CEFCA ha creado la Unidad de Procesado y Archivo de Datos (UPAD).

 

Cada noche de observación se producirán 1.5 terabytes de datos que serán enviados a través de antenas desde el observatorio a la sede del CEFCA y que serán analizados durante la jornada posterior para la validación de la calidad de las imágenes y optimizar las observaciones posteriores. Todos los datos correctamente validados serán tratados de forma automática para generar un gran catálogo de objetos y sus características.

 

La UPAD será la encargada del almacenamiento, transmisión, tratamiento, generación delarchivo de datos y finalmente su puesta al servicio de toda la comunidad científica.

Artículo publicado para el Máster de la UNED Periodismo Científico y Comunicación Científica.


RIM obra la magia y añade soporte para aplicaciones Android al BlackBerry PlayBook

Ya podemos decirlo sin interrogantes, condicionales ni asomo alguno de duda: el BlackBerry PlayBooksoportará aplicaciones BlackBerry Java y Android, incluyendo desarrollo nativo en C/C++, HTML5, Flash, Air y motores de juego como AirPlay y Unity 3. De esta forma, el PlayBook no sólo tendrá acceso a las aplicacionesBlackBerry convencionales, sino a más de 200.000 títulos para Android. Hay truco, porque los desarrolladores deberán portar dichas aplicaciones para hacerlas compatibles mediante dos “app players”, pero RIM señala que será una operación muy sencilla; solo habrá que reempaquetar, firmar el código y enviarlo a la BlackBerry App World.

Por el momento RIM sólo indica compatibilidad con aplicaciones para Android 2.3, así que no sabemos qué planes tiene para Honeycomb. Posiblemente este punto será desvelado cuando lance “en verano” la beta abierta del SDK para BlackBerry Tablet OS y los “app players” necesarios para ejecutar los programas pensados inicialmente para el SO de Google. Sea como sea, con este anuncio el PlayBook acaba de subir automáticamente varios peldaños en la jerarquía tablet.

 


Ya van ha ir a buscarla en cualquier momento:)

Rover Spirit encontró evidencia de agua líquida en Marte

El explorador marciano Spirit lleva más de un año atascado en una trampa de arena, y aunque sus esfuerzos por escapar de ahí moviendo sus brazos y haciendo girar sus ruedas han sido futiles, también le permitieron al robot hacer un descubrimiento.

Mientras pateaba arena para todas partes, Spirit reveló capas más profundas del suelo marciano, y el análisis de las diferencias entre la superficie y lo que hay abajo mostró evidencia de la existencia de agua.

Esto no significa que Spirit está nadando en una poza, sino que los rastros de sulfatos férricos en el suelo rojo se ven como si hubiesen sido causados por una corriente líquida, y es más: parece haber sido marcado hace poco, tal vez en un fenómeno que ocurre durante temporadas específicas en Marte.

 

El mosaico de imágenes (arriba) muestra el suelo frente a Spirit, después de que éste manejara hacia adelante y hacia atrás tratando de salir de su trampa. El brillo y el color del suelo desenterrado indican que el material es rico en sulfatos. La huella marcada sobre el material sugiere que se ha movido agua sobre el suelo, disolviendo y arrastrando sulfatos férricos.

Si Spirit sobrevive el invierno, periodo en el que el rover será puesto en modo de hibernación, podrá seguir investigando esto cuando se despierte.

Link: NASA trapped Mars rover finds evidence of subsurface water (NASA vía PopSci)


Apple probando recubrimientos de nitruro contra arañazos.

Que Apple es una de las empresas más innovadoras en uso de nuevos compuestos no tenemos ninguna duda. Siempre se ha atrevido con materiales que otorgan buenas propiedades a los productos a la vez que confieren una estética cuidada. Esto es lo que sucede con las carcasas unibody o el LiquidMetal. También hay ocasiones en que estar en la cresta de la ola de nuevos materiales provoca enormes quebraderos de cabeza a los ingenieros de la empresa. Pensemos por ejemplo en el policarbonato usado en los MacBooks blancos que a la larga rompen por diferentes zonas, o más cerca de nuestro tiempo, el usado en la carcasa del iPhone 3G/3GS que termina con muchísimos arañazos.

nitruro Apple Apple probando recubrimientos de nitruro contra arañazos

Pensando un poco en esta última problemática, que también encontramos en los portátiles de aluminio por ejemplo, Apple estaría investigando en recubrimientos de nitruro con el fin de evitar los arañazos y manchas del continuo uso de sus gadgets. Contrario a lo que sucede con el nitruro de titanio, que confiere un aspecto de oro al producto que recubre, el nitruro tiene la ventaja de no alterar ni el color, ni la textura del material que cubre, siendo especialmente conveniente para recubrir acero inoxidable. Otra virtud del nitruro es que no es magnético por lo que no interfiere en la señales inalámbricas, algo que en este caso cobra especial importancia.

En la patente presentada en la Oficina de Patentes de Estados Unidos en abril del presente año (pero hecha pública hoy), se propone una lámina de 15 micras de recubrimiento con una dureza Vickers mínima de 1000. Queda a la espera de aprobación por parte del organismo oficial americano. Sólo está por ver si este material acabará en alguno de nuestros gadgets favoritos en un futuro no muy lejano (si no lo ha hecho ya). Por lo menos nos queda la tranquilidad de saber que Apple no está de brazos cruzados en sus investigaciones por obtener mejores materiales para sus dispositivos.

Apple probando recubrimientos de nitruro contra arañazos escrita en AppleWeblog el 29 October, 2010 por Dani Muñoz
Enviar a Twitter | Compartir en Facebook


Nook Color processor revealed: ARM Cortex A8-based TI OMAP3621 from Engadget by Donald Melanson

Barnes & Noble provided most of the specs for the Nook Color when it launched on the device on Tuesday, but notably absent was any word on the processor that powers the e-reader. Thankfully, Texas Instruments has now come out confirmed that the Nook Color uses its ARM Cortex A8-based, 45nm OMAP3621 processor (still no word on the speed). What’s more, the processor is actually part of TI’s eBook Development Platform, which the Nook Color also relies on. That’s particularly interesting considering that the processor and platform support a few features that the Nook Color does not, not the least of which is 3G connectivity. Of course, that doesn’t necessarily mean we’ll see a future Nook Color that takes advantage of those features, but at least we know it’s not too much of a stretch for Barnes & Noble to add them.

Nook Color processor revealed: ARM Cortex A8-based TI OMAP3621 originally appeared on Engadget on Thu, 28 Oct 2010 14:03:00 EDT. Please see our terms for use of feeds.


El batallón que levantaba tanques a pulso.

Muchos de vosotros habréis escuchado hablar sobre el papel que jugó el denominado “batallón fatasma” durante la Segunda Guerra Mundial y sobre el que se va a estrenar próximamente un documental llamado “The Ghost Army”. Esta unidad de 1.100 hombres se encargó de engañar a los alemanes después del desembarco de Normandía con un ejército falso de tanques, jeeps y cañones hinchables que emitía falsas señales de radio y la simulación, mediante grandes altavoces, del ruido que hace al desplazarse una gran división.

Además de engañar a los nazis con su señuelo, la operación dio pie a algunas anécdotas como la que cuenta uno de los supervivientes en la presentación del documental y que podría servir de contexto de la foto que encabeza estas líneas:

“Dos franceses con bicicletas se acercaron al perímetro”, explica el veterano. “No me miraban a mí, miraban por encima de mi hombro. Y lo que creyeron ver es a cuatro soldados (GI) que levantaban un tanque Sherman de 40 toneladas y le daban la vuelta. Me miraron a mí y miraron a la situación buscando respuestas… Y finalmente les dije: “los americanos son muy fuertes”.

Popout

La misión fue secreta hasta 1996 y muchos detalles siguen siendo clasificados. Todos los miembros de la misión llevaban una insignia en la que podía verse un fantasma.

Más info: El ejército fantasma (Historias de la historia) y Ghost Army (Wikipedia) | Vía: dirty.ru

Ver también: John Mulholland, el mago que entrenó a la CIA | La patrulla secreta que filmó el horror atómico


Restauradas las cintas perdidas del paseo lunar del Apolo XI

Buzz Aldrin

Tras tres años de búsqueda de las cintas perdidas de Apolo XI y un exhaustivo proyecto de restauración de seis años, el metraje digitalmente remasterizado del histórico paseo lunar está casi completo.

Gracias a los esfuerzos de un dedicado equipo de restauración de cintas, el metraje mejorado supera la calidad de la emisión en directo que asombró a la audiencia internacional de televisión en el día del histórico evento en 1969.

Un corte de cinco minutos con momentos destacados exhibe un número de los instantes más notables del paseo lunar, incluyendo el descenso de Neil Armstrong a la superficie lunar; la subida de “Barras y Estrellas”; y la famosa llamada telefónica entre los astronautas Armstrong y Buzz Aldrin y el Presidente Nixon.

Grabación clara del paseo lunar

“Lo que tenemos ahora es la grabación más clara del paseo lunar del Apolo XI para las generaciones futuras”, dice Colin Mackeller, historiador del Apolo XI que editó el metraje y fue miembro del equipo de restauración.

Todo salvo los primeros segundos de las dos horas y media finales, proceden del video recibido en Australia.

En el día del paseo lunar, tres estaciones de seguimiento – Goldstone de la NASA en California, y Honeysuckle Creek y el Observatorio Parkes en Australia (que aparece en la película de 2000 The Dish) – tenían la tarea de registrar la emisión en directa transmitida desde la Luna.

Cámara incompatible con la emisión

Las imágenes se tomaron usando una única y pequeña cámara de video unida al módulo lunar, pero la cámara usaba un formato inusual, slow-scan television (SSTV), que es incompatible con la emisión comercial de televisión.

Como resultado, la transmisión SSTV tenía que convertirse en tiempo real a una señal de emisión estándar antes de ser enviada al centro de vuelo de la NASA en Houston para su distribución a las televisiones.

Cuando Armstrong empezó a descender de la escalera, unos problemas con la configuración del equipo en Goldstone dieron como resultado una imagen oscura y difusa que fue televisada a todo el mundo. Aunque los técnicos estadounidenses se apresuraron a rectificar el problema, las televisiones australianas actuaron más rápido cambiando a la entrada más clara procedente de Honeysuckle Creek. Habiendo visto la señal australiana, Houston cambió también, justo a tiempo para ver la imborrable imagen de Armstrong bajando a la superficie lunar.

“La NASA estaba usando la señal de la estación de Goldstone, que estaba mal configurada, pero en las señales recibidas en las estaciones australianas podías ver a Armstrong”, dijo John Sarkissian, astrónomo del cuerpo de investigación científica de Australia, CSIRO, que lideró el proyecto de restauración.

Los momentos destacados por Mackellar empiezan con el metraje original oscuro de Goldstone pero unos segundos más tarde cambia a la imagen de Honeysuckle Creek para mostrar una imagen mucho más clara de Armstrong en la escalera.

Cintas originales borradas

Cuando el Equipo de Restauración y Búsqueda de Cintas de Apolo XI se formó en 2003, la intención era rastrear las cintas en las que se registró por primera vez el SSTV no convertido. Se esperaba que con las técnicas modernas de conversión se podría generar una mejor imagen que no se hubiese degradado por los efectos acumulativos de la conversión y la transmisión por satélite.

No obstante, la búsqueda durante tres años de las cintas SSTV fue infructuosa. Se pensiensa que la NASA tomó las cintas originales y las borró para su uso en misiones posteriores.

Conservadas para las futuras generaciones

“Tras una exhaustiva búsqueda, tuvimos que concluir con tristeza que todas las cintas habían sido devueltas a los Estados Unidos tras la misión, y fueron reusadas posiblemente a principios de la década de 1980. Nadie había esperado acceder al SSTV, por lo que esas pocas cintas no fueron marcadas para ser conservadas”, señala Mackellar.

Resignados al hecho de que las cintas SSTV originales se habían perdido para siempre, el equipo  restauración se propuso rastrear el metraje de mejor calidad entre las grabaciones convertidas de la primera emisión.

Siguió otra laboriosa búsqueda, pero en varios años se habían recopilado un asombroso número de cintas olvidadas de distintos archivos. Aunque las cintas más seriamente degradadas requirieron un extenso trabajo de restauración – incluyendo el único video de Honeysuckle Creek de Armstrong descendiendo de la escalera – el equipo tenía algo que celebrar.

Una vez que el mejor metraje había sido recopilado, la NASA contrató a una compañía especialista en restauración de películas para mejorar la degradada película en blanco y negro y convertirla a su actual formato digital.

De acuerdo con Sarkissian, digitalizar las grabaciones fue significativo en el contexto del vuelo espacial, ya que permitió que se conservaran y copiaran a futuras generaciones.

Ya se avanza que las dos horas y media completas de metraje restaurado estarán pronto disponibles para el público.


Autor: Andrew Letten
Fecha Original: 26 de octubre de 2010
Enlace Original

This page is wiki editable click here to edit this page.


Muere Benoît Mandelbrot, padre de los fractales

Muere Benoît Mandelbrot, padre de los fractales: “

Sección “cola de caballo de mar” de un Fractal (cc) Wikimedia Commons

A los 85 años de edad, el matemático polaco Benoît Mandelbrot ha fallecido. Mandelbrot fue especialmente conocido por su legado en la geometría y conjuntos fractales.

Mandelbrot acuñó el término fractal para referirse a una nueva clase de formas matemáticas cuyos contornos irregulares podrían imitar las irregularidades encontradas en la naturaleza.

Aunque algunos de los objetos matemáticos que presentó en su libro Fractal Geometry of Nature ya habían sido descritos por otros matemáticos como curiosidades aisladas con propiedades no naturales y no-intuitiva, fue este matemático quién desarrolló una teoría innovadora de la “rugosidad” y la aplicó en la física, biología, finanzas y muchos otros campos, como lo explica en su recientemente participación de TED2010.

Las nubes no son esferas, las montañas no son conos, las costas no son círculos, y la corteza no es uniforme, tampoco un rayo viaja en línea recta.

Mandelbrot fue un visionario e inconformista, su énfasis en la intuición visual y geométrica – apoyado por la inclusión de numerosas ilustraciones trazadas por primera vez en computadora – hizo la geometría fractal accesible a los no-especialistas. Incluso despertó un gran interés popular en los fractales y la teoría del caos, al mismo tempo que contribuía en otros campos de la ciencia y las matemáticas.

Puedes ver algunas de las construcciones 3D basadas en fractales en esta galería que publicamos hace un tiempo. Después del salto, algunos videos de Mandelbrot.

Click aqui para ver el video.

Link: Benoit Mandelbrot and his legacy (TED Blog)


Bjarne Stroustrup: “bien hecho, el software es invisible”

Bjarne Stroustrup: “bien hecho, el software es invisible”: “

Si hay un lenguaje del que no hace falta hacer prácticamente ninguna introducción es C++. Desde sistemas operativos a alguno de los videojuegos más populares, prácticamente todo está escrito en esta “extensión” de C que añade básicamente al lenguaje original el concepto de clases (y mucho más, claro está). El lenguaje fue escrito en 1979 por Bjarne Stroustrup en (dónde iba a ser) AT&T Bell Labs y la revista Wired no tuvo mejor idea que hacer a Stroustrup una excelente entrevista en la que habló de todo. Bueno, de software y programación en realidad.

creador cmasmas Bjarne Stroustrup: bien hecho, el software es invisible

Primero, no podía ser de otro modo, habló sobre los orígenes del lenguaje, recordando que fue escrito para él y sus colegas, quienes tenían una serie de problemas cuya solución sería demasiado engorrosa en un lenguaje procedural de bajo nivel como C. “C++ fue el único lenguaje avanzado de su época sin una organización de marketing” y añade que de haberlo intentado, cada laptop hoy podría contar con otro sticker más con la leyenda “C++ Inside”. Un poco exagerado quizás, pero conozco algunas personas a las que no les parecería mala idea. Y si bien reconoce que el crédito por inventar la programación Orientada a Objetos no le pertenece, cree que sí es responsable por hacerlo masivo (y creo que todos vamos a coincidir con él una vez más).

La entrevista se pone interesante cuando le preguntan por la utilidad y la belleza del software. Aquí, Stroustrup responde:

El éxito de un lenguaje no se mide por la belleza de sus declaraciones o por cuán elegante pueda ser. Para mí, la principal satisfacción viene de la implementación de aplicaciones interesantes, verdaderos desafíos que quizás no podrían haber sido escritos sin C++, o cuyo desarrollo podría haberse demorado algunos años sin la existencia de un lenguaje como él.

Y en cuanto a la importancia en sí del software:

Cuando está bien hecho, el roftware es invisible. Hay varios procesadores en mi cámara digital, pero no pienso en ella como en un ordenador. Hay decenas de procesadores en un auto moderno, pero seguimos pensando en él como en un auto.

En general, creo que la gente no aprecia lo mucho que dependemos en el software hoy en día. Dada la complejidad de la sociedad moderna y los sistemas de transporte, no exagero al decir que la mayoría de la población simplemente moriría de hambre sin software, además de que tampoco tendríamos electricidad, calor ni teléfonos.

Clarísimo, ¿no? Es un hecho que a veces olvidamos, creyendo que los únicos ordenadores son aquellos en los que entramos a Facebook… De todos modos, para no pecar de demasiada seriedad, me gustaría terminar la entrada con una porción de la entrevista en la que también estoy de acuerdo, aunque no lo estará la mayoría. Refiriéndose a los smartphones y a los dispositivos móviles, el creador de C++ (quien confesó utilizar una laptop con Windows y un ordenador de escritorio con Linux), dijo:

Sospecho que son igual de positivos que de molestos. Está muy bien que podamos tener en nuestras propias manos una ayuda que nos permita saber cómo llegar a determinado lugar y qué esperar de él, pero estar siempre conectados, siempre disponibles, siempre listos para ser interrumpidos, se mete en el camino. Necesito tiempo para reflexionar en silencio.

Claro que no critica la tecnología, si no el simple uso extremo, que tantos problemas de atención está causando últimamente. Si quieren ver la entrevista completa (en inglés), pueden hacerlo desde Wired.

Vía: k0001

Bjarne Stroustrup: “bien hecho, el software es invisible” escrita en Bitelia el 15 October, 2010 por federico-erostarbe

Enviar a Twitter | Compartir en Facebook


Las 10 mejores infografías sobre las redes sociales

Las 10 mejores infografías sobre las redes sociales: “

Las infografías son un recurso que me apasiona: la posibilidad de resumir en una imagen o gráfico lo que sería necesario decir con muchas palabras. Su dinamismo y su posibilidad de viralizarlas con mayor facilidad que un texto les otorgan aún más valor. No cualquiera se pone a leer un documento, o estadísticas escritas en modo texto; pero es mucho más fácil sentirse atraído por una infografía. Ya hemos compartido anteriormente las 10 mejores infografías asociadas a Linux y las mejores sobre Twitter. Me costó mucho realizar el filtrado este, ya que hay decenas de infografías sobre las redes sociales, pero intenté elegir las que más me gustaron, y las comparto a continuación.

Así que aquí van, las 10 mejores infografías sobre las redes sociales (hagan clic en las imágenes para ir al enlace en tamaño completo):

  • Participación en la web social: un resumen de los usos de las redes sociales en 15 países, basado en los porcentajes de costumbres sobre subir fotos, subir videos, gestionar los perfiles, escribir en blogs y generar microblogging.

info1 Las 10 mejores infografías sobre las redes sociales

  • El prisma de la conversación: sólo eso, un prisma con todos los sitios para participar activamente en la web.

info2 Las 10 mejores infografías sobre las redes sociales

  • El mapa de las redes sociales: presentado en formato de mapamundi, algo siempre amigable.

info3 Las 10 mejores infografías sobre las redes sociales

  • Distribución etarea de las redes sociales: una comparativa de la cantidad de usuarios según al edad, en cada una de las redes sociales más populares.

info4 Las 10 mejores infografías sobre las redes sociales

  • ¿Qué está haciendo la gente en las redes sociales? Una infografía para conocer los distintos perfiles de usuarios y cómo participan en la web.

info5 Las 10 mejores infografías sobre las redes sociales

  • El aumento en el gasto en redes sociales: interesante infografía sobre otro componente clave en el crecimiento de las redes sociales.

info61 Las 10 mejores infografías sobre las redes sociales

  • ¿Cómo los teléfonos celulares están cambiando la web social?

info7 Las 10 mejores infografías sobre las redes sociales

  • Las seis Gs del marketing en redes sociales: ser genuino, generoso y gratificado; y no ser…

info8 Las 10 mejores infografías sobre las redes sociales

¿Cómo las redes sociales están cambiando los negocios? Interesantes datos sobre el uso de las redes sociales en las empresas.

info9 Las 10 mejores infografías sobre las redes sociales

  • 6 años de Facebook: aunque es del año anterior, una de las infografías más completas sobre la red social más popular.

info10 Las 10 mejores infografías sobre las redes sociales

Aquí terminó mi compilado, ¿cuál se la que más les gustó?

Las 10 mejores infografías sobre las redes sociales escrita en Bitelia el 5 October, 2010 por sbortnik

Enviar a Twitter | Compartir en Facebook


La patrulla secreta que filmó el horror atómico

La patrulla secreta que filmó el horror atómico: “
“Una tarde recibí una llamada de Woody Mark. Me dijo “George, te necesito mañana para una prueba especial… las bombas van a volar a 10.000 pies sobre vosotros”. Yo le dije: “Bueno, ¿qué clase de protección voy a tener?”. Y me respondió: “Ninguna”. Entonces recordé que tenía una gorra de béisbol, y me la llevé por si acaso”.

Son palabras de George Yoshitake, un anciano de 82 años y uno de los últimos supervivientes del equipo que el Gobierno de EEUU mantuvo en secreto durante décadas. Su historia dejó de ser clasificada en 1997 cuando el Gobierno decidió sacar a la luz los documentos y admitir que la existencia de una auténtica división cinematográfica establecida en Hollywood y dedicada a fotografiar y filmar en secreto las más de 200 pruebas nucleares que el Ejército llevó a cabo entre 1946 y 1962. (Seguir leyendo)


De aquellos hombres, apenas quedan unos pocos supervivientes. Muchos de ellos murieron de cáncer como consecuencia, probablemente, de las fuertes radiaciones a las que se sometieron sin protección. Aquel equipo arriesgó su vida, como recuerdan en The New York Times, para rodar unas 6.500 películas en las que se veían las explosiones sobre el desierto de Nevada y los atolones del Pacífico y obtener un material que sirvió a los científicos para obtener valiosísimas informaciones sobre el efecto de las bombas y su capacidad de destrucción.

La locura por realizar pruebas nucleares de todo tipo (subterráneas, aéreas e incluso sobre la atmósfera) les llevó a volar pueblos enteros, con maniquíes, coches, zepelines y en ocasiones con animales vivos. El anciano Yoshitake, por ejemplo, confiesa que no se puede sacar de la cabeza los efectos que las pruebas tenían sobre los cerdos, cuya piel guarda cierta semejanza con la humana.

Pero para realizar aquel despliegue no bastaba el esfuerzo de unos cuantos profesionales actuando por su cuenta. En realidad, según se ha sabido después, el Ejército tenía movilizado a un estudio completo, situado en las colinas de Hollywood y cuyas instalaciones estaban rodeadas por alambre de espino. Al menos 250 personas, entre productores, directores y cámaras, trabajaron en aquel estudio secreto situado en la avenida Wonderland.

Sobre aquel estudio se ha escrito un libro (“How to Photograph an Atomic Bomb” ) y se han rodado un par de documentales. Muchos especialistas trabajan todavía en la recopilación y restauración del material filmado aquellos años, uno de los mejores testimonios de la locura que se vivió durante los años de la Guerra Fría. Algunos canales, como Atomcentral, están subiendo a la red algunas de las piezas grabadas por aquel equipo de cineastas fantasmas. Para completar esta entrada, creo que lo mejor es que echéis un vistazo por vosotros mismos a aquel material y recordaros que aún hay miles de armas nucleares como éstas durmiendo en silos de todo el planeta. Ojalá sigan siendo solo un recuerdo del pasado.

Algunas muestras del material filmado por los estudios secretos:

Vía: The New York Times

Otras entradas ‘nucleares’ en Fogonazos:

Volando en el interior de un hongo nuclear

El hombre que vio a través de sus huesos

Agacharse y cubrirse

Cuando las pirámides lanzaban misiles

Hiroshima, el horror que nunca nos quisieron enseñar

Pruebas nucleares con dirigibles

Una luna nuclear

Las bombas del arco iris


DARPA trabaja en cascos militares con “control mental” mediante ultrasonidos

DARPA trabaja en cascos militares con “control mental” mediante ultrasonidos: “

Filed under: ,

Las atolondradas cabecitas de DARPA ya pueden ir pensando en encontrar una buena firma de relaciones públicas, porque van a pasarlas canutas tratando de explicar su última ocurrencia sin quedar como una pandilla de locos enfundados en batas blancas. Y si no, a ver cómo puedes suavizar la idea de que la Agencia de Investigación de Proyectos Avanzados de Defensa está financiando un estudio que contempla el uso de dispositivos transcraneales con el propósito de manipular las funciones cerebrales de los soldados.

El sistema, cuyo estudio se está realizando en la Universidad Estatal de Arizona, utiliza dispositivos de ultrasonidos que podrían ser utilizados desde el casco para estimular distintas regiones del cerebro, permitiéndoles reducir sus niveles de estrés fuera de combate, y aumentando la atención durante las guardias. Es más, hasta se habla de reducir el dolor de las heridas sin el uso de calmantes, e incluso de la posibilidad de usar los ultrasonidos para reducir daños por tumefacción cerebral, y todo ello sin técnicas invasivas como la implantación de electrodos.

Por supuesto, hoy día el ejército de Estados Unidos (entre otros) ya relaja a sus soldados y aumenta su percepción durante periodos de alta tensión mediante el uso de fármacos, pero suponemos que hablar al público de los beneficios de dispositivos de “control mental” como este puede ser un poco más difícil…

[Foto: DVIDSHUB, CC 2.0]

Read | Permalink | Email this | Comments


Introducción a RFID

Introducción a RFID: “

La tecnología RFID (Radio Frequency Identification) permite identificar de manera unívoca automáticamente un objeto gracias a una onda emisora incorporada en el mismo, que transmite por radiofrecuencia los datos identificativos del objeto. Actualmente estamos acostumbrados a encontrar esta tecnología en forma de etiquetas adhesivas, de forma que un objeto con una de estas etiquetas puede ser localizado a una distancia que va desde unos pocos centímetros hasta varios kilómetros, dependiendo de la fiabilidad de varias características de estas etiquetas, como pueden ser la frecuencia de la emisión, la antena o el tipo de chip que se use. En la etiqueta se graban los datos identificativos del objeto al que ésta está pegada, y dicha etiqueta genera una señal de radio que un lector físico se encargaría de recibir, transformar en datos y transmitir dicha información a la aplicación informática especifica (middleware).

La tecnología RFID va dirigida principalmente al sector logístico y al sector de la defensa y seguridad, pero sus beneficios son aplicables a otros ámbitos ya que dispone de múltiples ventajas. Entre otras, podemos citar que permite el almacenamiento de un gran volumen de datos mediante un mecanismo de diminutas dimensiones, automatiza los procesos para mantener la trazabilidad y permite incluir una mayor información a la etiqueta reduciendo así los errores humanos, evita su visibilidad en caso de intento de robo y permite mayor facilidad de retirada de un determinado producto del mercado en caso de que se manifieste un peligro para la seguridad.

Actualmente podemos encontrar dicha tecnología en tiendas de artículos, para identificar los productos y sus precios o como medida de seguridad, en transportes públicos para el control de acceso o de equipajes, en identificación de mascotas implantando un chip subcutáneo, en pago automático de peajes, en bibliotecas, eventos deportivos tipo maratones para identificar corredores, en el ámbito sanitario para control de medicamentos, identificación de muestras, etc.

Basándonos en lo anterior podemos hablar de cuatro componentes básicos en ésta tecnología:

  • Las etiquetas: también conocidas como tags o transpondedores (transmisor+responder). Están compuestas por una antena que se encarga de transmitir la información, un transductor radio que convierte la información que transmite la antena y un microchip capaz de almacenar el numero de identificación y otros datos. Dichas etiquetas tienen un coste de apenas unos céntimos de euro y sus dimensiones son de hasta 0.4 mm². Según la fuente de energía que usen podemos encontrar:

    • Etiquetas pasivas: no necesitan fuente de alimentación interna, son circuitos resonantes. Alcanzan distancias entre unos pocos milímetros y 7 metros. Son de un tamaño menor que el habitual. Se suelen insertar en pegatinas y son las mas baratas del mercado.
    • Etiquetas activas: poseen una batería interna, por lo que su cobertura (cientos de metros) y capacidad de almacenamiento es mayor. Se puede usar en zonas de agua, o con mucha presencia de metales y siguen siendo válidas. Son más fiables y seguras, por lo tanto más caras y de mayor tamaño.
    • Etiquetas semi-pasivas: mezcla de las dos anteriores.

    Según la frecuencia a la que trabajen, las etiquetas se pueden clasificar en baja (125kHz – 134kHz), alta (13,553 MHz – 13,567 MHz ), ultra alta (400 MHz – 1000 MHz ) y microondas (2,45 GHz – 5,4 GHz ). Dicha frecuencia está ligada a diferentes características, como la capacidad de trasmisión de datos, velocidad, radio de cobertura, coste…

  • Lector de RFID: recibe la información emitida por las etiquetas y la transfiere al middleware. Está formado por una antena, un transceptor y un decodificador. Si la etiqueta permite escritura también incorporaría un módulo programador.
  • Middleware: software instalado en un servidor y que hace de intermediario entre el lector y las aplicaciones. Filtra los datos que recibe, para que a las aplicaciones sólo les llegue la información útil.
  • Programadores RFID: dispositivos que realizan la escritura sobre la etiqueta. Codifican la información en un microchip ubicado dentro de la etiqueta RFID.

Además de las aplicaciones citadas anteriormente, se están estudiando otras nuevas aplicaciones de esta tecnología:

  • Pagos electrónicos con móviles a través de la tecnología NFC (Near Field Communication), que permite que un teléfono móvil recupere los datos de una etiqueta RFID. Esto, combinado con medios de pago electrónicos para móviles (Mobipay, Paybox, etc.), permite comprar productos con tal solo acercar el teléfono al punto de información del producto de donde RFID extrae los datos.
  • Pasaportes electrónicos que almacenan la información del titular, fotografía, huella dactilar, etc.
  • Activación de vehículos y maquinaria. La etiqueta actúa en este caso como control de verificación personal.

Como hemos podido observar, la tecnología RFID plantea múltiples e interesantes nuevas oportunidades de mejorar la eficiencia de los sistemas de uso diario además de añadir comodidad, pero dichas mejoras plantean nuevos riesgos, algunos de los cuales veremos en la siguiente entrada de la serie.

(Más información en la Guía sobre seguridad y privacidad de la tecnología RFID que ha publicado INTECO)


Seguridad en Cloud computing

Seguridad en Cloud computing: “

He decidido poner el término Cloud computing en el titulo del post para tener mas visitas, ya que es un termino de moda, pero si me disculpan la pequeña “trampa”, en su lugar voy a hablar de la seguridad en Infraestructuras compartidas, que es un tema tanto o más interesante en seguridad.

Cuando hablamos de Infraestructuras compartidas nos referimos a la serie de infraestructuras TI que en cualquier organización son compartidas por diversos proyectos. Por ejemplo es habitual que se comparta la infraestructura de red, el almacenamiento en una cabina de discos, o los mismos servidores físicos mediante virtualización; si es un proveedor de servicios el que ofrece la infraestructura, estos elementos estarán compartidos además entre diversos clientes que en si mismo son organizaciones diferentes (vamos, el servicio de hosting de toda la vida).

Así pues, vamos a comentar diversas vulnerabilidades que con las medidas adecuadas están contempladas y en teoría resueltas, pero que son en todo caso posibles vulnerabilidades que pueden aparecer cuando se comparten infraestructuras.

Infraestructura de red compartida: No es difícil imaginar un escenario donde tenemos varios servidores conectados a la misma infraestructura de red, donde, si todo se configura bien no deberían haber problemas, pero si se configura mal, pueden pasar entre otras las siguientes cosas: (1)

  • Sniffing: Un equipo puede ver el trafico del equipo de al lado; esto puede pasar si están conectados al mismo switch y no se han tomado las necesarias precauciones (arp posisoning).
  • DOS: Al estar un equipo próximo a otro, puede atacarlo con un gran ancho de banda o un gran numero de conexiones.
  • Interceptar/sustituir: Es posible que un equipo pueda suplantar a otro (p.e. cambiando la IP) para interceptar el trafico o suplantar respuestas.
  • Atacar: Es posible que al compartir una misma infraestructura de red, desde dentro de la misma red (por ejemplo dentro de la misma DMZ) los equipos puedan atacar a los otros, teniendo mas visibilidad de servicios que desde el exterior están cerrados. Una descripción de cómo hacer esto pueden encontrarla aquí.

¿Están las infraestructuras de red compartidas convenientemente independizadas en los servicios de hosting y de Cloud?

Infraestructura de disco compartida: En cualquier infraestructura TI, es habitual que se disponga de una cabina de disco (SAN/NAS) a la que se conectan todos los servidores (desde servidores internos, hasta servidores de la DMZ)(2)

  • Acceso a datos (no autorizados): Técnicamente es posible que un servidor se conecte al disco de otro servidor si comparte cabina, con lo que podría leer o incluso alterar los datos. Las cabinas de disco normalmente limitan qué servidor puede conectar a qué parte de disco, basándose en la direccion “MAC” (se llama WWN) de la tarjeta. ¿Podría un hacker cambiar esa dirección? ¿Tenemos hard-zoning para evitar este ataque? Aun no he visto ninguna instalación en que se configure hard-zoning ya que es bastante mas incómodo. Si piensa que es muy raro que todos los servidores tengan acceso a los mismos discos, piense en todos sus servidores host de virtualizacion que pueden acceder a todos los discos del cluster.
  • DOS/Carga: ¿Qué pasa si un servidor monopoliza todos los recursos?
  • Acceso a datos borrados: ¿Qué pasa si montamos una unidad de disco en el servidor de un cliente y luego la conectamos a otro servidor de otro cliente? ¿Si leemos el disco vemos los datos del otro cliente? Muchos me diréis que es una posibilidad muy extraña ya que las cabinas de discos limpian las LUNs antes de asignarlas, pero esto “se le paso” a Amazon Ec2.

¿Están las infraestructuras de almacenamiento convenientemente independizadas en los servicios de hosting y de Cloud? (3)

  • Virtualización: Cualquier entorno TI de hoy en día dispone de servidores virtualizados, ya que es una de la manera mas efectivas de compartir recursos, garantizar la disponibilidad, ahorrar energía y muchas otras cosas. Numerosos sistemas Cloud (IAAS) están basados fundamentalmente en sistemas virtualizados, con APIs de autoprovisionamiento. Veamos algunos de los ataques que se pueden realizar en este tipo de entornos.

    • Ataques de guest a host: Ya han aparecido vulnerabilidades mediante las cuales un guest ha podido ejecutar código en el espacio del host, y por lo tanto desde un servidor virtual es posible atacar a otras maquinas virtuales. Véase este enlace para más detalles.
    • Consolas remotas compartidas (el “control panel” del cloud): Si tenemos un sistema de virtualización compartido, al cual accedemos desde una consola de gestión remota a través de Internet, ¿qué pasa si esta consola de gestión tiene alguna vulnerabilidad y alguien coge el control? Pueden haber muchos posibles problemas, desde vulnerabilidades de la aplicación de gestión remota (XSS para robo de sesión sería un ataque viable) a posibles pérdidas de credenciales. La autenticación de estos sistemas por ahora es simple y sin dispositivos robustos. Otro vector de ataque pueden ser las APIs de gestión de ofrecidas por los servicios de cloud, ya que mediante estas APIs se pueden crear o destruir servidores; ¿seguro que no hay vulnerabilidades mediante las cuales se puedan crear o destruir servidores de otro cliente?
    • Carga/DOS/QOS: ¿Qué pasa si un cliente monopoliza todos los recursos?
    • Vulnerabilidades del host (desde fuera, o desde los guests): El host es otro sistema que puede ser atacado, bien desde donde sea accesible (consola de gestión p.e.) o bien desde los propios guest que debido a alguna vulnerabilidad son capaces de coger control de host. Dicho de otra forma, aunque uno pueda tener su servidor web y sus aplicativos securizados, quizá el host que los alberga no lo está.

  • Servidores web/servidores de aplicaciones compartidos: Es habitual compartir el mismo servidor de aplicaciones entre diversos proyectos, pero hay que contemplar los problemas que nos podemos encontrar:(4)

    • Tienen acceso al mismo almacenamiento.
    • Son el mismo usuario de maquina/BBDD/memoria.
    • QOS: Puede un usuario degradar el rendimiento de todos los usuarios.

    Un ejemplo de estos servicios en la nube son: Windows azure o Google Application Engine.

¿Están las infraestructuras de virtualización convenientemente independizadas en los servicios de hosting y de Cloud?

Hosting/Aplicaciones SAAS compartidas: Dentro de lo que está tan de moda del cloud, también se incluyen de alguna manera las aplicaciones compartidas modelo cloud (SAAS). En el fondo, éste es el modelo mas antiguo de hosting, en el que las aplicaciones originales eran servidores web, servidores de correo compartidos entre diversos clientes. Hoy en día se ofrecen aplicaciones mas elaboradas que ofrecen más valor a las organizaciones. Veamos qué problemas nos podemos encontrar en estos modelos.

Imagínese que comparte aplicación entre “perfiles” o clientes. Es posible que dos usuarios de la misma aplicación, por algún error de diseño de ésta, tengan acceso a lectura o modificación de otro usuario. Por ejemplo, recordarán que hace poco sucedió que un usuario de facebook podía ver cualquier conversación del chat de otro. Así pues, si usamos de manera compartida una “aplicación” SAAS, nos podemos encontrar con posibles problemas si no ésta no está bien implementada. ¿Podría pasar que en nuestro CRM en SAAS por un error de programación pudiéramos ver los clientes de otra empresa también albergada en este SAAS? Facebook tuvo una vulnerabilidad con la que podías ver los chats de otros usuarios.

¿Están las aplicaciones convenientemente independizadas en los servicios de hosting y de Cloud? (5)

Mira por dónde, sin quererlo, he acabado hablando de Cloud Computing, nada nuevo respecto a lo que ya conocemos en cuanto a infraestructuras compartidas, pero sin duda una novedad en cuanto a que está todo junto, con las ventajas que esto aporta, pero con el añadido que hay que considerarlo todo conjuntamente.

Por repasar los tipos de Cloud existentes:

  • IAAS, Infraestructure as a service: básicamente podríamos decir que tenemos una macroplataforma virtualizada bajo demanda (1)(2)(3).
  • PAAS, Platform as a Service: tenemos una especie de servidor de aplicaciones distribuido y autoescalable (4).
  • SAAS, Software as a Service: tenemos una aplicación general la cual nos da servicio (5).

En este post hemos revisado algunas vulnerabilidades desde un punto de vista técnico que aparecen si compartimos infraestructuras. Desde el punto de vista de control sobre los servicios externalizados y concentrados en datacenters de megacorporaciones también hay mucho que hablar, y por otro lado los proveedores de sistemas virtuales están redefiniendo sus productos haciendo que cada vez se parezcan mas a una nube “privada” en cuanto a que se dispone de unas infraestructuras compartidas autogestionadas. Todas la posibles vulnerabilidades mencionadas sólo son posibles puntos de fallo por donde aparecerán vulnerabilidades, que aunque en principio ya están contempladas y cubiertas, debemos contar que irán apareciendo nuevas vulnerabilidades causadas por compartir infraestructura. Si dicha infraestructura es sólo compartida entre proyectos internos de la organización los riesgos son unos, pero si la infraestructura es compartida con no sabemos quién, y disponible en Internet los riesgos son mayores. Esto es lo que hay que saber valorar.

A pesar de ello, los servicios en Cloud son la evolución lógica de hosting (infraestructuras compartidas de toda la vida). Todo lo que tuviera sentido en ese entorno ahora lo puede tener en la nube; en todo caso los proyectos que necesitan una grandísima escalabilidad normalmente están asociados a accesos desde Internet, en cuyo caso la nube tiene todo el sentido del mundo, ya que nos permite acceder a proveedores con grandes capacidades de almacenamiento, ancho de banda y servidores. Es más, me atrevería a apostar que los proveedores serios de Cloud sí tienen en mente que todos los recursos compartidos deben estar independizados, y probablemente sean más conscientes de estos riesgos que los provedores de hosting más tradicionales, con aproximaciones más “ligeras” al Cloud.

Dicho esto, pasen un buen fin de semana, y ¡¡nos vemos en la nube!!


La orden shun

La orden shun: “

Como cada día 1 de septiembre desde hace unos años, volvemos a la carga con el blog; y como cada día 1 de septiembre desde hace unos años esperamos que las vacaciones hayan sido provechosas en todos los sentidos, que hayan descansado y que vuelvan con las pilas cargadas para los meses que nos quedan (sólo 11) hasta el próximo periodo de descanso estival. Tras el mes de agosto, vamos a comenzar con la marcha habitual en Security Art Work, en este caso con un post de José Luis acerca del filtrado en los dispositivos ASA de Cisco. Vamos allá…

Si en nuestra organización disponemos de un IPS, cuando éste detecta un ataque suele filtrar de forma inmediata el tráfico proveniente de la dirección IP atacante; no obstante, si simplemente tenemos un IDS, una vez que nuestros sistemas de detección han detectado y notificado una actividad potencialmente sospechosa, la primera función que suele llevar a cabo el personal de seguridad es el filtrado manual de las conexiones en el firewall corporativo para, posteriormente, realizar un análisis más minucioso del ataque, una análisis forense e incluso, en caso de ser necesario, proceder a denunciar el hecho ante las FFCCSE. En cualquier caso, la velocidad de respuesta a la hora de llevar a cabo el filtrado de la dirección IP que nos ataca es crítica, ya que cuanto más tiempo pueda tener acceso el atacante a nuestros sistemas, mayor será el daño que nos cause, por ejemplo dejando puertas abiertas para conexiones futuras o directamente robando información.

Aunque debemos tener perfectamente procedimentados y probados los pasos a seguir como respuesta a un ataque -o intento de ataque-, lo cierto es que durante esos momentos de ‘tensión’ lo primero que se suele hacer es, al menos, filtrar todo tipo de acceso desde la IP atacante a nuestros sistemas. En este post se va a tratar una forma rápida y sencilla para llevar a cabo el filtrado de conexiones sospechosas en sistemas firealls ASA de Cisco Systems, los cuales integran otros sistemas como VPN o IPS.

A la hora de integrar un IPS en el sistema ASA, lo habitual es contar con una tarjeta hardware dedicada en el propio equipo o con sensores distribuidos en la red que recopilan la informacion del ataque y envían las órdenes de filtrado al firewall. Puesto que asuminos que no tenemos este tipo de sistemas -si los tuviéramos, el filtrado sería automático, como hemos comentado-, podemos usar directamente la orden shun de ASA para filtrar direcciones concretas de forma cómoda; incluso mediante la creación de varios scripts, podríamos integrar un IDS como Snort con un firewall ASA.

El funcionamiento de la orden shun es sencillo. Su función es básicamente la de finalizar las conexiones ACTUALES y denegar las nuevas conexiones, basándose en una serie de parámetros como pueden ser la dirección IP origen, la dirección o puerto destino, el tipo de protocolo, etc. A su vez, también registra las conexiones filtradas hasta que las direcciones son habilitadas de nuevo en el firewall. Por ejemplo, si nuestro IDS ha detectado un potencial ataque desde una IP externa (para este ejemplo, tomamos la dirección privada 192.168.1.1) hacia nuestro servidor web (con dirección 10.20.20.1), podemos proceder a filtrar la IP externa en nuestro firewall:

ASA# shun 192.168.1.1

Shun 192.168.1.1 successful

401002: Shun added: 192.168.1.1 0.0.0.0 0 0

401004: Shunned packet: 192.168.1.1 ==> 10.20.20.1 on interface outside

401004: Shunned packet: 192.168.1.1 ==> 10.20.20.1 on interface outside

401004: Shunned packet: 192.168.1.1 ==> 10.20.20.1 on interface outside

401004: Shunned packet: 192.168.1.1 ==> 10.20.20.1 on interface outside

Comprobamos que hemos aplicado shunning IDS y aumentan los contadores de tráfico bloqueado:

ASA# show shun stat

outside=ON, cnt=134

inside=OFF, cnt=0

intf2=OFF, cnt=0

Shun 192.168.1.1 cnt=9, time=(0:00:10)

Si en un futuro necesitamos habilitar de nuevo el tráfico desde la dirección IP que hemos bloqueado, podemos hacerlo mediante la siguiente orden:

ASA# no shun 192.168.1.1

401003: Shun deleted: 192.168.1.1

Como vemos, Cisco ASA proporciona una orden rápida y sencilla para bloquear completamente a un atacante en nuestro cortafuegos. Aunque lo ideal es tener un sistema IPS que filtre los ataques de forma automática, en caso de que esto no sea posible, el filtrado manual se vuelve un proceso critico, por lo que debe ser procedimentado y conocido por el personal de seguridad. Y por supuesto debe ser probado de forma periódica, ya que como sabemos, los momentos de tensión son los peores para ponerse a probar…


Urbanears Plattan [FW Labs]

Urbanears Plattan [FW Labs]: “

plattan-1

Urbanears es una empresa escandinava enfocada en ponerle estilo a tus audífonos: es todo sobre color, diseño y estilo, y eso es lo primero que destaca cuando te enfrentas a la caja que envuelve a los Plattan, el par de audífonos que probaremos en esta ocasión. En nuestro caso, son de color verde limón y se ven muy bonitos.

Características principales

El equipo viene en una caja cuadrada muy compacta, donde se nota el interés por el diseño. Dentro nos encontramos con los audífonos como atracción principal, un catálogo con varios modelos de la marca y dos adaptadores del conector estándar que trae el Plattan: uno para Nokia (con tres anillos) y otro de dos anillos para equipos estéreo más antiguos.

Los Plattan tienen un diseño clásico para ubicarlos por sobre la oreja, con un cintillo grueso hecho de una sola pieza de tela para sujetarlos sobre la cabeza. Los audífonos mismos son plástico con un acabado mate, pero el recubrimiento que va sobre la oreja es de tela acolchada para no aplastar tus oídos.

Los audífonos están conectados al cintillo con unas delgadas barras de metal, que permite ajustarlos para el tamaño de tu cabeza, e incluyen una bisagra plástica, que permiten doblarlos para llevarlos un poco más fácil. Se trata de audífonos grandes, pero doblarlos hacia adentro los deja de un tamaño bastante razonable si quieres llevarlos en un bolso o cartera.

El cable es de tela, lo que hace que no se enrede muy fácil, aunque es probable que se ensucie más rápido. Sobre el cable viene además un micrófono con un botón, que permite contestar llamadas telefónicas de Nokia, HTC, BlackBerry e iPhone, por si es que llevas tu música en tu teléfono móvil.

Como curiosidad, el audífono derecho tiene una entrada de audio de 3.5 mm, para compartir la música que estás escuchando con algún amigo.

plattan3

Ajuste y movilidad

Los Plattan son livianos, lo que les da una ventaja al ajustarlos y llevarlos sobre tu cabeza. El que tenga unas pequeñas “bisagras” sobre los audífonos permite algo de flexibilidad al colocarlos, sin embargo, no son los audífonos más cómodos. Después de más o menos una hora de tenerlos puestos comienza a molestar la presión sobre las orejas, haciendo que quieras quitártelos.

El cintillo es blando y cómodo, con un el rango de ajuste aceptable que no debiera causar problemas para la mayoría. Moverse con los Plattan puestos, sin embargo, causa algo de problemas porque el equipo se desajusta y pierde el equilibrio bastante fácil. Para caminar de forma relajada están bien, pero si quieres intentar trotar o moverte un poquito más, estos audífonos no son una buena idea. Lo más probable es que se caigan a los pocos pasos.

plattan4

Sonido

El sonido no es lo mejor de los Plattan. Si bien son audífonos, el equipo está más enfocado al look, y tiene grandes problemas para dar con todos los tonos, especialmente con los bajos, además de falta de claridad de sonido. El equipo no bloquea ruidos externos, pero como mencionamos al principio, los Plattan son una cuestión de estilo más que de calidad de sonido. Considerando que cuestan 60 euros, es esperable que no se trate de un equipo perfecto.

Conclusiones

Los Plattan son bonitos y se ven muy bien, así que si lo tuyo es el look para andar en la calle, estos sí son una buena opción. Sin embargo, si te importa más la calidad de sonido, mejor es invertir en un audífono diferente aunque sea un poco más feo (y probablemente más caro). Los Plattan cuestan US$60 en Amazon y 60 euros en España.

Lo imperdible

  • Bonito diseño y gran variedad de colores
  • Micrófono y botón para contestar el celular
  • Adaptadores para funcionar con casi todos los reproductores de música
  • Precio accesible

Lo impresentable

  • La calidad de sonido deja mucho que desear
  • Después de una hora de uso, la presión sobre las orejas comienza a molestar


Brabus llena de Apple un Mercedes

Brabus llena de Apple un Mercedes: “

custommercedes e1282919644164 Brabus llena de Apple un Mercedes

Brabus es un conocido preparador que trabaja con Mercedes de forma oficial, y en esta ocasión se han fijado en Apple para crear un ambiente único dentro de un Mercedes S600 modificado para la ocasión.

Esta versión tiene instalado un Mac mini en el maletero que está conectado a la pantalla grande que veis en la imagen y se maneja con el Magic Mouse de encima del reposabrazos, mientras que para controlar el coche y echar un rato divertido tenemos dos iPad 3G conectados al sistema del coche y a dos Apple Bluetooth Keyboard. Para completar viene también de serie un iPod touch de 64 GB por si queremos algo más manejable mientras viajamos.

En cuanto al coche, es un Mercedes S600 (el de los peces gordos) tocadito que va de 0 a 100 en 4 segundos, lo cual es más rápido que muchos supercoches. Eso sí, la calidad tiene un precio y en este caso es de 150,000 dólares en adelante.

Fuente | TUAW

Tags: , ,

Artículos relacionados