The Information Systems and Computer Applications examination covers material that is usually taught in an introductory college-level business information systems course.

Archive for October, 2011

Científicos descubren que la sal de mesa podría sextuplicar la capacidad de los discos duros

(cc) flickr matsuyuki

El doctor Joel Yang del Instituto de Investigación de Materiales e Ingenieria (IMRE) junto a un grupo de científicos de Singapur, ha conseguido mejorar el proceso de fabricación de las unidades de discos duros en base a una capa de solución salina sobre la superficie del disco que permitiría aumentar la densidad de grabación de datos a seis veces la capacidad actual.

Este descubrimiento podría aumentar considerablemente la capacidad de los discos duros sin un incremento drástico en los costos de fabricación y comercialización, siempre y cuando la tecnología SSD no mejore sus costos. Yang de 32 años y que trabaja en conjunto con el MIT gracias a una beca que obtuvo en 2004 para un posgrado (32), asegura que este proceso de fabricación podría comenzar a utilizarse en 2016, “cuando las técnicas actuales se queden sin combustible y los fabricantes de discos duros precisen encontrar métodos alternativos de aumentar el espacio”, aclaró.

El cloruro de sodio, más conocido como sal común permite al patrón de bits que se encuentran en la superficie del disco magnético un mejor orden y distribución de cada clúster. En el formato actual la distribución de este sistema de archivos irregular y lineal es al azar y sin muchas posibilidades de controlar, lo que permite alojar 1 bit de datos por cada 7 nanómetros de ancho de superficie.

Yang descubrió que un grano de sal de 10 nanómetros se puede alojar también 1 bit de información, pero al tener una capacidad de ordenamiento mayor, la densidad de almacenamiento (que originalmente Yang pensaba duplicar con este experimento) se sextuplicó pasando de 3 Terabytes a 18 Terabytes en el mismo disco duro, tal como se ve en la imagen de abajo.

 

Lo único que no aclaró el doctor Yang es si estos discos podrán ser utilizador por usuarios con hipertensión arterial (sé que es malo, pero es el único chiste que se me ocurrió…)

Link: Hard disk space can be increased with a pinch of salt (Wired UK)


El error de OPERA parece estar ligado a los relojes

 

error opera

Seguro que os acordáis cuando, hace unas semanas, el experimento conocido como OPERA provocó una ola de entusiasmo entre la comunidad científica y llamó la atención en todo el mundo por poner patas arriba laTeoría de la Relatividad.

Han sido muchos los investigadores que han tratado de encontrar algún error, algo que se les tuvo que pasar por alto a los científicos del CERN. Desde entonces han aparecido más de 80 artículos en arXiv tratando de desacreditar o explicar el efecto.

El último de estos artículos, firmado por Ronald van Elburg, de la Universidad de Groningen (Holanda), cree tener la clave del error y presenta un argumento interesante.

La relatividad especial y el movimiento de los relojes abordo de los satélites GPS que midieron el proceso tienen la explicación.

 

Para empezar, el científico ha tenido en cuenta la distancia y el tiempo empleados en el experimento. El equipo de OPERA estableció que la distancia entre los dos puntos era de 730 km (con un margen de error de 20 cm).

La posición del inicio de la carrera de neutrinos en el CERN era bastante fácil de medir con GPS, pero la del Laboratorio de Gran Sasso, en cambio, resulta algo más difícil de ubicar al estar enterrado a un kilómetro bajo tierra.

Medir el tiempo de vuelo de los neutrinos es otro tema. Los científicos del CERN señalaron que pueden evaluar con precisión el instante en que se crean los neutrinos y el instante en el que se detectan usando relojes en ambos extremos.

Obviamente hay que mantener los relojes de ambos extremos exactamente sincronizados. Para ello, el equipo utilizó satélites GPS, cada uno emitiendo una señal temporal de alta precisión desde una órbita a unos 20.000 km de altura. Esto introduce una serie de complicaciones adicionales que el equipo tuvo que tener en cuenta, tales como el tiempo de viaje de las señales GPS hasta el suelo.

Pero es aquí precisamente donde Van Elburg estima que hay un efecto que el equipo de OPERA pudo haber pasado por alto: el movimiento relativista de los relojes GPS.

En este caso, hay dos marcos de referencia: el experimento en tierra y los relojes en órbita. Estas sondas orbitan de oeste a este en un plano inclinado de 55 grados respecto al ecuador, un ángulo alineado con la ruta de los neutrinos.

Desde el punto de vista del reloj en un satélite GPS, las posiciones de la fuente y el detector de neutrinos están cambiando.

Desde la perspectiva del reloj, el detector se mueve hacia la fuente y, por lo tanto, la distancia recorrida por las partículas observada desde el reloj es más corta

Comentó Van Elburg.

Van Elburg cree que el equipo del CERN pasó esto por alto y calcula que este efecto podría haber provocado que los neutrinos llegasen 32 nanosegundos antes. Pero esto debe duplicarse, dado que se genera el mismo error en cada extremo del experimento. Por lo que la corrección total es de 64 nanosegundos, casi exactamente lo que observó el equipo de OPERA.

Esta teoría todavía debe ser revisada por otros científicos, especialmente por los responsables del experimento de los neutrinos.

Si se confirma que Van Elburg tiene razón, el experimento no solo no rompería con la Teoría de la Relatividadde Einstein sino que la reafirmaría.

Vía | Archiv.org


Historia del Software: Oracle

Esta semana venimos dándole duro a las nuevas secciones y hoy viernes no será la excepción. En nuestra flamante sección Historia del Software encontrarán, pues, lo que literalmente les dice el título. En esta primera entrega hablaremos de todos los pormenores históricos de una de las compañías de software más importantes de la actualidad: se trata de Oracle, una empresa multinacional dedicada al desarrollo de programas orientados a los negocios, fundamentalmente sistemas de bases de datos.

Son muchos aspectos los que transforman a Oracle en una empresa interesante, tan interesante como para ser la primera en formar parte de esta sección. La compañía, que es la tercera en tener más ganancias en el mundo del software después de Microsoft e IBM, fue fundada por Larry Ellison, Bob Miner y Ed Oates en 1977, después de que Ellison se inspirara en un libro de Edgar Codd, un científico británico, que trata sobre sistemas de manejo de bases de datos. Ese libro se llamaba algo así como “Un Modelo Relacional de Datos para Grandes Bancos de Datos Compartidos”.

Además del libro de Codd, una de las más grandes inspiraciones de Ellison vino por el lado del Sistema R de IBM, otra base de datos, pero Ellison e IBM nunca pudieron trabajar juntos porque IBM prefirió mantener los secretos de su base de datos y no integrarlos con Oracle. Hasta el momento, no vemos nada raro con esta idea, pero fue realmente exitosa. ¿Por qué sucedió esto? Básicamente, porque Oracle fue una de las primeras compañías en implementar el lenguaje C de programación en sus productos. Gracias a C, Oracle se transformó en un sistema fácil de trasladar a diferentes sistemas operativos, y por ende, en una de las compañías más solicitadas para proveer servicios.

La primera versión de Oracle, Oracle 2, fue comprada en 1979 por la base de la Fuerza Aérea estadounidense de Wright-Patterson, que utilizaba en ese momento un hardware PDP-11. Lo más curioso de todo es que la primera versión estable del producto se llamó Oracle 2 porque los fundadores pensaron que las personas tendrían más confianza en un producto que no pareciera haber sido lanzado al mercado recientemente. Después de adquirir su primer cliente, las cosas solamente mejoraron para Oracle.

Pero quizás sea un buen momento para hablar de los fundadores de la compañía, pero más particularmente deLarry Ellison, quien tiene una vida muy interesante y, como podremos apreciar, enigmática. Actualmente es la tercera persona más rica de los Estados Unidos (podemos ver cuánto ingreso está teniendo Oracle como para lograr esto), y ni siquiera terminó su carrera universitaria. Una de las partes más enigmáticas de su vida se refiere a su posible colaboración con la CIA en las épocas de la versión 1 de Oracle. De hecho, el nombre Oracle proviene de un proyecto para la CIA en la que todos los fundadores estaban trabajando durante una estadía en la corporación Ampex. Miner, por su parte, también tiene una buena serie de aportes al mundo de la programación, sobre todo por sus desarrollos en el lenguaje C.

Pero ahora, volvemos a la historia de Oracle. El hecho de que su esqueleto básico hubiera sido formado en C facilitó que Oracle se propagara entre las compañías como pólvora. La empresa, que hasta el momento se llamaba Software Development Laboratories o SDL, decidió cambiar su mote por aquel de su producto principal y pasó a llamarse Oracle Corporation en 1982. Tan sólo dos años más tarde, se produjo su desembarco en el sistema operativo Windows, aún joven por esas épocas, corriendo en el sistema MS-DOS y ocupando solamente 512K de memoria. Un segundo gran éxito de Oracle se produce en 1986, cuando sus acciones se hacen públicas en la bolsa: a través de esta acción la compañía sumó 55 millones de dólares de ganancias.

A comienzos de los años ‘90, comenzaron los problemas. En el primer año de la década la compañía comenzó a reportar pérdidas, y, tres años más tarde, en lo que Ellison llamó un “enorme error de negocios”, Oracle casi se va a la bancarrota por declarar, a través de un sistema algo enrevesado, más ganancias de las que estaba haciendo realmente. La compañía se vio forzada a despedir unos 400 empleados para reducir gastos, pero eventualmente se recuperó, gracias al lanzamiento de productos como Oracle 7, gráficos, reportes, y nuevas funcionalidades. Finalmente, uno de los más grandes avances de Oracle se produce en 1997, cuando incorporan tecnologías SQL y basadas en la web para poder soportar más información en sus bases de datos.

Ahora, nos resta hablar de una de las adquisiciones más importantes de Oracle. La compañía tomó por costumbre adquirir pequeños competidores o empresas que se desarrollaban en áreas de u interés. En 2010,adquirieron Sun Microsystems, creadora de plataformas como Java, MySQL y NFS. Se trató de una gran decisión de negocios y, un mes después de la compra de la empresa, las dos compañías se fundieron en una sola para formar Oracle America. Esto le trajo varios problemas con Google, a quien demandó por patentes en varias oportunidades. Sin embargo, no siempre fueron ellos los que hicieron las demandas: el año pasado, el gobierno de los Estados Unidos demandó a Oracle por fraude, debido a una inflación intencional de precios.

La historia de Oracle es muy rica y creo que solamente hemos tenido oportunidad de tocar algunos puntos importantes pero superficiales. Lo que vale la pena destacar es que Oracle, una compañía fundada por un joven que nunca tuvo ganas de terminar la universidad, logró transformarse con el correr del tiempo en una de las tres más grandes compañías del mundo, que más genera ganancias, y en una de las proveedoras de software más grandes del planeta. Es imposible, si alguna vez hemos trabajado en una gran empresa, que no hayamos tenido algún tipo de contacto con Oracle. Esto demuestra la magnitud de sus operaciones. Por supuesto, como toda gran empresa, tuvo algunas prácticas más que cuestionables; casi se trata algo propio del mercado, estas actividades que muchas veces tienden a volverse algo monopólicas. Hoy en día, Oracle se encuentra ante el desafío de poder pararse ante la competencia de SAP, con quien está en una batalla legal desde hace años por competencia deseal. Un desafío difícil de lograr, considerando el tamaño de las dos compañías.


Dispositivos IPS vs DDoS de Anonymous

Últimamente los ataques DDoS están ganando cierta importancia en el entorno de seguridad, sobre todo por parte de los ataques que Anonymous lanza contra diferentes compañías u organismos gubernamentales o no gubernamentales. Independientemente de nuestras ideologías o de si estamos a favor o en contra de estos movimientos, nuestro deber como profesionales de seguridad es intentar que la empresa para la que trabajamos no sufra ninguna interrupción en su servicio.

Se me ocurrió escribir este artículo raíz de una experiencia vivida en un cliente con un ataque de denegación de servicio del estilo de los que lanza Anonymous. Después de este ataque pasaron un elenco de comerciales de las diferentes marcas vendiéndonos las excelencias de sus productos y como me pico la curiosidad me puse a investigar que ofrecían los fabricantes para protección contra DDoS. Voy a intentar explicar como se comportan los IPS frente a este tipo de ataques y plantear algunas soluciones.

Para los que no sepáis nada de los ataques que Anonymous suele lanzar, se tratan de unos ataques DDoS mediante un programa llamado LOIC. Para los que no conozcáis LOIC, se trata de un programa para ataques de denegación de servicio, en la que los atacantes se reúnen en un canal IRC, y delegan ciertas partes de la configuración de LOIC al administrador del canal. Cada uno de los usuarios del canal IRC se convierte en un integrante de una botnet. No voy a entrar en detalle, ya que se ha escrito mucho en internet sobre esto. Solo decir que LOIC lo que generan son peticiones HTTP normales, como las que generamos cuando navegamos con cualquier navegador, pero con un volumen de peticiones por segundo importante.

En la práctica…

En una empresa u organismo de considerable tamaño, del tipo de las que Anonymous se fija como objetivo, deberían tener ciertas medidas de seguridad estas suelen ser a grandes rasgos IPS, Firewall y balanceadores. Sobre las labores que suele realizar cada uno se podría hablar largo y tendido, ya que los fabricantes integran de todo en todas partes, no es raro ver un IPS con ACL al mas puro estilo Firewall, y no es raro ver Firewalls con módulos IPS, en cuanto a los firewall de aplicación esto ya si que es un caos, en teoría un SQL Injection y un XSS lo debería parar un IPS, pero los Firewalls de gama alta suelen incluir un modulo de firewall de aplicación por no hablar de los balanceadores, que también suelen incluir protecciones de este tipo.

Aunque no hay un modelo estandarizado de que arquitectura de como se deben colocar los dispositivos en la DMZ, y esto depende de la calidad de estos, y además daría para otro articulo, lo mas aconsejable y lo que recomienda Garner (la gente famosa del cuadrante mágico), es poner IPS->FW->Balanceadores. Hay gente que coloca el IPS detrás del FW, esta solución es igualmente valida, y se suele aplicar cuando los IPS no son de mucha calidad y no pueden analizar mucho volumen de tráfico, y así evitar que analicen el trafico que el FW ya esta bloqueando.

El primer punto que tenemos que tener en cuenta es como detectar este tipo de ataques, teniendo en cuenta que se trata de peticiones HTTP totalmente válidas. Detectarlo no es tarea fácil. Uno de los métodos para detectarlo seria monitorizar el servidor web de alguna forma. O bien porque detectemos una carga inusual de la CPU o porque tengamos monitorizado el numero de peticiones web que se realizan, esto se puede hacer por algun sistema de correlación y sacando los datos del propio log del servidor.

Una vez que habéis detectado un DDoS y trabajáis en una empresa medianamente grande, todos los jefes o altos cargos que tengan nociones de seguridad van a mirar a los IPS. Los IPS, básicamente lo que hacen es buscar paquetes con trazas concretas en el trafico de red. Nos puede servir para detectar cualquier tipo de ataque tipo SQL Injection, XSS.. o también lo podemos usar para mitigar virus como Conficker. Como veis en la imagen anterior de LOIC, en attack options hay una parte que se llama subtittle, si todos la gente que nos está atacando se pusiera de acuerdo en el ataque y pusiese el mismo subtitulo, si que podríamos generar una firma en el IPS para bloquear esas peticiones HTTP, pero si activan la opción de “append random chars to the URL”, pues nos han fastidiado. No hay manera de diferenciar entra peticiones de ataque o peticiones de usuarios lícitos. Lo ideal seria que los IPS nos permitieran contar el número de conexiones, pero la mayoría de los IPS no son capaces de hacer esto. Y además los IPS no se diseñaron para contar conexiones, se diseñaron más para analizar patrones de trafico. Sobre que un IDS/IPS nos permita contar conexiones va a depender del fabricante. De si este a implementado un modulo con ese fin. Lo normal es que no la incluyan, o que no sea muy fiable.

Entrando en materia:

  1. Una de las soluciones que proponía uno de los fabricantes que mas me llamó la atención, esusar un correlador de eventos como detector de DDoS y usar el IPS para bloquearlo. Es decir, con un correlador correlas el log del servidor web con una regla para que cuente las conexiones web de las direcciones IP durante un tiempo determinado y cuando una IP exceda ese número de conexiones, el correlador se comunica con el IPS y bloquea esas direcciones IP. Por supuesto el fabricante ya tenia un módulo programado entre su correlador y su IPS. Pero podría ser una idea aplicable a cualquier empresa que tenga un sistema de correlación y un firewall, no seria difícil programar una serie de scripts que introdujeran reglas en el firewall. O delegar esta labor a los operadores de red si es que la empresa dispone de una línea de operación 24h.
  2. Otro fabricante proponía otra solución, su producto tenía un sistema o algoritmo de aprendizaje. Con lo que la idea era activar el modo aprendizaje una semana en el que se suponía que el tráfico iba a ser normal, el IPS aprendía ese patrón de tráfico. Una vez realizado el aprendizaje se supone que el IPS podría detectar volúmenes o patrones de tráfico anormales. Esta solución no es especifica para Ataques de tipo Anonymous y me resultaba un poco descabellada. No conozco al detalle como funciona el algoritmo de aprendizaje, pero suponer que una semana, o un mes tras otro, el trafico va a seguir siendo parecido me parece poco sensato, y dependería de a qué se dedica la empresa. Lo cierto es que con reglas así podríamos llegar a bloquear tráfico totalmente lícito y normal, con lo que eso supondría para las empresas.
  3. Investigando por la red encontré información de otro fabricante que ofrecía una solución muy parecida al anterior, tenía un sistema heurístico que era capaz de detectar cambios en los patrones del tráfico de red, pero esta vez sin proceso de aprendizaje.
  4. Por otro lado, tenemos snort que sí que permite definir una regla de tipo threshold para contar conexiones. Esto es básicamente lo que comentaba al principio: contar las conexiones. Pero tenemos que tener en cuenta que snort es en su origen un IDS, aunque se pueda configurar para que también haga labores de IPS. No he podido comprobar si la versión comercial de este IPS propone la misma solución.
  5. Mas tarde y hablando con gente del sector e investigando encontré un aparato que casi sin querer hace justo lo que se necesita para parar este tipo de ataques: se trata de unbalanceador de carga web. Como ya sabréis la mayoría, un balanceador de carga web se coloca justo delante de los servidores web y lo que hace es gestionar las conexiones web repartiendo la carga entre varios servidores web. Algunos implementan un módulo para no colapsar esos servidores y lo que hace es muy sencillo: cuando el balanceador ve que el número de conexiones está saturando los servidores web, empieza a bloquear las direcciones IP que mas conexiones esté generando. Esto es justo lo que se necesita para bloquear los ataques de LOIC. Además tiene algo de sentido parar este tipo de ataques con estos aparatos, ya que son los que se encargan de gestionar las conexiones web y LOIC al fin y al cabo genera conexiones legítimas. Pero esto tiene sus inconvenientes; explicar a los altos cargos de la empresa de que disponiendo una infraestructura basada en IPS en Firewall, vas a tener que usar además un balanceador de carga para parar un ataque de DDoS.
La infraestructura normal de una empresa debería ser la siguiente:

Requisitos y Conclusiones:

  • Tenemos que tener en cuenta que para parar un ataque de este tipo nuestra infraestructura y ancho de banda debe soportar el volumen de tráfico del ataque, y por infraestructura me refiero a todo aparato por el que vayan a pasar las conexiones.
  • Si usamos un balanceador de carga para parar un ataque de este tipo, tienes que explicarle a lospeces gordos de la empresa que aun teniendo IPS y Firewalls, vas a parar el ataque justo antes del servidor. Esto es comparable a decirles que vives en una casa con alambrada y puerta blindada, y al final paras a los malos en la puerta de la cocina.
  • Debe haber muchas otras soluciones de las cuales yo no tengo noticias, así que os ánimo a que expongáis cualquier otra solución que conozcáis en los comentarios.
  • Aunque Snort nos soluciona la papeleta, el que un software de este tipo no tenga un gran fabricante al que echar las culpas cuando falle, suele echar para atrás a las empresas.
—————
Contribución por Manuel Bermúdez

New stolen digital certificates are used by the multi-purpose backdoor Qbot

The criminals behind the Qbot trojan are certainly not inactive. As I mentioned in a blog post earlier this month, after a quiet summer we have seen a batch of new Qbot variants. An interesting fact is that the malicious binaries were digitally signed. The stolen certificate was issued to a company called Word & Brown and was later revoked by Verisign.

Yesterday, the virus-writers built a new variant of this multi-purpose backdoor. It uses a new packer, which is quite distinct from those used in previous releases. ESET’s scanning engine was able to detect the trojan heuristically.

These new samples are again digitally signed using a different certificate to the one used before. The current one was issued to Towers Watson & Co and at the time of this writing, we are working on having this certificate revoked.

ESET security software detects these versions of the trojan as Win32/Qbot.AY. A careful reader may have noticed that the detection name is the same as the one mentioned in my previous post. The reason for this is that, under-the-hood, yesterday’s update isn’t really a new variant. It’s the same malware, but a new packer (outer layer for avoiding detection) and a new digital certificate have been used.

Robert Lipovsky

Malware Researcher


Formas de mejorar la seguridad en tu Android

 

Han pasado algunos meses desde el descubrimiento de DroidDream, el primer virus a gran escala para Android. Desde ese entonces, la seguridad en el sistema operativo para móviles de Google se ha transformado en un tema candente, sobre todo para las personas confiadas en teléfonos en los que guardan muchísima información tanto personal como laboral. DroidDream puso en jaque las expectativas de seguridad de los usuarios y presionó a Google para que pusiera más atención a lo que estaba pasando dentro de las aplicaciones del Market.

Sin embargo no podemos negar que la seguridad de nuestro teléfono debería ser una prioridad cuando no lo es. A veces nos olvidamos que los smartphones tienen acceso constante a internet, y descargamos cualquier cosa que parezca útil o divertida desde desarrolladores no identificados o autorizados. No solamente estamos en riesgo de descargar malware, sino también de perder información a manos de terceros. Hace algunos días les contábamos sobre aplicaciones que pueden secuestrar nuestra información y devolverla pago mediante.

Por eso, armamos esta lista con algunos consejos que seguramente los nuevos usuarios de Android encontrarán muy útiles. Sé que me hubiera venido de maravillas cuando compré mi Android, porque si hay algo en lo que no pensamos es en que alguien puede acceder de forma remota a nuestro teléfono, donde, creámoslo o no, guardamos información muy importante que no tenemos almacenada en ningún otro lugar.

  • Establecer una contraseña: Como siempre, la forma más efectiva de proteger un dispositivo es mediante una contraseña. Dependiendo del modelo de Android que estemos usando, cambian las opciones para crear una contraseña, pero todas estas opciones están disponibles a través del menú de Configuración en el teléfono. Existen variadas formas además de configurar una forma digital en particular para desbloquear el teléfono, incluso, muy útil por si nos roban el equipo. Una vez que tengamos habilitada la seguridad de la pantalla, podremos avanzar con el resto de las funcionalidades de seguridad.
  • Encriptar las contraseñas: Aunque es mejor no guardar las contraseñas en los teléfonos, a veces se vuelve inevitable. Si tenemos una contraseña maestra para todos nuestros servicios, no la guardemos en el teléfono, es una locura. Pero en caso de que no tengamos opción, una buena manera de protegernos es a través del encriptado de las contraseñas. Además, también se recomienda borrar las contraseñas que hayamos ingresado en el navegador para así poder tener un mayor control de las mismas. Esto se puede realizar a través de las configuraciones de seguridad del navegador de Android.
  • Leer cuidadosamente los pedidos de las aplicaciones: Lo más probable es que tengamos instaladas muchas aplicaciones en nuestro teléfono. La gran mayoría de las personas, por confianza, no lee la lista de informaciones que podrá acceder la aplicación en el momento de descargarse. Esto es fundamental, porque si bien podemos estar descargando una aplicación legítima, en cualquier momento puede verse comprometida y cualquier extraño puede tener acceso a nuestros datos móviles. Es como leer el manual antes de usar un producto electrónico: puede ser aburrido, pero nos ahorrará muchos problemas en el futuro.
  • Revisar los comentarios de la comunidad: El Android Market tiene muchos problemas de seguridad en las aplicaciones, pero también tiene una numerosa comunidad dedicada a probar las mismas y comentar en el sitio sobre cuáles son las mejores y cuáles no valen la pena. También hay nutridos comentarios sobre la seguridad, y si antes de descargar una aplicación no queremos leer la lista de permisos, podemos leer entonces los comentarios sobre la aplicación que hayan dejado otros usuarios que sí la hayan probado. Nos puede ahorrar el mal trago.
  • Instalar una aplicación de seguridad: En el Market existen algunas aplicaciones que sirven para aumentar la seguridad del teléfono. Hay varias, pero recomiendo altamente mi favorita, Droidhunter, porque tiene una dinámica muy similar a los antivirus de escritorio. Lo que hace Droidhunter es funcionar como un antivirus dentro del teléfono, manejando las interrupciones, alertas, detecciones, y servicios online activos. Además, busca exclusivamente amenazas destinadas a Android, por lo que es ideal.
  • Descarga solamente aplicaciones del Market: Existen varios sitios desde donde se pueden descargar aplicaciones para Android. Pero para poder garantizar la seguridad del equipo es mejor que descarguemos siempre del Market. La verdad es que si algo está comprobado, verificado y es legítimo, no hay motivo por el cual no se podría descargar desde Market. Que esté disponible de otras formas nada más levanta sospechas.
  • Cuida tus operaciones en WiFi: el WiFi en Android funciona de la misma manera que funciona en la computadora; no sabemos quién está teniendo acceso a los datos que estamos intercambiando con la red. Por eso es fundamental tener un antivirus instalado, pero además es recomendable que no accedamos a sitios que requieran información como contraseñas o datos personales, como puede ser servicios de home banking.
  • Haz un backup de tu información: Hacer un backup en Android es simple, y nunca está de más tener la información almacenada en un lugar alternativo. Con que esto se realice con una frecuencia de dos semanas a un mes está más que bien, para no tener que preocuparnos de forma diaria acerca de esto. Si llegamos a perder el teléfono, ser víctimas de un robo o encontrar nuestra información personal comprometida, tener un backup es la solución. Es algo muy simple de hacer gracias a las facilidades de Android, así que no hay excusas para no tener un backup del teléfono en nuestro ordenador.