The Information Systems and Computer Applications examination covers material that is usually taught in an introductory college-level business information systems course.

Archive for April, 2013

Aside

Las mejores aplicaciones para particionar tu disco by José María

Las mejores aplicaciones para particionar tu disco by José María López

Una manera de organizar el contenido de tu disco es particionándolo. Físicamente, un disco duro forma una única unidad, pero a nivel virtual podemos crear particiones, de manera que para tu sistema operativo será como si tuvieras dos o más unidades de disco, independientes entre sí. Existen una gran cantidad de aplicaciones para particionar tu disco duro. Todas tienen en común su facilidad de uso y su diseño visual, para que no tengas que pelearte con la línea de comandos y con unos pocos clics de ratón particiones tu disco con seguridad.

aplicaciones para particionar tu disco

Las ventajas de hacer particiones en tu disco son muchas, como mantener a salvo tus archivos en caso de perder el sistema operativo o compartir tus documentos con distintos sistemas operativos u ordenadores en red sin comprometer la seguridad de tu ordenador. Para esta tarea, Windows tiene su propia herramienta, pero desgraciadamente es poco intuitiva y encontrar las opciones que necesitas requieren de cierto esfuerzo. Por suerte, existen una gran cantidad de aplicaciones para particionar tu disco duro, de pago y gratuitas, que cubrirán tus necesidades de particionado.

  • EaseUS Partition Master Free Edition: EaseUS es una compañía especializada en la gestión de discos duros. Entre sus programas estrella encontramos, además de particionadores, programas de copia de seguridad, recuperadores de archivos perdidos. EaseUS Partition Master Free Edition es la versión gratuita de este particionador de disco. Es compatible con todas las versiones de Windows (desde 2000 a 8) y, además de crear, leer y eliminar particiones FAT, FAT32 y NTFS, también accede a particiones Linux EXT2 y EXT3. Con ayuda de su asistente o con las funciones avanzadas, este particionador te permitirá crear particiones, copiarlas, eliminarlas, formatearlas y cambiar su tamaño sin pérdida de datos.

  • MiniTool Partition Wizard Home Edition: Este otro particionador de disco es compatible con Windows (XP a 8) y con los sistemas de archivos FAT, FAT32 y NTFS. Además de ser compatible con el arranque UEFI de Windows 8, MiniTool Partition Wizard puede corregir problemas en el MBR (Master Boot Record). Por lo demás, permite también crear particiones, cambiar su tamaño, copiarlas o fusionar dos o más particiones.

  • Paragon Partition Manager Free Edition: Paragon es otra firma especializada en la gestión de datos y discos. Con este particionador podrás dividir tu disco y reformatear particiones con ayuda de prácticos asistentes. Como en los casos anteriores, Paragon Partition Manager ofrece soporte para Windows XP a 8 y para sistemas de archivos FAT, FAT32 y NTFS, además del maquero Apple HFS+.

  • Wondershare Disk Manager: Este particionador es de los más sencillos que puedes encontrar, pero no por ello menos eficaz en su labor. Wondershare Disk Manager es compatible con Windows XP, Vista y 7, y muestra únicamente las opciones que necesitas en cada momento, con un gráfico que representa las particiones y el espacio libre u ocupado.

  • Aomei Partition Assistant Home Edition: Nuestra última recomendación ofrece un aspecto similar a los anteriores. También soporta las versiones más recientes de Windows y los sistemas de ficheros FAT32 y NTFS, además de EXT2/EXT3 de Linux. Con Aomei Partition Assistant puedes particionar discos duros HDD, SSD y memorias USB, así como copiar, mover y mezclar particiones sin perder su contenido.

Estos son sólo cinco ejemplos de aplicaciones para particionar tu disco duro. Existen muchas más, y con las mismas características: facilidad de uso, soporte para la mayoría de versiones de Windows, compatibilidad con los sistemas de archivos habituales (principalmente FAT32 y NTFS), función Deshacer y disco de rescate opcional. Elegir uno u otro dependerá más de una decisión personal que de las opciones que ofrecen, muy similares entre sí.

No está de más recordar que por muy buenas que sean estas aplicaciones, hay que tomar precauciones. Antes de particionar tu disco, asegúrate de qué archivos son los más importantes y realiza una copia de seguridad. En caso que la partición no salga bien, agradecerás contar con ese respaldo.

La entrada Las mejores aplicaciones para particionar tu disco aparece primero en Bitelia.


I’ll be speaking at Percona Live April 24th in Ballroom F by Dathan Pattishall

WHEN YOU SCALE OUT HOW TO SCALE IN BY INCREASING DENSITY USING RAIDED SSD

Sharding-splitting data for a single database server onto many database servers is a method to scale horizontally and is needed to get more disk IOPS from a mechanical hard drive server architecture. A method that works yet has pitfalls, which this session talks about. The focus is what happens when Solid State Disk Drives replaces traditional mechanical hard drives (spinning metal) in a sharded environment and answers to questions like
 
How much more IOPS with SSD?
 
What Raid Levels and Controllers work SSD drives?
 
How do you migrate data from shards to increase density on SSD Shards?
 
Why Multi MySQL, Instances per SSD server is great.
 
How INNODB compression really helps in an SSD environment.
 
This is my 5th or 6th Presentation since the conferences began. I am looking forward to spending time with old friends and people who love to talk about scale, data, technical stuff-like you! Come see me when you get a chance. Note: I will post my slides here.

Crear la infraestructura de nube en Windows Server® 2012 (I de IV): Introducción a los escenarios from Windows Técnico by Umberto Schiavo

Esta entrada pretende brindar información general del proceso de creación de una infraestructura de nube en Windows Server® 2012 para la creación de nubes públicas y privadas de infraestructura como servicio (IaaS). En esta encontraremos una descripción del escenario, aplicaciones prácticas, roles y servicios para habilitarla y vínculos a temas que especifican la manera de implementarla.

El proceso para crear una infraestructura de nube combina la implementación de tecnologías de red, almacenamiento, clúster de conmutación por error y Hyper-V, permitiendo crear de una manera más sencilla nubes basadas en IaaS.

clip_image002_4BFB41FB_thumb2_thumb_thumb

Windows Server 2012 contiene una importante cantidad de características nuevas que ofrecen todas las funcionalidades que se necesitan para crear una solución eficaz de nube de IaaS en una plataforma abierta. Una nube de IaaS basada en Windows Server 2012 disminuye el costo total de propiedad y la susceptibilidad a los errores provocados por problemas de interoperabilidad.

La creación de nubes de IaaS con Windows Server 2012 es mucho más sencilla que en versiones anteriores de Windows Server, ya que se incluye compatibilidad integrada con las siguientes características:

·         Arquitectura multiempresa

Esta hace referencia a la capacidad que tiene una nube de IaaS de admitir cargas de trabajo de máquinas virtuales de varios inquilinos aislándolos unos de otros, permitiendo que todas las cargas se ejecuten dentro de la misma infraestructura. Las distintas cargas de un inquilino individual pueden interconectarse y administrarse de manera remota, pero estos sistemas no se relacionan con las cargas de los demás inquilinos.

·         Centro de datos altamente escalable y con un bajo costo

Se pueden implementar diferentes escalas de nubes, por ejemplo:

–          Una empresa mediana que necesita una pequeña cantidad de servidores (pequeña escala)

–          Una empresa con cientos o miles de servidores (mediana escala)

–          Un proveedor de hospedaje de IaaS con miles de servidores para varios clientes (gran escala)

En todos estos casos, Windows Server 2012 admite características que utilizan alternativas de bajo costo para los recursos de centros de datos tradicionales que permiten la creación sencilla de nubes pequeñas, pero también admite características que permiten operaciones de gran escala.

·         Administración y ampliación del centro de datos

Windows Server 2012 simplifica la configuración inicial del centro de datos y la administración continua mediante la compatibilidad con los flujos de trabajo de PowerShell y PowerShell 3.0. Mediante el conmutador virtual de Hyper-V que ofrece Windows Server 2012, tanto proveedores como asociados pueden ampliar las funcionalidades como supervisión de redes, seguridad o complementos de enrutamiento.

A continuación, se enumeran los roles y características que forman parte de este escenario, y su compatibilidad.

 

Rol / Caracteristica

Compatibilidad con este escenario

Hyper-V

El rol de servidor de Hyper-V hospeda las máquinas virtuales que representan las cargas de trabajo de TI que se ejecutan en la nube de IaaS. Este proceso de creación de una infraestructura de nube aprovecha muchas de las nuevas características de Hyper-V en Windows Server 2012, como por ejemplo el conmutador virtual de Hyper-V, las mejoras en la migración en vivo y la migración de almacenamiento, la réplica de Hyper-V y la medición de recursos.

Clústeres de conmutación por error

La característica de clústeres de conmutación por error permite que un conjunto de equipos actúe como uno solo, lo que proporciona escalabilidad horizontal y conmutación por error a los servicios y recursos en clúster, entre ellos, el almacenamiento y las máquinas virtuales.

Servicios de archivos y almacenamiento

Los Servicios de archivos y almacenamiento permiten que un grupo de almacenamiento esté disponible para el clúster para asignar a máquinas virtuales y para almacenar archivos del disco duro virtual.

Formación de equipos de adaptadores de red

La característica de formación de equipos de adaptadores de red permite agrupar varios adaptadores de red en un equipo que se muestra como un adaptador de red único para proporcionar agregación de ancho de banda y tolerancia a errores.

Virtualización de red de Hyper-V

Facilita la migración a la nube separando la topología lógica de un inquilino de la topología física del centro de datos con una capa de virtualización para la red. Las redes de un inquilino se pueden virtualizar y pueden tener la ilusión de su propio espacio de direcciones IP, que puede ser diferente al espacio de direcciones IP que se usa para crear la infraestructura de nube.

Conectividad entre entornos

Las cargas de trabajo empresariales que se ejecutan en la nube de IaaS de un proveedor de hospedaje deben tener una conexión con la red de empresa y deben poder administrarse. Windows Server 2012 presenta compatibilidad con redes privadas virtuales (VPN) de sitio a sitio, con la adición del protocolo IKEv2 al servicio de enrutamiento y acceso remoto (RRAS) y, asimismo, de un asistente. Este asistente facilita la configuración de conexiones de sitio a sitio entre la red de empresa y la red virtualizada en el centro de datos de un proveedor de hospedaje de IaaS.

Introducción al conmutador virtual de Hyper-V

La plataforma del conmutador virtual de Hyper-V permite a los socios de la red conectarse fácilmente a los flujos de red del conmutador virtual de Hyper-V y crear extensiones de supervisión, seguridad y reenvío.

Tabla 1. Roles / Características incluidos en este escenario

Si quieres aprender más secretos, configuraciones, integraciones, desarrollo de PowerShell te recomendamos leer el libro de Pablo González y Rubén Alonso “PowerShell: La navaja suiza de los administradores de sistemas”. Si quieres conocer las novedades y secretos de la nueva versión del sistema operativo servidor de Microsoft te recomendamos Windows Server 2012 para IT Pros. Si quieres aprender mucho más sobre los secretos de los sistemas Microsoft Windows, te recomendamos leer el libro de Sergio de los Santos “Máxima Seguridad en Windows: Secretos Técnicos”.

Además  si te ha gustado el artículo puedes suscribirte al Canal RSS de Windows Técnico, o seguirnos por el  Canal Google+ de Windows Técnico o Twitter para estar al día de las novedades e información técnica de interés.

clip_image003


Como utilizar una VPN para medir tu velocidad en caso que sospeches de ‘traffic shaping’ by Esteban Zamorano

Las Virtual Private Network (VPN) son un término que ha estado apareciendo frecuentemente en el último tiempo. Se trata de una tecnología de red que te permite ‘simular’ una red local por sobre una red pública como Internet, por lo que es muy utilizado en el sector empresarial ya que además de permitir que un computador se conecte a la red interna de la compañía a través de Internet, también puede cifrar los datos.

Esta capacidad de las VPN para cifrar datos es lo que ha permitido que se convierta en una herramienta increíblemente útil para esquivar los draconianos firewalls gubernamentales de países donde los ciudadanos no pueden navegar libremente en Internet como Irán o China. Además, sirven para simular que uno se encuentra en otro país, por lo que te permite usar servicios no disponibles en Latinoamérica como Hulu, Spotify o Rdio (o Twitter #Music).

Recientemente, las ONG Cívico y Neutralidad Sí! usaron un VPN para medir la velocidad de descarga entregadas por un ISP en Chile a través de redes P2P y YouTube, determinando que se estaba realizando traffic shaping a estos dos servicios, ya que sin VPN, la velocidad se reducía drásticamente.

¿Cómo puedo usar una VPN?

Si bien hay varias formas de conectarse a Internet mediante una VPN, no todos los VPN son gratuitos. Al fin y al cabo, en algún lugar del mundo hay un computador que debe funcionar y tener el suficiente ancho de banda para que desconocidos como nosotros simulen estar en otro país, y de pasada, cifrar nuestros datos. Un buen servicio como StrongVPN.com tiene un costo de USD$55 al año.

Para crear una conexión VPN de forma manual en Windows 7, la forma más sencilla es presionar el botón de inicio y escribir ‘VPN’ para que aparezca la opción del Panel de Control llamada “Configurar una conexión de red privada virtual (VPN)”. Ahí debes llenar los datos de acuerdo al servicio que contrates de VPN, y posteriormente configurar la conexión. No todos los servicios se configuran igual por lo que no tiene mucho sentido describir una configuración en particular.

De momento, la forma más sencilla para conectarse a una VPN es utilizar el servicio que entrega Spotflux, el que es gratuito si uno lo utiliza desde un computador, y simplemente basta con descargar el programa de instalación.

Al instalar Spotflux, las páginas web o cualquier programa que corras en el computador te identificará con una IP estadounidense, por lo que podrás utilizar servicios como Hulu o Rdio sin problemas, y por sobre todo, confirmar por ti mismo si tu ISP está modificando tu velocidad de acuerdo a lo que estás descargando.

Nosotros hicimos la prueba y descargar un video desde YouTube alcanzaba una velocidad de unos 60 KB/s cuando estábamos conectados de una forma normal, la que aumentó a unos 380 KB/s cuando realizamos la descarga del mismo video, a la misma hora, pero utilizando Spotflux. De esta forma se puede revisar la conexión y, en el caso de Chile, presentar reclamos ante la Subtel en caso de encontrar alguna irregularidad.

Link: Spotflux


feedly mobile 14.1 is out: New Title-only View

feedly mobile 14.1 is out: New Title-only View


Windows Técnico by MGarcia Configurar NIC teaming en Windows Server 2012

Network Interface Card (NIC) teaming en Windows Server 2012, es una tecnología que se basa en unir dos o más NIC´s para dar redundancia aumentando nuestro ancho de banda o garantizar en caso de fallo la total funcionalidad de la red (“Failover”) . NIC teaming es también conocido en la industria como “NIC bonding”, “Network Adapter Teaming”, “Load Balancing and Failover (LBFO)”.

VISION GENERAL

Históricamente, el NIC teaming está unido a fabricantes de hardware particulares. Típicamente, estas NICs unidas son incompatibles con los servicios de Windows Server. Windows Server 2008 R2 solo soporta NIC teaming con los protocolos de los fabricantes.  Windows Server 2012 incorpora NIC teaming también con protocolos estándar. Los administradores de Windows podrán hacer uso de estas nuevas funcionalidades:

  • Failover. Si una de nuestras tarjetas de red fallase, de forma totalmente transparente, la otra tarjeta de red asignada al NIC teaming asumirá el tráfico de red.
  • Balanceo de Carga. Podemos repartir las cargas del tráfico de la red entre todas las tarjetas de red unidas al NIC teaming. También se podrá combinar el ancho de banda de varios adaptadores de red individuales como si se tratase de un único adaptador. Por lo tanto si tuviéramos unidos dos adaptadores de red de 1 Gbps podríamos disponer de un ancho de banda efectivo de 2 Gbps.

COMO FUNCIONA EL “NIC TEAMING”

Un NIC team se puede considerar como un solo adaptador de red virtual. Por lo tanto, no hay que configurar los paramentos TCP/IP de los adaptadores del equipo de forma individual, en su lugar, se asigna una dirección IP a la NIC virtual. El NIC teaming soporta de 2 a 32 adaptadores.

A la hora de crear un NIC team se han de tomar varias decisiones para conectar los adaptadores entre si.

  • “Switch independent mode”: Los adaptadores de este NIC team se pueden conectar a switches independientes y toda la topología lógica se realiza en la máquina anfitrión Windows Server. La ventaja de elegir este modo es que el “failover” será transparente para otro adaptador del mismo NIC team en caso de fallo. Asi lo protegeremos de un posible fallo en el switch.
    • “Switch-dependent mode”: Con este modo, todos nuestros adaptadores del NIC team están conectados con el mismo switch. Esta configuración (en general) requiere la configuración del switch asi como la configuración también en Windows Server. Los dos modos de configuración del switch son los siguientes. “Generic or static teaming”. Este modo siempre requiere una configuración manual para NIC teaming en el switch de destino.
    • “IEEE 802.1ax Link Aggregation Control Protocol (LACP) teaming”. Este modo configura dinámicamente el switch de destino del NIC teaming, sin embargo, todavía hará falta una posible configuración manual en el switch.

Por ultimo necesitaremos decidir el algoritmo de distribución del tráfico de red que se va a asignar a nuestro NIC team. Estas son los que podremos elegir:

  • “Address Hashing”: Este algoritmo toma componentes de la dirección de cada paquete (direccion MAC, direccion IP, etc.) y calcula los valores hash que se utilizan en el servidor y / o switch para asignar el tráfico a un adaptador de red en particular.
  • “Hyper-V switch port.” Este algoritmo puede usar las direcciones MAC de las máquinas virtuales “invitado” para asignar paquetes a interfaces especificas del NIC team. Rercordemos que Microsot Hyper-V se pone al frente de la virtualización de Windows Server 2012 y que podemos crear NIC teamings tanto físicos como virtuales. Un ejemplo es crear un NIC teaming para uno o más switches virtuales. Y después de toda la teoría vamos a realizar una configuración del NIC teaming de Microsoft Windows Server 2012 tanto en interfaz gráfica como por Power Shell 3 en línea de comandos.

CONFIGURACION DEL NIC TEAMING

Como se menciona anteriormente se puede crear un NIC teaming en Power Shell 3.0 o con el administrador de servidores. 
Mediante el administrador de servidores se deberá cambiar la propiedad de NIC teaming de “disabled” a “enabled”.

nic1

Figura 1 – Activando un NIC team

A habilitar la opción anterior, aparecerá el siguiente cuadro de dialogo en el que deberemos desplegar el menú contextual que se muestra en la siguiente imagen, para implementar nuestros adaptadores de red al nuevo NIC Team.

nic2

Figura 2- Añadir Adaptadores al NIC team

A continuación aparecerá el cuadro de diálogo que aparece en la siguiente imagen, desde el que podemos visualizar nuestras tarjetas de red, el nombre del NIC Team y establecer las propiedades del mismo.

nic3

Figura 3- Configuración del NIC teaming

Si hacemos clic en el desplegable podremos seleccionar el adaptador de red que permanecerá a la espera para realizar el Failover NIC team.

nic4

Figura 4 – Failover NIC team

Una vez implementado el NIC team, en la carpeta conexiones de red aparecerá una nueva entrada “Adaptador de Red de Microsoft Multiplexor” como se muestra en la siguiente imagen.

nic5

Figura 5 – Adaptador de Red de Microsoft Multiplexor.

En este momento se podrá configurar la dirección IP al conjunto de adaptadores del NIC teaming.

 

NIC TEAMING EN POWER SHELL 3.0

Para crear un NIC teaming con nuestra Power Shell podemos utilizar los siguientescmdlets:

  • New-NetLbfoTeam para crear un nuevo NIC teaming
  • Rename-NetLbfoTeam para renombrar el NIC teaming
  • Remove-NetLbfoTeam para eliminar el NIC teaming
  • Get-NetLbfoTeam para un resumen de nuestro NIC teaming.

Podéis encontrar toda la documentación con los cmdlets aquí.

nic6

Figura 6 – NIC teaming en Power Shell 3.0

Si quieres aprender más secretos, configuraciones, integraciones, desarrollo de PowerShell te recomendamos leer el libro de Pablo González y Ruben Alonso “PowerShell: La navaja suiza de los administradores de sistemas”. Si quieres conocer las novedades y secretos de la nueva versión del sistema operativo servidor de Microsoft te recomendamos Windows Server 2012 para IT Pros. Si quieres aprender mucho más sobre los secretos de los sistemas Microsoft Windows, te recomendamos leer el libro de Sergio de los Santos “Máxima Seguridad en Windows: Secretos Técnicos”.

Además  si te ha gustado el artículo puedes suscribirte al Canal RSS de Windows Técnico, o seguirnos por el  Canal Google+ de Windows Técnico o  Twitter para estar al día de las novedades e información técnica de interés.


An Uncommon Portrait of Alan Turing, Godfather of Modern Computing by Maria Popova

“He might ask you … whether you think a computer could ever enjoy strawberries and cream or could make you fall in love with it.”

It is to Alan Turing — godfather of the digital universevoracious readertragic hero of his era’s inhumane bigotry — that we owe an enormous amount of today’s givens, including my writing this very sentence and your reading it. In Turing: Pioneer of the Information Age (public library), philosophy professor and Turing Archive for the History of Computing director Jack Copeland turns to conversations and correspondence with some of Turing’s closest friends and collaborators to explore the life and legacy of this man of uncommon genius with unprecedented depth and insight.

Copeland succinctly captures the magnitude of Turing’s contribution to contemporary life:

To Turing we owe the brilliant innovation of storing applications, and all the other programs necessary for computers to do our bidding, inside the computer’s memory, ready to be opened when we wish. We take for granted that we use the same slab hardware to shop, manage our finances, type our memoirs, play our of favorite music and videos, and send instant messages across the street or around the world. Like many great ideas, this one now seems as obvious as the wheel and the arch, but with this single invention — the stored-program universal computer — Turing changed the way we live.

 

The first personal computer (Image courtesy Harry Huskey)

 

 

Indeed, it took an exceptional mind — one inhabiting the outermost fringes of the obvious, in every imaginable way — to conceive of such world-changing technology. Copeland goes on to paint a portrait of Turing more dimensional and moving than ever before:

He was a Spartan in all things, inner and outer, and had no time for pleasing decor, soft furnishings, superfluous embellishment, or unnecessary words. To him what mattered was the truth. Everything else was mere froth.

[…]

What would it have been like to meet him? Turing was tallish (5 feet 10 inches) and broadly built. He looked strong and fit. You might have mistaken his age, as he always seemed younger than he was. He was good-looking but strange. If you came across him at a party, you would certainly notice him. In fact, you might ask, ‘Who on earth is that?’ It wasn’t just his shabby clothes or dirty fingernails. It was the whole package. Part of it was the unusual noise he made. This has often been described as a stammer, but it wasn’t. It was his way of preventing people from interrupting him, while he thought out what he was trying to say. ‘Ah… Ah… Ah… Ah… Ah.’ He did it loudly.

If you crossed the room to talk to him, you would have probably found him gauche and rather reserved. He was decidedly lah-di-dah, but the reserve wasn’t standoffishness. He was shy, a man of few words. Polite small talk did not come easily to hi. He might — if you were lucky — smile engagingly, his blue eyes twinkling, and come out with something quirky that would make you laugh. if conversation developed, you’d probably find him vivid and funny. He might ask you, in his rather high-pithed voice, whether you think a computer could ever enjoy strawberries and cream or could make you fall in love with it.

[…]

Like everyone else, Turing craved affection and company, but he never seemed to quite fit in anywhere. He was bothered by his own social strangeness — although, like his hair, it was a force of nature he could do little about. Occasionally he could be very rude. If he thought that someone wasn’t listening to him with sufficient attention, he would simply walk away. Turing was the sort of man who, unusually unintentionally, ruffled people’s feathers — especially pompous people, people in authority, and scientific poseurs. … Beneath the cranky, craggy, irreverent exterior there was an unworldly innocence, though, as well as sensitivity and modesty.

 

Alan Turing

 

 

Turing: Pioneer of the Information Age goes on to trace the making of an extraordinary mind and extraordinary life, from the invention of the Universal Turing Machine — the granddaddy of the modern stored program computer — to Turing’s codebreaking feats during WWII to the tragic and mysterious circumstances of his death.


RIP, Roger Ebert: The Beloved Critic on Writing, Life, and Mortality by Maria Popova

RIP, Roger Ebert: The Beloved Critic on Writing, Life, and Mortality by Maria Popova.


RIP, Roger Ebert: The Beloved Critic on Writing, Life, and Mortality by Maria Popova

 

“Most people choose to write a blog. I needed to.”

How devastating to learn that beloved critic Roger Ebert has died at the age of 70, after a long battle with the cancer that first claimed his jaw and, now, his life. Though I’d followed Ebert’s writing for some time, with the sort of detached appreciation one directs at cultural commentators, it wasn’t until I encountered him in the flesh at TED 2011, where he delivered his brave and stirring talk about learning to speak again, that I found myself in sheer awe of his spirit. A few months later, his memoir, Life Itself (public library), was released and I absorbed it voraciously. Today, some of its most resonant parts come back to mind, a bittersweet reminder of the incredible mind we’ve lost.

 

Roger Ebert (photograph by Anne Ryan, USA Today)

 

 

Ebert begins with an apt and beautiful metaphor for his existence:

I was born inside the movie of my life. The visuals were before me, the audio surrounded me, the plot unfolded inevitably but not necessarily. I don’t remember how I got into the movie, but it continues to entertain me.

In recalling the mismatch between his memory of his childhood home and the reality of the house once he returned as an adult, he captures that ineffable feeling of questioning the very fabric of reality:

I got the feeling I sometimes have when reality realigns itself. It’s a tingling sensation moving like a wave through my body. I know the feeling precisely. I doubt I’ve experienced it ten times in my life. I felt it at Smith Drugs when I was seven or eight and opened a nudist magazine and discovered that all women had breasts. I felt it when my father told me he had cancer. I felt it when I proposed marriage. Yes, and I felt it in the old Palais des Festivals at Cannes, when the Ride of the Valkyries played during the helicopter attack in Apocalypse Now.

The shape-shifting quality of memory is something Ebert returns to again and again:

One of the rewards of growing old is that you can truthfully say you lived in the past. … In these years after my illness, when I can no longer speak and am set aside from the daily flow, I live more in my memory and discover that a great many things are safely stored away. It all seems still to be in there somewhere. … You find a moment from your past, undisturbed ever since, still vivid, surprising you. In high school I fell under the spell of Thomas Wolfe: ‘A stone, a leaf, an unfound door; of a stone, a leaf, a door. And of all the forgotten faces.’ Now I feel all the faces returning to memory.

[…]

I remember everything. All my life I’ve been visited by unexpected flashes of memory unrelated to anything taking place at the moment. These retrieved moments I consider and replace on the shelf. When I began writing this book, memories came flooding to the surface, not because of any conscious effort but simply in the stream of writing. I started in a direction and the memories were waiting there, sometimes of things I hadn’t consciously thought about since.

Thomas Wolfe was, in fact, a big part of how fell in love with reading shortly after his high school graduation:

I read endlessly, often in class, always late at night. There was no pattern; one book led randomly to another. The great influence was Thomas Wolfe, who burned with the need to be a great novelist, and I burned in sympathy. I felt that if I could write like him, I would have nothing more to learn. I began to ride my bike over to campus and steal quietly into the bookstores.

 

Roger Ebert

 

 

Echoing E. B. White’s famous admonition that “writer who waits for ideal conditions under which to work will die without putting a word on paper” and Isabel Allende’s counsel to “show up, show up, show up, and after a while the muse shows up, too,” Ebert shares some invaluable advice:

My colleague late at night, a year or two older, was Bill Lyon, who covered Champaign High School sports and became a columnist for the Philadelphia Inquirer. … Bill and I would labor deep into the night on Fridays, composing our portraits of the [football] games. I was a subscriber to the Great Lead Theory, which teaches that a story must have an opening paragraph so powerful as to leave few readers still standing. … Lyon watched as I ripped one sheet of copy paper after another out of my typewriter and finally gave me the most useful advice I have ever received as a writer: ‘One, don’t wait for inspiration, just start the damn thing. Two, once you begin, keep on until the end. How do you know how the story should begin until you find out where it’s going?’ These rules saved me half a career’s worth of time and gained me a reputation as the fastest writer in town. I’m not faster. I spend less time not writing.

Much like his ability to summon memories without deliberate effort, Ebert’s mastery of the writing process is largely an unconscious act, a state of mesmerism experienced in finding your purpose and doing what you love:

When I write, I fall into the zone many writers, painters, musicians, athletes, and craftsmen of all sorts seem to share: In doing something I enjoy and am expert at, deliberate thought falls aside and it is all just there. I think of the next word no more than the composer thinks of the next note.

He marvels at how the social web, despite his initial skepticism, liberated his impulse for self-expression as his writing took on an autobiographical life of its own:

My blog became my voice, my outlet, my ‘social media’ in a way I couldn’t have dreamed of. Into it I poured my regrets, desires, and memories. Some days I became possessed. The comments were a form of feedback I’d never had before, and I gained a better and deeper understanding of my readers. I made ‘online friends,’ a concept I’d scoffed at. Most people choose to write a blog. I needed to. I didn’t intend for it to drift into autobiography, but in blogging there is a tidal drift that pushes you that way. … the Internet encourages first-person writing, and I’ve always written that way. How can a movie review be written in the third person, as if it were an account of facts? If it isn’t subjective, there’s something false about it.

The blog let loose the flood of memories. Told sometimes that I should write my memoirs, I failed to see how I possibly could. I had memories, I had lived a good life in an interesting time, but I was at a loss to see how I could organize the accumulation of a lifetime. It was the blog that taught me how. It pushed me into first-person confession, it insisted on the personal, it seemed to organize itself in manageable fragments. Some of these words, since rewritten and expanded, first appeared in blog forms. Most are here for the first time. They come pouring forth in a flood of relief.

 

Roger Ebert and wife Chaz, 2011 (photograph by Fred Thornhill/Reuters via The New York Times)

 

 

He captures the diverse spectrum of what we call “journalism,” sharply aware of where he plants his own stake:

I used journalism to stay at one remove from my convictions: I wouldn’t risk arrest but would bravely report about those who did. My life has followed that pattern. I observe and describe at a prudent reserve.

At the heart of cinema, Ebert sees a deep resonance with the human condition:

If you pay attention to the movies they will tell you what people desire and fear. Movies are hardly ever about what they seem to be about. Look at a movie that a lot of people love, and you will find something profound, no matter how silly the film may be.

On the art of the interview:

My secret as an interviewer was that I was actually impressed by the people I interviewed … I am beneath everything else a fan. I was fixed in this mode as a young boy and am awed by people who take the risks of performance. I become their advocate and find myself in sympathy.

On writing as a substitute for the human pleasures that were taken from him by his illness:

What’s sad about not eating is the experience, whether at a family reunion or at midnight by yourself in a greasy spoon under the L tracks. The loss of dining, not the loss of food. Unless I’m alone, it doesn’t involve dinner if it doesn’t involve talking. The food and drink I can do without easily. The jokes, gossip, laughs, arguments, and memories I miss. I ran in crowds where anyone was likely to start reciting poetry on a moment’s notice. Me too. But not me anymore. So yes, it’s sad. Maybe that’s why writing has become so important to me. You don’t realize it, but we’re at dinner right now.

On our relationship with mortality, at once rather complex and rather simple:

We’re all dying in increments.

Complement Life Itself with Ebert’s unforgettable TED talk:


Control de Acceso Dinámico (DAC) – Parte 1 from Windows Técnico by José Miguel

Dynamic Access Control (DAC) es una característica completamente nueva de Windows Server 2012. DAC permite a los administradores de Windows personalizar la autorización para acceder a los recursos de los servidores aplicando lógica condicional en base a peticiones de los usuarios/dispositivos y etiquetas de metadatos. En el primer post de esta serie de cinco se tratará de ofrecer una visión general de la DAC.

Antes de la llegada de Windows Server 2012, los administradores de sistemas Windows se basaban únicamente en la utilización de carpetas compartidas restringiendo a través de los permisos NTFS para asegurar los recursos del servidor de archivos. Incluso con la presencia de las mejores prácticas de control de acceso AGDLP, este esquema de seguridad carece de flexibilidad.

Dynamic Access Control (DAC) es una característica completamente nueva en Windows Server 2012 que recurre a las peticiones y propiedades de los recursos para permitir a los administradores de dominio estables reglas de autorización basadas en condiciones lógicas.

Un pequeño ejemplo

Considere este escenario ficticio pero al mismo tiempo completamente válido:

El departamento IT de la compañía está sujeto a varias regulaciones del gobierno e industria que requieren llevar un seguimiento del control de acceso a los recursos del servidor de archivos de la forma más clara posible.

Por ejemplo, tiene un servidor de archivos al que le ha asignado el nombre de XERXES que aloja una carpeta compartida llamada Documentos_Corporativos. Los archivos confidenciales de esa carpeta deben ser accesible exclusivamente por los empleados del campus de Nashville que poseen control  de seguridad de nivel 1 y tienen acceso a los archivos desde los ordenadores localizados en Nashville.

¿Se te ocurre alguna forma de conseguir este objetivo recurriendo exclusivamente al uso de carpetas compartidas y restricciones a través de permisos NTFS? La respuesta es corta, no se puede: los métodos tradiciones de acceso en Windows no son lo suficiente flexibles.

La buena noticia es que el CAD ha sido diseñado para hacer frente precisamente a situaciones con esta. Incluso se pueden aprovechas las características de auditoría  avanzada integradas en Windows Server 2012 para rastrear el acceso a en función de las necesidades derivadas de los requisitos a cumplir.

A continuación se muestra cómo funciona realmente.

Un vistazo rápido al funcionamiento del DAC

DAC opera en base a las peticiones de los usuarios/dispositivos y las propiedades de los recursos. Las notificaciones son atributos de usuario o equipo basados bien sobre el esquema de atributos del Directorio Activo, y las extensiones a un usuario o bien sobre token de seguridad Kerberos del equipo. Una nueva tecnología denominada Kerberos Armoring es la responsable de las extensiones de los tokens de las cuentas.

Así, a modo de ejemplo, se podría crear las siguientes peticiones del CAD:

·         Usuario: Ubicación

·         Usuario: Habilitación de seguridad

·         Equipo: ubicación

Si el esquema del Directorio Activo no contiene la propiedad que necesita, siempre podrá extender el esquema para acomodarlo a la nueva propiedad.

Desde el lado del servidor de archivos, se crean y despliegan las propiedades de recurso para añadir un significado semántico a las carpetas y archivos compartidos. Considere la propiedad del recurso como si de una etiqueta de metadatos se tratase, y esta a su vez es asociada a un usuario o propiedad del equipo.

En el ejemplo anterior, se podría definir una propiedad al recurso llamada Confidencialidad que admita los siguientes valores: Bajo, medio y Alto.  A partir de aquí se podrían clasificar las carpetas (así como los archivos de manera individual), marcando para cada uno su nivel de confidencialidad.

Desde el Servidor de Archivos de Windows Server 2012, se pueden clasificar automáticamente los recursos del servidor de archivos utilizando la consola del Gestor del Servidor de Recursos de Archivos (FSRM). Por ejemplo, puede programar un escaneado de las carpetas objetivo analizando el contenido de los archivos en buscado la presencia de alguna cadena del tipo “Documento Confidencial”. Los archivos descubiertos pueden ser etiquetados e incluso cifrados con el servicio de Gestión de Derechos del Directorio Activo (RMS).

clip_image002

Ilustración 1, Consola FRSM

Esta tarea puede hacerse desde PowerShell.

El tercer lado de la pirámide que forma el CAD es la Política de Acceso central (CAP). Una PAC consiste en un conjunto de reglas de acceso central (CAR) que definen el acceso a los recursos basados en instrucciones condicionales. Estos argumentos del tipo “si X entonces Y” hacen de vínculo efectivo entre las peticiones del usuario/dispositivo y las propiedades del recurso.

La implementación de los PAC en el dominio puede ser realizada mediante directivas de grupo.

Obviamente, la configuración del CAD requiere de varios pasos, además de lo que se ha definido aquí. A continuación se muestra un diagrama realizado en Visio con la intención de mostrar la relación entre las peticiones, las propiedades de los recursos y las políticas de acceso centrales.

clip_image004

Ilustración 2, esquema de DAC

 

¿Cómo configurar el control de acceso dinámico?

En los próximos post se va a presentar el procedimiento completo para la configuración del CAD, Sin embargo, a modo de resumen:

·         Instalación y configuración del servidor de archivos de Windows Server 2012.

·         Utilización del Centro de Administración del Directorio Activo (ADAC) para definir las peticiones, las propiedades de recursos, listas de recursos de propiedad, reglas de acceso central, y las propiedades de acceso centrales.

·         Utilización de PowerShell para implementar las lista de propiedades de los recursos.

·         Utilización de GPO para implementar las PAC.

·         Utilización de la clasificación manual o automática de los recursos del servidor de archivos, el uso de la consola de FSRM para realizar la clasificación automática.

clip_image006

Ilustración 3, Control Dinámico de acceso de configuración de página en ADAC

Conclusión

No cabe duda, el control de acceso dinámico es una auténtica joya. Sin importar la experiencia priva en administración de sistemas Windows, hay toda una curva de aprendizaje esperando ser recorrida para aprender esta nueva tecnología.

Si quieres conocer las novedades y secretos de la nueva versión del sistema operativo servidor de Microsoft te recomendamos Windows Server 2012 para IT Pros. Si quieres aprender mucho más sobre los secretos de los sistemas Microsoft Windows, te recomendamos leer el libro de Sergio de los Santos “Máxima Seguridad en Windows: Secretos Técnicos” .

 

Además  si te ha gustado el artículo puedes suscribirte al Canal RSS de Windows Técnico, o seguirnos por el  Canal Google+ de Windows Técnico o  Twitter para estar al día de las novedades e información técnica de interés.

clip_image008

 

Fuente: 4sysops.com


WBEMTest – Comprobando la conectividad en WMI from Windows Técnico by uschiavo

Desde las versiones de Windows XP, contamos con una herramienta que muchos no conocen, WBEMTest. Es una herramienta gráfica que se puede utilizar para comprobar la conectividad a sistemas remotos, validar consultas WMI y explorar WMI.

Windows Management Instrumentation (WMI) ha sido durante mucho tiempo la tecnología de gestión para sistemas basados en Windows. Se puede acceder a él desde VBScript, línea de comandos mediante “Wmic.exe”, y PowerShell, sin embargo, la gestión de WMI a través de ellas puede no funcione como se espera.

Podemos acceder a ella a través de dialog box de inicio o en la ventana de ejecutar escribiendo “wbemtest”. Esto nos abrirá una ventana como la siguiente:

clip_image002 
Imagen 1. Ventana de inicio de WBEMTest

Lo primero que debemos hacer es conectarse a un equipo remotamente, para ello presionamos el botón conectar… que tenemos arriba y a la izquierda de la ventana, como se ve en la siguiente imagen:

clip_image004 
Imagen 2. Botón de conectar WBEMTest

Se abrirá una nueva ventana, en ella debemos especificar en el campo del espacio de nombres la ruta de acceso. En las versiones más recientes, por defecto aparece “root\cimv2”, en la que residen todas las clases Win32 y es la más utilizada. Puede utilizarse cualquier otra ruta de ser necesario, no necesariamente es la única a utilizar. Para equipos remotos deben especificarse “\\nombre_del_equipo\root\cimv2”, o “\\IP_destino\root\cimv2”.

Luego en el espacio especificado para credenciales, debemos suministrar las credenciales que tengan los privilegios suficientes para hacer establecer la conexión y hacer las consultas necesarias. En cuanto al usuario se debe especificar “nombre_de_equipo\usuario”, o si está en un dominio se debe especificar “DOMINIO\usuario”.

clip_image005 
Imagen 3. Ventana para realizar la conexión

Una vez suministrado correctamente los datos, la conexión debe realizarse satisfactoriamente y mostrar la primera ventana que vimos, pero esta vez con un espacio de nombres definido, y habilitados todas las posibles acciones.

clip_image007 
Imagen 4. Conexión establecida

De lo contrario, los posibles errores que podrías obtener son “El servidor RPC no está disponible” o “Acceso denegado“. El error de “El servidor RPC no está disponible” puede deberse a que no se encuentra online el equipo remoto, o algún conflicto con el firewall. En cuanto al error de “Acceso denegado” hace referencia a las credenciales, probablemente incorrectas o no poseen suficientes privilegios.

Si quieres conocer las novedades y secretos de la nueva versión del sistema operativo servidor de Microsoft te recomendamos Windows Server 2012 para IT Pros.

Además  si te ha gustado el artículo puedes suscribirte al Canal RSS de Windows Técnico, o seguirnos por el  Canal Google+ de Windows Técnico o  Twitter para estar al día de las novedades e información técnica de interés.

clip_image001

 


Navegando por Internet: ¿Le ganaron las aplicaciones a la web? by Cony Sturm

En 2010, la revista Wired un artículo con un título muy provocador: La web está muerta. Que viva Internet. La premisa es que ya no accederemos a Internet a través de Firefox, Chrome o Internet Explorer, sino a través de montones de aplicaciones dedicadas a servicios específicos – la app de Twitter, la app de correo, la app del New York Times -, reduciendo en el tiempo la importancia que tiene la World Wide Web hoy.

En 2013, la predicción de Wired parece haberse cumplido, al menos en el mundo de los móviles. Según la consultora Flurry, el 80% del acceso a Internet en teléfonos móviles se hace mediante aplicaciones, y sólo el 20% restante a través del navegador en Estados Unidos. Según Flurry, un estadounidense pasa en promedio 2 horas 38 minutos usando smartphones y tablets. 2 horas y 7 minutos las pasa dentro de aplicaciones, y sólo 31 minutos en el navegador.

Algunos podrán pensar, claro, pero esto sólo toma en cuenta a los dispositivos móviles, y es cierto. El asunto es que, aparentemente, los dispositivos “no móviles” están desapareciendo.

Según la consultora IDCen 2013 la venta de tablets en el mundo superará a la de PCs de escritorio, y en 2014 superará la de equipos portátiles (notebooks). Si el modelo de aplicaciones que ha dominado el mundo de los móviles se mantiene, lo cierto es que el acceso a Internet a través del navegador verá fuertemente reducido su uso.

El mundo de las apps

El asunto de las aplicaciones que se “comen” a Internet – es decir, que toman datos de la red sin que tengamos que entrar usando el navegador – ha estado intrínsecamente relacionado con el desarrollo de los smartphones. Una aplicación está mejor diseñada que un sitio para una función específica, aprovecha mejor el hardware y simplemente es más práctica.

Sin embargo, con la aparición de los dispositivos híbridos que mezclan tablets y notebooks, el terreno se ha ido haciendo más gris. Es así como Windows 8 y su Store están empujando la llegada de las aplicaciones a muchísimos más equipos. Aunque las ventas puedan estar menos firmes que versiones anteriores de Windows 8, en enero de 2013 ya sumaba 60 millones de copias vendidas.

He estado usando Windows 8 desde hace tiempo y la verdad es que prácticamente nunca utilizo las aplicaciones – me voy directo al escritorio, abro el navegador y ya. Sin embargo, es fácil darse cuenta que el rediseño del sistema operativo de Microsoft busca incorporar a las “apps” como una parte crucial de la experiencia.

Tienes una aplicación de correos donde se sincronizarán tus e-mails, una de calendario para tus compromisos, una de mensajería para el chat, un icono para SkyDrive (como si fuera parte de tu propio PC), apps que te dicen el tiempo, lectores de RSS para que no tengas que entrar a la web del periódico, y muchas otras cosas más.

De cierta manera, te está obligando a adoptar todas estas aplicaciones para utilizar tu PC con Windows 8 como corresponde. Si quieres utilizar sólo el escritorio (como lo estoy haciendo yo), te pierdes la mitad – o más – de la experiencia del sistema operativo. Toda la interfaz nueva se apoya en el uso de estas apps. Al mismo tiempo, todo el escritorio está conectado a Internet permanentemente, obteniendo datos de la nube en cada momento.

La arremetida de la web

Aunque las cifras para la web parecen débiles, los impulsores de la web no se han echado a morir. Gracias a HTML5, hay varias cosas que nos han sorprendido de lo que se puede hacer desde el navegador.

Entre los principales impulsores de esta manera de navegar están Google y Mozilla, cada uno con proyectos que llevan la web hasta el otro extremo, intentando demostrar que se puede prescindir completamente de las aplicaciones y seguir haciendo las tareas que necesitas.

Google tiene un sistema operativo completo – Chrome OS – que depende totalmente de la web, mientras que Mozilla lanzó Firefox OS, que pretende hacer prácticamente lo mismo pero en los teléfonos móviles.

La web ofrece como ventaja la posibilidad de desarrollar una sola vez, y que sea visible en todos los dispositivos que admitan el estándar, ya que no depende de dispositivos específicos. No es necesario tener que descargar nada en el dispositivo, y las actualizaciones son automáticas e instantáneas para el usuario.

En lugar de tener que descargar una app, tendremos que “acceder a ella” a través del navegador. El eslógan no es “hay una app para eso”, sino “hay una web para eso”. En definitiva es como un “gran navegador” móvil desde donde se supone que podrás hacerlo todo – tal como Chrome OS intenta ser un gran navegador para tu escritorio, en el que no necesitas instalar programas porque la web tiene la respuesta a la necesidad que sea.

Los optimistas insisten en que falta poco para que las aplicaciones web se vean y funcionen igual que las aplicaciones nativas, y la verdad es que ya hay muchas cosas que se acercan bastante. Quizás su principal desventaja es lo mismo que hace poderosa a la web: Sin Internet no funciona nada.

¿Conclusiones?

La idea de que podremos hacer todo desde el navegador, sin necesidad de descargar nada en nuestro equipo, es tentadora pero no siempre fácil de concretar. La verdad es que muchas veces simplemente no tenemos conexión a Internet (aunque eso podría cambiar de a poco en el futuro). Estar sin conexión supone no sólo quedarse sin capacidad de producir (no se puede escribir un texto porque el programa está en la nube, no se puede editar una imagen porque el programa está en la nube), sino que también bloquea el acceso a nuestros datos y archivos, que también terminan estando guardados en la nube en la mayoría de los casos en este modelo.

Sin embargo, la web seguirá entregándonos muchas ventajas en el sentido de que se puede acceder a los datos y aplicaciones desde cualquier parte que tenga una conexión, sin necesidad de descargar nada. Podemos entrar a lo que necesitemos desde el navegador usando cualquier computadora, en caso de que no tengamos la nuestra por algún motivo, y la experiencia será igual.

Las aplicaciones, sin embargo, poco a poco se apoderan de nuestro equipo personal. Nos resultan cómodas, poco a poco entrarán a todos los dispositivos que usamos, y sin darnos cuenta terminaremos leyendo sitios web desde aplicaciones lectoras, viendo videos desde aplicaciones de video, escuchando radio desde apps de música, consultando las redes sociales desde sus aplicaciones específicas.

Es difícil que la web llegue a desaparecer por completo, simplemente porque es demasiado práctica. Lo más probable es que no lleguemos a ninguno de los dos extremos, sino a algún equilibrio que combine los dos, aunque las apps parezcan estar tragándose a la web.


El socio silencioso, o el valor del equipo by mariano

El socio silencioso, o el valor del equipo de Denken Über

En Buzzfeed hay un perfil genial sobre Jason Goldman: The Silent Partner que más allá del perfil de @goldman que hacen, parece ser una perfecta demostración de la importancia del equipo que hace funcionar los startups y llevarlos a ser una empresa.

“La industria está muy enfocada en contar historias de héroes, no que piense que es malo tener una “persona pública”. La parte que creo es perjudicial, o ineficiente, es cuando parece que existen estos ejecutivos visionarios que surgen con ideas geniales, y de ahí sólo hay que construir un equipo que permita esas ideas aparecer.” Jason Goldman. “No quiero decir que los fundadores están sobrevalorados, pero sin duda hay un montón de gente que está infravalorada. Y Jason estaba definitivamente en ese campo” Evan Williams

Como quiero que en serio lean esa nota en vez de este blog estas dos frases me parecen clave y deberían ser escuchadas por muchos para aprender no sólo como funcionan las cosas sino tambien para entender que uno puede elegir un rol y no siempre es estar bajo los flashes lo importante.

“Los startups están a cargo de personas que hacen lo que es necesario en el momento que es necesario. Muchas veces es un trabajo poco glamoroso. Muchas veces no es un trabajo heroico. ¿Eso es heroico? ¿Es usar una polera negra, delante de 20.000 personas hablando sobre el futuro de los teléfonos? No. Pero así es como se construyen las empresas. Es esa persona que le llevó el café para el lanzamiento del iPhone de Apple, que no sabemos quién es.”

   

Cómo saber si tu DNS puede ser empleado para un ataque DDoS by Yago Jesus

 

La semana pasada, Jesús Pérez nos dio precisos detalles de cómo se llevó a cabo el ataque a SpamHaus, grosso modo podemos decir que el quid de la cuestión era una mala configuración de los servidores DNS, que permitían ser empleados para ataques de amplificación.
 
Recientemente el US-CERT ha liberado una nota en la que describe este ataque y propone soluciones, así como unas cuentas herramientas online que permiten identificar si un servidor DNS es o no es susceptible de ser empleado para esos fines.

 

Open DNS Resolver project
 
Provee de una interface web donde podemos hacer búsquedas de servidores DNS vulnerables por rangos de IPs:
 
La herramienta es bastante pobre a nivel visual
 
 
The Measurement Factory
 
Al igual que Open DNS Resolver, dispone de una sencilla interface web para realizar comprobaciones:
 
 
 
Dnsinspect
 
Esta herramienta está notablemente más elaborada y realiza no solo la comprobación de la vulnerabilidad DNS, también emite un completo informe con muchos más detalles y comprobaciones:
 
 

Software para crear software by Ruben Alonso

Hay momentos en la vida del programador en los que uno se pregunta cuál es el lenguaje/plataforma/herramienta que más le conviene. Los desarrolladores programamos por dos razones: porque nos gusta y porque queremos ganar dinero. Normalmente por ese orden.

Desde estudiantes nos hemos fijado más en lenguajes de programación como C++JavaPHP, o incluso Visual Basic. Creemos que tienen más posibilidades y parece que den más satisfacción resolver problemas programando con ellos.

Pero cuando dejas la vida de estudiante y te conviertes en programador profesional, descubres plataformas especializadas en desarrollar un tipo concreto de software que mantienen ese punto de satisfacción y gracias a que están especializadas ganas mucha productividad.

Plataformas de software especializadas en crear software

Por ejemplo, si lo que quieres es desarrollar aplicaciones empresariales, una buena opción es Velneo. 100% en español, multiplataforma, en cloud y cuenta con aplicaciones de gestión de código abierto.

Popout

Video 1: ¿Qué es Velneo?

Otra posiblidad es la plataforma OpenBravo (también en español). Por otra parte, si quieres desarrollar videojuegos espectaculares, quizá te interese Unity. Que además cuenta con una comunidad muy activa. También tienesGamemaker, un poco más ‘Angry Birds’, aparentemente para hacer juegos más infantiles; que no quiere decir menos lucrativos, quizá al contrario. Es multiplataforma y dicen sus creadores que es ‘un 80% más rápido’. Si lo que quieres es desarrollar aplicaciones para iPhone, echa un ojo a Objetive C. Para Android tienes su propio entorno de desarrollo. O puedes usar un framework como PhoneGap que te permite desarrollar para varios sistemas.

Así que no te lo pienses, si tienes claro qué tipo de desarrollo vas a realizar, te animamos a que pruebes con una plataforma especializada en desarrollar ese tipo de aplicaciones, ya que probablemente ahorrarás muchas horas, lo cual se traducirá en una mayor rentabilidad.

También os invitamos a compartir con nosotros en los comentarios, otras plataformas especializadas en crear software de algún tipo concreto que conozcáis y os gusten.

wt

 


Anonimizando las conexiones de red en Cuckoo Sandbox by Contribuciones

 
Cuckoo Sandbox es una aplicación de código abierto que permite montar un laboratorio de análisis malware de una manera sencilla y rápida, como ya se ha explicado anteriormente en este mismo blog (aquí y aquí) por el amigo @seifreed. Así mismo, el amigo Iñaki Rodríguez publicó también en este blog cómo detectar que se está ejecutando en un entorno virtual bajo la mirada indiscreta de Cuckoo Sandbox.
 
Voy a proseguir esta lista de artículos hablando de Cuckoo Sandbox, pero desde una perspectiva diferente. A la hora de analizar muestras de malware, es importante detectar y analizar toda actividad que realice la muestra con el entorno exterior, o sea, Internet. Por lo tanto, es necesario dejar que la muestra se conecte a los servidores de control o cualquier otro dominio malicioso, y haga la actividad para la que ha sido programada.

Así pues, es importante anonimizar las conexiones que se produzcan desde la máquina virtual donde se está ejecutando Cuckoo Sandbox, a fin de que las conexiones que se realizan no levanten sospechas en los servidores maliciosos y se pudiera inferir un patrón de comportamiento de análisis, lo que podría provocar que los cuckoos de los servidores que se están analizando levantaran rápido y velozmente el vuelo… O que nuestra IP fuera el nuevo objetivo de ataque… Imagino que a nadie le gustaría que Dimitri, Vladimir y el resto de sus amigotes le estuvieran esperando amablemente en el portal de su casa con interés de practicar el medievo.

Este artículo trata sobre cómo se ha de configurar una máquina virtual que está ejecutando Cuckoo Sandbox para anonimizar sus conexiones. La anonimización de las conexiones se va a realizar a través de Whonix, que proporciona una máquina virtual de VirtualBox ejecutando una Debian GNU/Linux que enruta todo el tráfico de Internet a través de la red Tor. Concretamente, el proyecto Whonix proporciona dos máquinas virtuales, una llamada Gateway y otra Workstation. La máquina Whonix-Gateway proporciona un gateway (de ahí el nombre :)) de salida a Internet a través de Tor, mientras que la máquina Whonix-Workstation es una máquina virtual con una red completamente aislada y conectada directamente a la máquina Whonix-Gateway. De este modo, se consigue que todo el tráfico de la Whonix-Workstation vaya por la red Tor (es decir, el tráfico está torizado — pum!, un gatito menos).

En este caso, la máquina virtual con Cuckoo Sandbox es quien va a hacer de Whonix-Workstation, así pues será necesario configurarla de una cierta manera que se describe a continuación. La máquina virtual de Whonix-Gateway, que es quien va a hacer el grueso del trabajo, se puede dejar tal cual viene ya que es funcional out-of-the-box (ojo!, si se configura nuestra máquina virtual como se describe). Mientras se va configurando nuestra máquina virtual, se puede ir descargando la máquina Whonix-Gateway de aquí (versión 0.5.6 en el momento de escribir este artículo). El nombre de usuario por defecto es user, y la contraseña changeme.

Configuración de la máquina virtual ejecutando Cuckoo Sandbox

Básicamente, hay que cambiar dos aspectos de la máquina virtual donde se ejecuta Cuckoo Sandbox. Por un lado, es necesario asignarle una IP fija en el  rango de direcciones que tiene por defecto el servidor de Whonix-Gateway (en caso de necesidad, recordad que Whonix-Gateway es una máquina Debian/GNU Linux con lo que se puede tranquilamente configurar los servidores como venga en gana). Por otro lado, es necesario cambiar el tipo de adaptador de red.

El tipo de adaptador de red que se tiene que elegir es “Host-Only adapter”, eligiendo como adaptador el instalado por VirtualBox en el sistema, en mi caso “vboxnet0“. La Figura 1 muestra cómo tiene que quedar el menú de opciones de la máquina virtual.

Figura 1. Configuración del adaptador de red en la máquina virtual de Cuckoo Sandbox.
 
 
Para acabar la configuración de la máquina virtual, será necesario como se ha dicho modificar su IP a fin de que se encuentre en el rango del servidor de Whonix-Gateway. 
 
 
Figura 2. Configuración TCP/IP de la interfaz de red en la máquina virtual de Cuckoo Sandbox.
 
Como se muestra en la Figura 2, en este caso, a la máquina virtual se le ha asignado la IP 192.168.0.101, y como puerta de enlace y servidor DNS la IP 192.168.0.10 (IP que viene por defecto del servidor de Whonix-Gateway).
 
 

Configuración de la máquina virtual Whonix-Gateway

Una vez descargado el fichero que contiene la máquina virtual de Whonix-Gateway, es necesario añadir esta máquina la lista de máquinas virtuales que tengáis en VirtualBox. Para ello, se hace uso de la opción de “File” -> “Import Appliance” que trae VirtualBox (véase la Figura 3).

Figura 3. Importación de una máquina virtual en VirtualBox.
 

VirtualBox requiere un fichero OVF para la importación, mientras que el fichero descargado tiene extensión OVA. Aquí aparece el problema de los OVA y OVF (WTF!). Open Virtualization Format (OVF) es un estándar abierto que se usa para distribuir máquinas virtuales, u otro tipo de software a ejecutar en máquinas virtuales. Open Virtualization Archive (OVA) es la forma de distribuir un OVF (que contiene la especificación de las características de la máquina virtual en XML) junto con todos los ficheros auxiliares que sean necearios (como mínimo, un disco duro). Un fichero OVA es, entonces, como cualquier fichero tar en GNU/Linux, con lo que para extraer el fichero OVF la típica orden de extracción de tar será suficiente:

$ tar xvf Whonix-Gateway.ova 

El fichero OVA descargado contiene dos ficheros:  Whonix-Gateway.ovf y Whonix-Gateway-disk1.vmdk. Ya se tiene, entonces, el fichero OVF que hace falta seleccionar a la hora de realizar la importación. Los parámetros que aparecen de la nueva máquina virtual no es necesario tocarlos, con lo que se puede finalizar la importación.

Por último, es necesario configurar los adaptadores de red de esta nueva máquina virtual. Whonix-Gateway viene configurada con dos interfaces de red. La primera de ellas es la interfaz que realiza la conexión real de salida a Internet, pasando por la máquina anfitriona (la que está ejecutando VirtualBox), con lo que es necesario que esté configurada como NAT (o el tipo de configuración que se use para dar salida a Internet desde las máquinas virtuales). La segunda de ellas es la interfaz que va a conectar la máquina virtual de Cuckoo Sandbox con el servidor Whonix-Gateway. Así pues, será necesario seguir la misma configuración que la descrita anteriormente en la Figura 1: se coloca la interfaz en modo “Host-Only adapter” y como interfaz “vboxnet0“. Esta configuración se muestra en la Figura 4.

Figura 4. Configuración del segundo adaptador de red en la máquina virtual de Whonix-Gateway.
 

Arranque y prueba de conexión

Para finalizar, se va a testear el entorno de análisis montado sobre VirtualBox, donde hay una máquina virtual ejecutando Cuckoo Sandbox y otra máquina virtual ejecutando Whonix-Gateway, que se encarga de anonimizar todas las conexiones a Internet.

Antes de lanzar ambas máquinas en ejecución, es necesario realizar una pequeña modificación sobre la interfaz de red que se usa para comunicar ambas máquinas virtuales (“vboxnet0” en mi caso). Esta interfaz tiene que ponerse en modo (ese que tanto nos gusta) promiscuo, lo que permitirá el volcado del tráfico que transcurra por la misma. Así pues, antes de lanzar las máquinas virtuales, se han de ejecutar los siguientes comandos, que dejarán la interfaz de red “vboxnet0″ en modo puta (o mujer de clítoris distraído).

$ sudo ifconfig vboxnet0 down 
$ sudo ifconfig vboxnet0 promisc up

Una vez ejecutados, se lanza en ejecución en primer lugar, lógicamente, la máquina virtual de Whonix-Gateway, y en segundo lugar, la máquina virtual donde se ejecuta Cuckoo Sandbox. Una vez esta última esté cargada, se puede probar a consultar la conectividad mediante la visita a cualquier página web. Para mostrar que el entorno que se ha configurado aquí funciona, en la Figura 5 se muestra la captura de ambas máquinas ejecutándose, y la vista a la página web http://www.whatismyip.org/ desde la máquina virtual de Cuckoo y la máquina anfitriona.

Figura 5. Captura de ejecución de máquinas virtuales ejecutándose, y visita a la web http://www.whatismyip.org/ desde máquina anfitriona y máquina virtual.
 


Nota del autor: la publicación de este post surgió debido a que la antigua página web donde se explicaba  (Installing Cuckoo Sandbox v4.2 on Ubuntu 12.04 LTS for Malware Analysishttp://www.xors.me/?p=5313) ya no se encuentra accesible (ni en la cache de Google, ni archivada en Archive).

————————————————————
Artículo cortesía de Ricardo J. Rodríguez