Durante la década de los 60 los equipos de informática de muchas empresas y en dependencias gubernamentales tenían un problema similar: contaban con súper-computadoras o “mainframes” de alto rendimiento que deseaban “particionar lógicamente”, o utilizar para múltiples tareas simultaneas.
Es por esto que IBM desarrolló un método para crear múltiples “particiones lógicas” (similar a lo que conocemos hoy como “máquinas virtuales”), las cuales trabajaban independientemente una de las otras, y cada una utilizando los recursos provistos por el “mainframe”.
Para la década de los 80 y con la llegada de las relativamente económicas máquinas x86, comenzó una nueva era de micro computadoras, aplicaciones cliente-servidor, y “computación distribuida”; en donde los enormes y potentes “mainframes” con mil y una tareas y utilidades en una sola caja gigantesca, costosa y que ocupaba mucho espacio en la sala de servidores.

Entonces, en lugar de tener un solo mainframe que dividiera recursos para 3 tareas (por ejemplo) era mucho menos costoso tener 3 equipos que realizaran cada uno una tarea separada. La virtualización en ese momento era poco atendida y podria decirse hasta olvidadada.
A finales de la década de los 90 gracias al desarrollo del hardware se volvio a tener un problema muy similar al que se tenia en los años 60: el hardware existente es altamente eficiente, y utilizar
cada “caja” para una sola aplicación sería un desperdicio de recursos, espacio, energía y dinero.
Por este motivo vuelve a resurgir la idea de dividir el hardware, de manera tal que funcione como múltiples servidores independientes pero compartiendo los recursos de un mismo servidor físico. Y es de aquí que nace lo que hoy todos conocemos como “virtualización”.
Te recomendamos consultar ¿Que es la virtualización?