Ubuntu 16.04 Home Server – HP Microserver gen 8

Ubuntu 16.04 Home Server

HP Microserver gen 8

 

Esta máquina se ha hecho famosa por muchas razones:

  1. Relación calidad-precio. En el momento en que se escribe este post, 205,02€ en amazon.
  2. Posibilidades de actualización y tunearlo. Os dejo algunos enlaces.
    1. https://www.linuxserver.io/2015/03/24/setting-up-a-linux-home-server-using-the-hp-proliant-microserver-gen8-g1610t-3/
    2. https://www.linuxserver.io/2016/11/06/revisiting-the-hp-proliant-gen8-g1610t-microserver/
  3. Poco ruidoso perfecto para engancharlo a la tele, si le instalas una nvidia de media ranura. Yo lo tuve así una temporada, pero finalmente le di mejor uso como servidor, puro y duro.
  4. Bajo consumo, muy bajo consumo.

Objetivo del howto:

Crear un servidor con Ubuntu 16.04, solido como una roca, con las siguientes prestaciones:

  • Acceso vía ssh
  • Escritorio seguro vía Xrdp + mate.
  • Gestión remota con webmin: servicios habituales + smartmontools + lmsensors
  • Servidor de máquinas virtuales para correr:
    • Windows 10
    • Ubuntu server con nextcloud
    • Los que quieras…

Actualización de Hardware:

Por orden de prioridad

  1. Memoria flash USB 3.0 SanDisk Ultra de 16 GB, 8,90€.
  2. Aumentar a 16Gb Ram. Dos módulos Kingston KVR16E11/8 en Amazón. 82,80€ * 2 uds
  3. Procesador: Intel Xeon E3-1230 v6 3.5GHz 8MB Smart Cache Caja – Procesador (Intel Xeon E3 v6, 3,5 GHz, LGA 1151 (Socket H4), 280,81€
  4. LSI MegaRAID SAS 9240-8i PCI Express x8 6Gbit/s  , 151,38€.

(1) +(2) : recomendable para un servidor ubuntu con una única maquina virtual (en nuestro caso para el LAMP nextcloud), incluso con un sólo módulo de 8 gb valdría).

(1)+(2)+(3): servidor de hasta (recomendable) 4 máquinas virtuales, a una muy potente (Windows 10)

(1)+(2)+(3): RAID 5, con arranque sin necesidad del pendrive (configurando la bios)

El hardware y Ubuntu 16.04

Para instalar ubuntu en el HP Microserver hay que tener en cuentas varias cosas:

  1. Está diseñado para correr distribuciones privativas: Windows*, Suse y Redhat. Para instalar ubuntu, necesitaremos un pendrive conectado a la ranura ILO interior, donde instalar el punto de montaje boot, con grub en modo i386. A efectos prácticos, vamos a instalar una versión de Ubuntu Server más antigua, la 14.0.1, y después vamos a actualizarla a la ultima 16.*. Por tanto la descargamos en ubuntu old-releases ubuntu-16.04.1-server-amd64.iso ,
  2. No funciona cualquier tarjeta controladora de discos duros: hay problemas de compatibilidad. La LSI megaraid 9240 es absolutamete compatible, incluso con Freenas (aunque no lo recomiendo por el derroche de recursos).
  3. Hay que configurar la bios para solicitar el arranque desde el dispositivo USB.

 

Instalación de Ubuntu 14.04.1 y actualización a ubuntu 16.04

Procedemos a una instalación estándar: a nuestros efectos nos sirve mi howto de la versión 12.04, con la sigiuentes modificaciones:

  • Daos de alta un nombre dinámico de host: yo en mi caso lo he hecho con dyndns.com . Le vamos a reservar para la máquina virtual. Pero si el nombre que seleccionais en dyndns es por ejemplo: nombre.dynddns.org, a la máquina real llamarla nombrebox.dyndns.org. Para distinguirla e identificarla cuando avanzemos en la configuración.
  • Reservar una dirección IP dentro de vuestra red que sea únicamente para vuestro servidor. Cuando llegue el momento de configurar la red en ubuntu, pulsad a la tecla escape hasta que aparezca el siguiente cuadro de diálogo, para configurar la red manualmente.

 

 

En mi caso la subsed será 192.168.1.0, la ip de mi servidor 192.168.1.10, y el router tiene la dirección 192.168.1.1.  (todo esto depende de vuestra red). Un consejillo, como servidores DNS poned los de Google 8.8.8.8 y 8.8.4.4  (en la instalación sin coma y sólo con un espacio 8.8.8.8 8.8.8.4)

La primera diferencia con el howto de la 12.04 es esta pantalla. Cuando aparezca el menú de particionado seleccionáis una configuración parecida a esta teniendo en cuenta:

  1. Si vais a instala el sistema operativo ( /) en una ssd, activar discard, noatime y nodiratime. Cuando ya tengamos instalado el sistema podemos modificar fstab y hacer un script con cron. En el pendrive seleccionar noatime y nodiratime.
  2. Nunca instaleis el espacio de intercambio (swap) en la ssd, instalarlo en el raid o en el/los discos duros donde vayais a tener el grueso de los datos.
  3. Si habeis instalado el LSI Megaraid, el Raid os aparecerá como un único disco. Si utilizais la controladora estándar del servidor tener en cuenta que solo los dos primeros puestos sata son 6G, los3, 4 y 5 (DVD) son Sata 2.
  4. Instalar el punto /boot en el pen drive. Apuntad en un papel el sd* que corresponde al pendrive paraa modificar grub si es necesario (habitualmente no lo es)
  5. Seleccionar actualizaciones de seguridad automáticas.
  6. En selección de software nos quedamos con lo mínimo debido a que vamos a actualizar después a la 16.04*
  7. Cuando llegue la pantalla siguiente pulsad no, e introducir el /sd* de vuestro pendrive. Normalmente no hará falta, pero así os aseguráis que seleccionais el dispositivo de arranque correcto.
  8. Bueno, lo más duro ya está hecho. Arrancáis el sistema y en el prompt:
    1. introducir vuestro nombre de usuario y password.
    2. Ejecutar:

sudo apt-get update && sudo apt-get -y dist-upgrade && sudo reboot

  • Cuando se reinicie la máquina, de nuevo usuario y password y ejecutáis:

sudo do-release-upgrade

Os vais a tomar un café y cuando volváis, reiniciad, y ya tenéis la última versión de ubuntu 16.04.

 

Más en la página.

Consejos para montar tu servidor en Linux

Linux Warrior

Razones para usar Linux

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago (Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo).

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de plantearse que Linux no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también de “media servers” de películas en formato digital y audio. Continuar leyendo «Consejos para montar tu servidor en Linux»

Ubuntu MegaHomeServer 1.5 – La regla de la cadena

Aquí no estamos hablando de la famosa regla de la cadena de las Matemáticas para derivar e integrar, así que no cunda el pánico. O si, sí vienes de google buscando una solución al control de mañana. Si es un examen final, mejor vete a dormir.

La regla de la cadena en informática y el cualquier proceso constituido por elementos encadenados es que la velocidad y eficiencia del sistema está limitado al más débil de los elementos de la cadena.

Así por ejemplo de nada nos sirve un raid stripe que alcanze los 500 Mb/seg, si luego vamos a pasar un puerto ehernet de 100Mb/seg. Algo parecido pasa también con el software. Dependiendo del protocolo que implementemos para intercambiar archivos alcanzaremos velocidades distintas.

1. La red .

Normalmente las redes domésticas y empresariales suelen pasar por un repartidos de red (switch) lo que es muy recomendable para que los usuarios intercambién archivos entre sí al poder conectarse directamente cono otros equipos. El problema que genera este tipo de estructura a un servidor es que está condenado (salvo configuraciones bastante avanzadas) a que todas las conexiones del resto de ordenadores con él pasen por un único puerto ethernet, lo que genera tapones en la entrada y ralentiza las transmisiones de copias de seguridad grandes (TimeMachine) o instalaciones de librerías enormes (Logic o Final Cut).

La alternativa para prescindir del «switch» cuando tenemos pocos ordenadores ( entre 2 y 20, y no os asustéis que esto es teórico; que yo no tengo 20 ordenadores en casa) es montar la red en estrella.

¿Qué significa esto? Que todos los ordenadores se conectan directamente a nuestro servidor, y a través de él a internet. Esto nos permite eliminar uno de los eslabones más débiles de la red que es el repartidos de puertos, y optimizar las conexiones individuales.

Esto presenta el inconveniente de que si los terminales quieren compartir información entre ellos tendrían que dejarla primero en el servidor el terminal emisor, y después descargarla el receptor. Para solucionar esto podemos crear una red secundaria (inalámbrica) para este tipo de conexiones no intensivas en consumo de red: navegar por internet con el portatil o acceder con el iphone, …

Cuando los archivos son grandes lo habitual es que estén en el servidor.

2. Discos duros en red:

Un BarracudaXT alcanza una velocidad de 140 Mb/seg (según seagate).  Al pasar a ethernet esto se queda en unos 100Mb/seg, con jumbro frames en la gigabit y appletalk de protocolo (el más rápido y fiable según mi experiencia). Esta es la carga que el servidor deberá aguantar.

Si tenemos tres ordenadores a parte del servidor (uno en la tele, otro el portatil, otro en el estudio, otro para …. y yo que sé), la carga simultanea si hacemos copias de seguridad puede alcanzar los 300 Mb/seg. Si el servidor tiene instalado un disco en el que volcamos nuestras copias de seguridad, volvemos de nuevo al tapón de los 140 Mb/seg iniciales.

La forma de solucionar esto es sin duda el raid stripe. Es aquel raid que permite sumar las velocidades de los discos duros que tiene integrados y tiene el inconveniente de que en caso de corrupción del raid perdemos toda la información, pero si es para copias de otros sistemas y el raid se pierde, lo reconstruimos, empezamos otra vez a sacar copias de seguridad y «arreglado».

En casa tengo un raid stripe con 6 barracudas de 1,5Tb. La velocidad de escritura es de 480 Mb/seg y la de lectura 700Mb/seg. Se acabaron los problemas de colas.

Para servir archivos tengo un raid 10 con 4 seagates de 1,5Tb, es decir 3Tb de información segura cuya velocidad de lectura es de 150 Mb/seg. Más que de sobra para instalaciones. Esta información también se puede respaldar en el raid stripe, «por si las moscas».

Ubuntu MegaHomeServer 1.4 – Hardware nuevo o de segunda mano

La obsolescencia puede ser una poderosa aliada para un usuario doméstico que quiera montarse un servidor en Linux. Hay muchos componente de muchísima calidad que cuando salieron al mercado eran inaccesibles para el presupuesto de casa. Hay que saber que comprar y a que precio.

El portal ebay ofrece la posibilidad de adquirir hardware de todo el mundo, mucho procedente de grandes empresas que han renovado sus infraestructuras. Es importante entender que las necesidades de procesamiento de aplicaciones basadas en bases de datos de las empresas de hace unos años superan con creces nuestras necesidades de proceso domésticas.

1. Que comprar de segunda mano.

Hay componentes de ordenador muy resistentes, en los que incluso las horas de utilización son una garantía de funcionamiento. Estos son típicamente las placas y los procesadores. Podemos conseguir una placa con dos xeon o dos opteron de altísima calidad por el mismo precio o muy poco más de lo que nos costaría un procesador estándar de escritorio y una placa nueva con menos prestaciones. El procesador de escritorio alcanza temperaturas mucho mayores y no está pensado para estar conectado dia y noche aunque pueda hacerlo.

Otro componente recomendable son las cajas de gama alta construidas en metal, preferiblemente el aluminio. Debido a su gran tamaño no son fáciles de vender por que tienen elevados costes de embalaje y transporte. Por ebay, si eres paciente puedes encontrar alguna caja de “solo recogida”, y por ello con poca demanda a muy buen precio.

Suele ser necesario un proceso de restauración, limpiándola a fondo con productos antigrasa (KH7), reparando algunos elementos y sustituyendo los ventiladores, pero el metal es metal y sigue sirviendo.

Las tarjetas gráficas también suelen ser una buena opción. Intenta que tengan disipadores pasivos en vez de ventiladores que con el tiempo generan ruido y suelen ser sinónimo de un consumo excesivo de energía.

2. Que comprar con un cierto riesgo.

Comprar ram de segunda mano es una lotería en la que es importantísimo que si picamos lo hagamos con primeras marcas como infineon, kingston o similares. Si la ram ha estado en un equipo con escasa ventilación puede fallarnos en cualquier momento aunque es fácilmente sustituible y raras veces el fallo se traduce en una perdida de información.

3. Que no comprar.

Los discos duros tienen su propia historia y su vida útil se mide en horas. Si compramos un disco de segunda mano debemos pedir que nos digan las horas de funcionamiento, lo que se puede ver en un informe smart del disco. Hay discos defectuosos que siguen funcionando pero que a través de smart vienen avisando del fallo inminente. Si compras un disco de segunda mano, verifica la información smart.

Por regla general fíate de tus discos pues tu sabes el trato que han tenido, y si necesitas ampliar intenta que sean nuevos. Los discos viejos deberías utilizarlos en pares respaldados con raid 0, por si acaso alguno falla.

No es recomendable comprar sais de segunda mano porque las baterías tienen una vida limitada, llegando a ser inútiles. Tampoco es recomendable comprar fuentes de alimentación a no ser que sean de mucha calidad. Si las compras debes desmontarlas y limpiarlas a fondo para que estén bien refrigeradas. Los dispositivos móviles como lectoras de CD o DVD, disquetes,… suelen ser muy baratos nuevos y no merece la pena.

No compres nada fuera de la comunidad europea de bajo precio, como por ejemplo cables, adaptadores, etc … a no ser que te puedas permitir esperar 15 días o un mes. Si estás decidido a montarte el servidor, es lo primero que debes comprar en lo que buscas la placa y el resto de componentes, pues son estándares muy baratos y te servirán. Lo único malo es la espera.

Ubuntu MegaHomeServer 1.3 – Elección del hardware

Vamos a construir un mega-server, lo que no significa que vayamos comprar lo último de lo último, ni lo más caro. Necesitamos ser conscientes de nuestras necesidades y de los recursos que necesitamos para cubrirlas. Seguramente contamos con «retales» informáticos como procesadores, módulos de ram, discos,…

Hemos de ser conscientes que un servidor es un ordenador que se construye para estar constantemente encendido y en el que es tan importante preguntarse las necesidades de rendimiento como las repercusiones en el consumo.

1º. Procesador:

Sería deseable un procesador que no se calentase demasiado y que no consuma demasiada potencia a no ser que se solicite capacidad intensiva de procesamiento. No necesitaremos que sea muy rápido a no ser que lo utilizemos para copias de seguridad del propio sistema que requieran comprimir los datos, la verificación de virus en sistemas que compartimos vía samba, virtualización intensiva o el uso de bases de datos SQL de forma agresiva . Es preferible un sistema multi-núcleo para que todos los núcleos funcionen muy levemente y nunca suba demasiado la temperatura.

2º. Memoria Ram:

Linux consume muy poca ram en comparación con otros sistemas operativos como Windows u OSX. Si no vamos a virtualizar, con dos gigas de ram nos sobrará casi siempre 1,4 Gigas. Sin embargo es recomendable contar con este exceso de ram por si en algún momento necesitamos de ella. Este exceso nos permite evitar el acceso al área swap de intercambio que simula memoria ram sobre el propio disco duro lo que ralentiza el rendimiento del sistema.

La gran razón para aumentar el tamaño de la memoria ram es la virtualización. Un Windows 7 requiere 2 Gb de ram en su versión 386. Un ubuntu en versión gráfica unos 512Mb siendo recomendable aumentarle a 1Gb. Dependiendo de lo que quieras virtualizar tendrás que contar con más o menos ram.

Es importante tener en cuenta que las bahías de ram suelen ser dobles, es decir, tiene un rendimiento mayor la ram alcanzando velocidades superiores cuando se instalan los módulos de dos en dos. Luego normalmente, la ram instalada suelen ser multiplos de 2 Gb.

3º. Tarjeta gráfica:

La mayor parte de las placas de servidor incluyen una gráfica integrada con una memoria de unos 16 Mb. Un servidor no suele necesitar una tarjeta gráfica potente, a no ser que desempeñe labores de escritorio que si lo requieran. En el caso de que tu placa no integre un chipset gráfico, lo mejor es una tarjeta modesta que tenga unos cuatro años de antigüedad. Googlea un poco e informate de la compatibilidad con Linux antes de decidirte por una u otra. Además ten en cuenta que una gráfica potente supone un aumento de consumo eléctrico innecesario para un servidor.

Continuar leyendo «Ubuntu MegaHomeServer 1.3 – Elección del hardware»

Ubuntu MegaHomeServer 1.2 – Elección de la Distribución Linux

Linux Warrior

Cada usuario de Linux tiene su distribución favorita, por sus propias razones.

Para montar nuestro mega server necesitamos:

  1. Una distro sólida en la que los paquetes de software libre sean actualizados con la mayor frecuencia posible para evitar vulnerabilidades de seguridad, y que estén disponibles en fase “stable” y no “testing” para garantizar su uso con entornos de trabajo operativos.
  2. Una distro que saque el máximo jugo al hardware y que cuente con la más amplia selección de drivers para el hardware más reciente. Lo que suele suponer uno de los mayores problemas en Linux. El mejor hardware para linux suele ser el que salió al mercado hará unos cuatro años. La mayor parte de la culpa de esta situación la tienen las propias empresas de hardware que no liberan el código fuente de los drivers para sus dispositivos.
  3. Una distro claramente orientada a los usuarios particulares y que no persiga el mercado de la informática empresarial para acabar vendiendo una versión de su distribución. Por ejemplo, los usuarios de Red Hat notamos en el paso a Fedora como se limitaban las opciones de implementar software libre y se disparaba la demanda de recursos de hardware.
  4. Una distro promiscua en su forma de compartir archivos capaz de comunicarse con máquinas Unix, Linux, Windows, o Macintosh de forma rápida y segura.
  5. Una distro capaz de virtualizar otros sistemas operativos para múltiples propósitos.

Soy un gran admirador de debian, porque es tal vez, la distribución que de forma más eficiente administra los recursos hardware. Es la estrella de las máquinas con procesadores ARM que con una arquitectura a 32 bits y con una cantidad de RAM que varía entre los 32 y los 512 Mb son capaces de movilizar servidores de red con un consumo mínimo. El principal problema de debian es que es muy lento a la hora de implementar nuevas prestaciones de linux, como el nuevo sistema estándar de archivos en Linux, el ext4, y sus actualizaciones de seguridad son menos frecuentes que las del su pariente cercando Ubuntu. Sin embargo, el primor con que la comunidad Debian desarrolla su software “stable” es de envidiar por la mayoría de las distribuciones. El entorno de escritorio deja mucho que desear mostrando un escritorio de gnome bastante anticuado hasta el dia de hoy.

Desde este texto recomiendo debian para Equipos con procesador pentium o inferior, y cuatro discos o menos (Máximo de 4 TB en el conjunto), que no estén orientados ni a la virtualización ni al servicio servidor de internet en entornos caseros que no estén supervisados con cierta frecuencia por un usuario experimentado.

Ubuntu está basado en Debian, y se está convirtiendo en el auténtico estándar Linux para el usuario doméstico, principalmente por la rapidez con que incorpora los avances de la comunidad en los entornos gráficos Gnome, KDE y otros. Hay una enorme cantidad de software disponible actualizado frecuentemente. Ha sido uno de los primeros en incorporar el sistema ext4, y la forma en que se instala inhabilitando el acceso a la shell del usuario root de forma predeterminada y permitiendo el acceso a la administración a través del comando sudo de forma nativa, la hace más segura desde el principio que otras distribuciones que requieren de mucha más configuraciones.

Ofrece una versión específica para los equipos destinados a ser escritorios (desktop) y otra para los servidores de red “Ubuntu Server”.

Además de ambas versiones se ofrece una versión LTS (Long Time Support) que será actualizada a lo largo de cinco años en el caso del servidor, y dos años en el caso de la versión de escritorio.

Esto facilita la elección debido a que un servidor suele quedar instalado sin monitor ni entorno gráfico por razones de seguridad y estabilidad, y la instalación es un poco más tediosa que un equipo de escritorio.

Ubuntu Server permite configurarlo para que se instalen automáticamente las actualizaciones de seguridad sin necesidad de que el administrador introduzca ningún comando.

Ubuntu es además, el Linux más sencillo para configurar Netatalk, el protocolo de linux para intercambiar archivos con máquinas Macintosh de forma nativa, lo que permite usarlo también como servidor de copias de seguridad de Time Machine.

Ubuntu MegaHomeServer 1.1 – Introducción

raid

Este es el primer post de una guía para montarte una red casera de alto rendimiento. Aunque a todo el mundo le puede ser de utilidad, está especialmente diseñada para aquellos que como yo movemos teras y teras de audio y vídeo en casa, y queremos sacarle todo el partido a nuestros equipos.

Muchas son las razones para plantearse instalar un servidor casero, pero la principal es la gran flexibilidad, seguridad y calidad del software libre que pone a nuestro alcance sistemas que de otra forma tendríamos que pagar a un precio muy elevado.

Linux es el principal desencadenante de este fenómeno de principios del siglo XXI, pues con muy pocos recursos de hardware a devuelto a la vida a infinidad de computadoras que otros sistemas operativos dejaban obsoletas a gran velocidad. Al mismo tiempo, Linux fue el primer sistema operativo que llevó de forma real a los hogares y a la mayoría de las empresas la posibilidad de explotar las prestaciones de los procesadores a 64bits, de la mano de la pionera empresa AMD.

En unos años Microsoft y Apple han intentado llevar soluciones similares con productos de pago. Microsoft parece incapaz de subsanar las debilidades de seguridad siendo vulnerable a virus y malware de todo tipo. Apple ha intentado portar su Snow Leopard Server a los hogares ofreciendo prestaciones que el usuario no necesita y limitando las posibilidades de programas de software libre que implementa como apache.

Como decía, Linux comenzó siendo utilizada de forma genérica en ordenadores anticuados o en servidores muy potentes dedicados a las soluciones empresariales.

Ha llegado el momento de conferir a Linux inversiones en hardware relativamente importantes y plantearse que no es el sistema operativo del futuro, sino el del presente. Las “Workstations” de los hogares comienzan a necesitar de sistemas de seguridad avanzados y potentes que respalden de forma efectiva los terabytes de información que requieren los sistemas multimedia ya no solo de edición de video o audio, sino también los “media servers” de películas en formato digital y audio.

Es importante minimizar recursos y centralizar los archivos para evitar duplicados en la red. Gestionar el ancho de banda para la descargas de toda la familia a traves de un programa P2P (peer to peer o puerto a puerto), e incluso implementar un servidor proxy que permitar limitar los contenidos para menores y chequear las páginas con virus que nos podamos encontrar.

Es necesario realizar copias de seguridad de forma automática de las workstations ante cualquier fallo de hardware o software que nos hiciera perder la información, lo que en muchas ocasiones supone terabytes de información que no entran en un disco duro de los más caros y avanzados del mercado. Por otro lado, necesitamos información compartida en la red que se sirva a gran velocidad y de forma segura donde guardar los programas e imágenes de discos del software para realizar instalaciones en un tiempo aceptable.

Como ejemplo, sirvan algunas programas habituales en el mundo del audio y del video, Final Cut Pro es un conjunto de 7 DVD’s que ocupan 50 Gb. Instalar este software a través de la grabadora supondría unas tres o cuatro horas introduciendo “galletas” debido a la limitación del propio formato. Si convertimos estos DVD en archivos dmg (formato estandar de imagen de disco de apple) la única limitación será la rapidez de los discos de origen y destino, y la velocidad de la red.

Cuando hablamos de terabytes de software con características más o menos similares, la necesidad de sistemas que permitan manejar estos procesos de forma ágil comienza a ser imperiosa.

Linux permite de forma nativa el manejar un conjunto de discos como si fueran uno solo, y combinarlos de tal forma que puedan ofrecer una velocidad del conjunto superior a la de las partes. El software que permite realizar estas combinaciones es conocido como DM Raid.

Por otro lado, las tarjetas gigabit con soporte para jumbo frames permiten mandar paquetes grandes por la red a gran velocidad. Su precio relativamente asequible permite al usuario doméstico conectar los ordenadores de trabajo directamente al servidor sin pasar por un “switch” o repartidor de red, lo que aumenta considerablemente la velocidad de transferencia. Si es necesario se puede generar una segunda red, preferiblemente inalámbrica, para que los ordenadores distintos del servidor tengan comunicación directamente entre ellos.

Luego la estrategia para maximizar el rendimiento de la red se basa en dos pilares.

  1. Los discos más lentos y viejos se agruparán en el servidor linux en grupos de respaldo (Raid 1) y grupos stripe (Raid 0) para aumentar la velocidad.
  2. La red será configurada en estrella con interfaces gigabit que soporten jumbo frames y cables cruzados al resto de ordenadores.