Machine au cimetière

Cette machine ayant fait son temps, nous avons profités du déménagement de LyonIX 1 à LyonIX 2 pour retirer cette machine de l'infrastrucutre de Grenode. Cette machine est remplacée par tillac.

Archives

Rouf est un serveur de machines virtuelles.

IP : 91.216.110.98 Localisation : LyonIX/L1 - La Doua/IN2P3 - Salle LyonIX Console serie et prises électriques Lyonix

Matériel

  • Machine: Dell PowerEdge 1950
  • RAM: 16 Go (8x2 Go) DDR ECC Fully Buffered en dual channel

Disques

Type Référence Date de mise en service Emplacement Virtual disk Device
WD Caviar black 1 To WD1003FZEX 2 février 2016 0 VD1 /dev/sdb
WD Caviar black 1 To WD1002FAEX 13 août 2012 1 VD0 /dev/sda

Anciens disques

Type Référence Date de mise en service Date de fin de service
Samsung 1 To HD103SJ novembre 2011 ? 13 août 2012
Hitachi Deskstar 1 To HDS721010KLA330 novembre 2011 ? 2 février 2016

Historique

  • 23 nov. 2011 : Installation initiale de rouf sur un Dell R210
  • ??? : Déplacement des disques dur dans une nouvelle machines
  • 15 juin 2012 : Installation à la Doua
    • branchements rouf <-> switch
    • branchements switch <-> Lasotel
    • branchements de nos 3 équipements au serveur de console
  • 13 aout 2012 : Changement d'un disque
  • 26 sept 2012 : Test de reboot de la machine (on est pas sur que la machine reboote toute seule après une coupure élec)
  • 11 fév. 2014 : Arrêt de la machine imprévu (un clavier usb semble avoir été branché)
  • 7 mars 2014 : mise à jour en wheezy
  • 2 février 2016 : changement d'un disque

Management, BIOS,…

Configuration du BIOS

Serial Communication: On with console redirection via com1
external serial connector: com1
failsafe baud rate: 19200
remote terminal type: vt100/vt200
redirection after boot: enabled

Carte de managment (IPMI)

  • IP de la carte: 192.168.1.176 (vlan 1000)
  • User: root

Exemple d'utilisation (depuis batture):

ipmitool -I lan -H 192.168.1.176 -U root chassis status

ipmitool -U root -H 192.168.0.176 -I lanplus shell

Remarque

Commandes tapées le 11/02/2014 pour réactiver l'ipmi qui ne marchait plus après le reboot :

sudo /opt/dell/srvadmin/bin/omconfig chassis remoteaccess config=nic enable=false
sudo /opt/dell/srvadmin/bin/omconfig chassis remoteaccess config=nic nicselection=shared
sudo /opt/dell/srvadmin/bin/omconfig chassis remoteaccess config=nic enable=true

Configuration

Démarrage

Le choix du disque sur lequel boot la machine se fait dans outil de gestion de la carte raid (ctrl-r au démarrage).

Stockage

Cette machine dispose d'une carte raid qui gère les disques durs formant une unité raid0 pour chaque disque. Ces deux unités participent ensuite à des unités raid1 gérées en raid logiciel selon le schéma de partitionnement suivant.

Raid matériel

La gestion matériel du raid peut se faire via le bios (ctrl-r au démarrage) ou via les outils dell (http://linux.dell.com/repo/community/deb/latest/).

Pour voir l'état des disques :

sudo /opt/dell/srvadmin/bin/omreport storage pdisk controller=0

Pour voir l'état des unités raid :

sudo /opt/dell/srvadmin/bin/omreport storage vdisk controller=0

Pour voir l'état des unités raid d'un disque physique donné :

sudo /opt/dell/srvadmin/bin/omreport storage vdisk controller=0 pdisk=n

SMART

Les devices (/dev/sda, /dev/sdb) sont exposés par le controlleur, il est donc nécessaire d'utiliser une syntaxe spéciale pour smartctl :

# Emplacement 0
sudo smartctl -d megaraid,0 -a /dev/sdb
# Emplacement 1
sudo smartctl -d megaraid,1 -a /dev/sda

Note : le device passé en argument n'est visiblement pas important, seul l'argument de megaraid est pris en compte.

Monitoring DELL

On utilise la sonde check-openmanage

http://folk.uio.no/trondham/software/check_openmanage.html#download

Raid logiciel

La gestion logicielle se fait comme d'habitude.

Procédure de changement d'un disque

Changer physiquement le disque défaillant

Pour cela, repérer le disque dont la LED d'activité ne clignote pas : c'est le disque à changer. Le changement peut se faire à chaud. Penser à se munir d'un tournevis cruciforme pour fixer le nouveau disque sur le support.

Recréer le RAID matériel

Le but est de recréer une grappe RAID0 sur le nouveau disque.

Il est normalement possible de faire cette opération depuis les outils Dell, sans rebooter. Cependant, les outils Dell ne fonctionnent pas sous wheezy (fuite mémoire ?), et ça peut être l'occasion de rebooter rouf pour les mises à jour de Xen et du noyau.

Au boot, taper Ctrl-R pour accéder à l'outil de gestion du RAID. Attention, il est conseillé d'avoir un clavier physique, certaines touches (F1-F12) semblent ne pas fonctionner par un port série...

Créer un nouveau "Virtual Disk" comprenant uniquement le nouveau disque physique.

Changer le disque sur lequel le serveur boote

Ça se fait aussi dans l'outil de gestion du RAID du BIOS, dans le dernier onglet. Il faut booter sur le disque qui n'a pas été changé.

Reconstruire le RAID logiciel

Une fois revenu sous Debian, il faut commencer par créer une table de partitions sur le nouveau disque. Le plus simple est de cloner la table du disque fonctionnel, /dev/sdX, vers le nouveau disque, /dev/sdY :

sudo sfdisk -d /dev/sdX | sudo sfdisk /dev/sdY

Attention : bien faire attention à ne pas inverser les devices, ce serait dommage... User et abuser de fdisk -l pour être bien sûr.

Il faut ensuite rajouter le nouveau disque aux différentes grappes RAID :

sudo mdadm --manage /dev/md0 --add /dev/sdY1
sudo mdadm --manage /dev/md1 --add /dev/sdY2
sudo mdadm --manage /dev/md2 --add /dev/sdY3

Pour voir l'avancement de la reconstruction :

cat /proc/mdstat

Réinstaller GRUB sur le nouveau disque

grub-install /dev/sdY

Schéma de partitionnement

 raid1
 /   \
d1   d2

◼ ··· ◼ ext3 (boot) ~ 300Mo
|     |
|     |
◼ ··· ◼ crypt −− pv −− vg-dom0 ◼ ext3 (rouf.grenode.net-disk) ~ 4Go
|     |                        |
|     |                        ◼ swap (rouf.grenode.net-swap) ~ 1Go
|     |
|     |
◼ ··· ◼ pv −− vg-domU ◼ lv-membre1
                      |
                      ◼ lv-membre2
                      |
                      …

Xen

Lors de la mise à jour vers Wheezy (07/03/2014), nous sommes passé de Xen 4.0 à Xen 4.1.

La "toolstack" que nous utilisons (xm) n'est pas celle par défaut dans Xen 4.1, et sera retirée dans Xen 4.2. Il est désormais conseillé d'utiliser xl : http://wiki.xen.org/wiki/XL http://wiki.xen.org/wiki/Choice_of_Toolstacks

Note : xl ne supporte pas le python dans les fichiers de configuration des VM (fonctionnalité que nous utilisons)

VM zombies

Dans certains cas, Xen pense qu'une VM est arrêtée, mais n'arrive pas à la relancer.

Symptomes : la VM est éteinte, n'apparaît pas dans xm list, mais lorsqu'on essaie de la relancer, on obtient :

Error: Device 768 (vbd) could not be connected.
Device /dev/dm-10 is mounted in a guest domain, and so cannot be mounted now.

Solution :

xenstore-rm /local/domain/<VM ID>/device/vbd/<device ID>

Pour connaître l'ID de la VM et être certain du device ID, utiliser xenstore-ls.

Ajouter les interfaces (VLAN) pour un membre

Exemple pour Ilico, on ajoute dans /etc/network/interfaces :

#
# ILICO
#
auto eth0.210
iface eth0.210 inet manual
    up ip link set eth0.210 up

auto br-ilico
iface br-ilico inet manual
    bridge-ports eth0.210
    bridge_maxwait 0

On peut ensuite monter ces interfaces :

ifup eth0.210
ifup br-ilico

Serveur tftp pour sauvegarde de poulpe

poulpe ne sachant sauvegarder sa configuration qu'en tftp, on installe un serveur tftp sur rouf.

Le paquet tftpd-hpa est installé.

Configuration pour écouter uniquement sur le VLAN d'admin :

# /etc/default/tftpd-hpa
TFTP_USERNAME="tftp"
TFTP_DIRECTORY="/srv/tftp"
TFTP_ADDRESS="192.168.1.2:69"
TFTP_OPTIONS="--secure"

La raçine des fichiers envoyés par tftp est donc /srv/tftp.