<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Trucs Libres &#187; raid</title>
	<atom:link href="http://fr.positon.org/tag/raid/feed" rel="self" type="application/rss+xml" />
	<link>http://fr.positon.org</link>
	<description></description>
	<lastBuildDate>Tue, 23 Feb 2016 20:01:11 +0000</lastBuildDate>
	<language>fr-FR</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.7.1</generator>
	<item>
		<title>Monitoring d&#8217;un RAID SAS sur serveur Dell</title>
		<link>http://fr.positon.org/monitoring-dun-raid-sas-sur-serveur-dell</link>
		<comments>http://fr.positon.org/monitoring-dun-raid-sas-sur-serveur-dell#comments</comments>
		<pubDate>Tue, 02 Jun 2009 14:15:00 +0000</pubDate>
		<dc:creator><![CDATA[dooblem]]></dc:creator>
				<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Dell]]></category>
		<category><![CDATA[raid]]></category>

		<guid isPermaLink="false">http://positon.org:81/?p=51</guid>
		<description><![CDATA[Pour installer une surveillance du RAID SAS sur un serveur Dell : # lspci&#124;grep -i raid 01:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 1078 (rev 04) # vi /etc/apt/sources.list deb http://hwraid.le-vert.net/debian lenny main # aptitude update # aptitude install megactl # megasasctl a0 PERC 6/i Integrated encl:1 ldrv:1 batt:good a0d0 278GiB [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>Pour installer une surveillance du RAID SAS sur un serveur Dell :</p>
<pre>
# lspci|grep -i raid
01:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 1078 (rev 04)

# vi /etc/apt/sources.list
deb http://hwraid.le-vert.net/debian lenny main

# aptitude update
# aptitude install megactl

# megasasctl 
a0       PERC 6/i Integrated      encl:1 ldrv:1  batt:good
a0d0      278GiB RAID 1   1x2  optimal
a0e32s0    279GiB  a0d0  online  
a0e32s1    279GiB  a0d0  online  

# crontab -l
# monitoring du raid toutes les 4 heures
* */4 * * * /usr/sbin/megasasctl -H
</pre>
<p>Sources :</p>
<ul>
<li><a href="http://hwraid.le-vert.net/wiki/LSIMegaRAIDSAS" title="http://hwraid.le-vert.net/wiki/LSIMegaRAIDSAS">http://hwraid.le-vert.net/wiki/LSIMegaRAIDSAS</a></li>
<li><a href="http://hwraid.le-vert.net/wiki/DebianPackages" title="http://hwraid.le-vert.net/wiki/DebianPackages">http://hwraid.le-vert.net/wiki/DebianPackages</a></li>
</ul>
]]></content:encoded>
			<wfw:commentRss>http://fr.positon.org/monitoring-dun-raid-sas-sur-serveur-dell/feed</wfw:commentRss>
		<slash:comments></slash:comments>
		</item>
		<item>
		<title>Casser un RAID/LVM logiciel</title>
		<link>http://fr.positon.org/casser-un-raidlvm-logiciel</link>
		<comments>http://fr.positon.org/casser-un-raidlvm-logiciel#comments</comments>
		<pubDate>Tue, 30 Dec 2008 16:47:00 +0000</pubDate>
		<dc:creator><![CDATA[dooblem]]></dc:creator>
				<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Linux]]></category>
		<category><![CDATA[LVM]]></category>
		<category><![CDATA[raid]]></category>

		<guid isPermaLink="false">http://positon.org:81/?p=41</guid>
		<description><![CDATA[Vous disposez sur votre système d&#8217;une batterie de disques configurés avec du RAID1 logiciel (/dev/md0). L&#8217;espace de stockage est géré par LVM. Vos deux disques étant en mirroir, il peut être utile de « casser » le RAID pour pouvoir disposer librement du stockage sur le deuxième disque, ou encore, dans le cadre d&#8217;une refonte, [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>Vous disposez sur votre système d&#8217;une batterie de disques configurés avec du RAID1 logiciel (<code>/dev/md0</code>). L&#8217;espace de stockage est géré par LVM.</p>
<p>Vos deux disques étant en mirroir, il peut être utile de « casser » le RAID pour pouvoir disposer librement du stockage sur le deuxième disque, ou encore, dans le cadre d&#8217;une refonte, d&#8217;installer un tout nouveau système sur le deuxième disque, qui remplacera le premier à l&#8217;avenir.</p>
<p>En premier lieu, quelques commandes utiles en tout temps pour le diagnostic :</p>
<p>mdadm, le couteau suisse du RAID logiciel :</p>
<pre>
cat /proc/mdstat
mdadm --detail /dev/md0
</pre>
<p>La batterie de commandes LVM2 :</p>
<pre>
pvdisplay
pvs
vgdisplay
vgs
lvdisplay
lvs
</pre>
<p>La manipulation ne coule pas de source. En voici les étapes :</p>
<p><code>cat /proc/mdstat</code> montre les deux disques actifs (U pour Up). On marque le deuxième disque (<code>/dev/hdc1</code>) comme défectueux puis on l&#8217;enlève de la séquence de RAID pour pouvoir l&#8217;utiliser librement :</p>
<pre>
mdadm --manage --set-faulty /dev/md0 /dev/hdc1
mdadm -r /dev/md0 /dev/hdc1
</pre>
<p>L&#8217;objectif maintenant est de remonter la deuxième moitié du RAID/LVM de manière indépendante, mais sans perdre les données dupliquées présentes.</p>
<p>Il faut donc créer une nouvelle séquence RAID identique à la première en partant du deuxième disque. L&#8217;initialisation de <code>/dev/md1</code> se fait comme suit :</p>
<pre>
mdadm --create --verbose /dev/md1 --level=mirror --force --raid-devices=1 /dev/hdc1
</pre>
<p><code>cat /proc/mdstat</code> doit montrer les deux séquences.</p>
<p>La difficulté désormais est de faire en sorte que le système voie les deux VGs de manière indépendante, car toute commande LVM affiche désormais un avertissement du style :</p>
<pre>
Found duplicate PV LbpGyrR4uvsZivUwqnJQMYoZbCPTCpgu: using /dev/md1 not
/dev/md0
</pre>
<p>Le soucis est que les deux PVs sur les deux raids possèdent le même UUID, du coup LVM utilise le PV qui n&#8217;est pas celui du système actuel. Le problème est ici assez insoluble. Le seul moyen de s&#8217;en sortir est d&#8217;utiliser la commande <code>pvcreate</code> pour attribuer un nouveau UUID.<br />
D&#8217;autre part, impossible d&#8217;utiliser cette commande sur un PV qui contient des LVs actifs (<code>pvcreate</code> refuse).</p>
<p>Ajouter des filtres sur <code>/dev/md0</code> ou <code>/dev/md1</code> dans <code>/etc/lvm/lvm.conf</code> ne donne rien non plus car <code>pvcreate</code> ne les verra pas.</p>
<p>Voici donc la manipulation :</p>
<p><strong>Vérifiez la présence d&#8217;un fichier <code>/etc/lvm/backup/NOM_DU_VG</code>, ou faite en une sauvegarde à l&#8217;aide de la commande <code>vgcfgbackup</code>.</strong></p>
<p>Initialisez un volume physique (PV) vierge sur <code>/dev/md1</code> en forçant la création :</p>
<pre>
pvcreate -ff /dev/md1
</pre>
<p>Puis un VG :</p>
<pre>
vgcreate vg2 /dev/md1
</pre>
<p>Copiez le fichier <code>/etc/lvm/backup/NOM_DU_VG</code> et éditez le :</p>
<pre>
cp /etc/lvm/backup/vg /tmp/vg2
vi /tmp/vg2
</pre>
<p>Modifiez tous les UUID du fichier de sauvegarde. Il suffit par exemple, dans chaque UUID, de modifier un chiffre. Modifiez aussi le nom du vg. Pour le UUID du PV, mettez celui du PV récemment initialisé sur <code>/dev/md1</code> (commande <code>pvdisplay</code>).</p>
<p>Il est maintenant possible de restaurer la sauvegarde :</p>
<pre>
vgcfgrestore --file /tmp/vg2 vg2
</pre>
<p>Si tout s&#8217;est bien passé, on peut ensuite activer les LVs puis les monter :</p>
<pre>
vgchange -a y vg2
mount /dev/vg2/LV /mnt/test/
</pre>
]]></content:encoded>
			<wfw:commentRss>http://fr.positon.org/casser-un-raidlvm-logiciel/feed</wfw:commentRss>
		<slash:comments>6</slash:comments>
		</item>
	</channel>
</rss>
