<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><br class=""><div><br class=""><blockquote type="cite" class=""><div class="">Le 20 août 2019 à 12:14, Frederic Dumas <<a href="mailto:f.dumas@ellis.siteparc.fr" class="">f.dumas@ellis.siteparc.fr</a>> a écrit :</div><br class="Apple-interchange-newline"><div class=""><div class=""><br class="">Bonjour à tous,<br class=""><br class="">Peut-être d'autres ont rencontré ce phénomène sur des grappes en RAID1 logiciel (mdadm) sous Linux et pourront me conseiller.<br class=""><br class=""><br class="">Deux grappes constituées d'un SSD (/dev/sdb) sur un contrôleur et de deux HDD (/dev/sda et /dev/sdd) sur un autre contrôleur:<br class=""><br class=""><br class=""><br class=""><blockquote type="cite" class="">/dev/md1:<br class="">           Version : 1.2<br class="">     Creation Time : Sat Aug 17 20:43:32 2019<br class="">        Raid Level : raid1<br class="">        Array Size : 585922560 (558.78 GiB 599.98 GB)<br class="">     Used Dev Size : 585922560 (558.78 GiB 599.98 GB)<br class="">      Raid Devices : 2<br class="">     Total Devices : 2<br class="">       Persistence : Superblock is persistent<br class="">     Intent Bitmap : Internal<br class="">       Update Time : Mon Aug 19 11:17:20 2019<br class="">             State : clean     Active Devices : 2<br class="">   Working Devices : 2<br class="">    Failed Devices : 0<br class="">     Spare Devices : 0<br class="">Consistency Policy : bitmap<br class="">              Name : <sanitized>:1  (local to host <sanitized>)<br class="">              UUID : <sanitized><br class="">            Events : 20538<br class="">    Number   Major   Minor   RaidDevice State<br class="">       0       8        2        0      active sync   /dev/sda2<br class="">       1       8       17        1      active sync   /dev/sdb1<br class="">/dev/md2:<br class="">           Version : 1.2<br class="">     Creation Time : Sat Aug 17 20:43:50 2019<br class="">        Raid Level : raid1<br class="">        Array Size : 585922560 (558.78 GiB 599.98 GB)<br class="">     Used Dev Size : 585922560 (558.78 GiB 599.98 GB)<br class="">      Raid Devices : 2<br class="">     Total Devices : 2<br class="">       Persistence : Superblock is persistent<br class="">     Intent Bitmap : Internal<br class="">       Update Time : Mon Aug 19 11:17:20 2019<br class="">             State : clean     Active Devices : 2<br class="">   Working Devices : 2<br class="">    Failed Devices : 0<br class="">     Spare Devices : 0<br class="">Consistency Policy : bitmap<br class="">              Name : <sanitized>:2  (local to host <sanitized>)<br class="">              UUID : <sanitized><br class="">            Events : 12267<br class="">    Number   Major   Minor   RaidDevice State<br class="">       0       8       18        0      active sync   /dev/sdb2<br class="">       1       8       50        1      active sync   /dev/sdd2 <br class=""></blockquote><br class=""><br class=""><br class="">L'option --write-mostly n'est pas utilisée. Elle permet de prioriser les accès en lecture sur le SSD. Mais les grappes ont été construites sans cette option.<br class=""><br class=""><br class="">hdparm est le seul outil que je connaisse pour faire un test de débit en lecture sur une grappe en particulier, quelque soit le système de fichiers au-dessus.<br class=""><br class=""><br class="">Voilà l'étrange résultat que hdparm renvoie:<br class=""><br class=""><blockquote type="cite" class=""># hdparm -t /dev/md1 /dev/md2 <br class="">/dev/md1: (HDD + SSD)<br class=""> Timing buffered disk reads: 216 MB in  3.03 seconds =  71.38 MB/sec<br class=""><br class="">/dev/md2: (SSD + HDD)<br class=""> Timing buffered disk reads: 672 MB in  3.00 seconds = 223.80 MB/sec<br class=""></blockquote><br class=""><br class="">/dev/md2 offre le taux de transfert plus ou moins attendu d'un SSD sur un lien SATA bridé à 300Mo/s. Par contre, le résultat de /dev/md1 semble démontrer que la lecture se fait exclusivement sur le HDD, ignorant totalement le SSD. C'est une situation à la fois curieuse et problématique.<br class=""><br class=""><br class="">Comment expliquer ce phénomène ?<br class=""><br class=""><br class="">Le seul début de piste auquel je peux penser, c'est que l'ordre d'assemblage des grappes n'a pas été le même pour md1 et md2:<br class=""><br class="">/dev/md1 est composée de HDD1 + SDD<br class="">/dev/md2 est composée de SDD + HDD2<br class=""><br class=""><br class="">Quelqu'un a-t-il jamais entendu dire que l'ordre d'assemblage des disques dans la grappe pourrait-il avoir une conséquence sur la priorité de lecture depuis l'un ou l'autre périphérique ?<br class=""><br class=""></div></div></blockquote></div><br class=""><div class="">Regarde si tu es pas dans ce cas: <a href="https://serverfault.com/questions/713530/raid1-mdadm-mirror-not-performing-parallel-reads-as-expected" class="">https://serverfault.com/questions/713530/raid1-mdadm-mirror-not-performing-parallel-reads-as-expected</a></div><div class=""><br class=""></div></body></html>