Video: Jabba's Dance Number (Original 1983) - Return of the Jedi 2025
Som død og skatt, diskfeil (og gitt nok tid, jevn knutepunkt eller rackfeil) uunngåelig i Hadoop Distributed File System (HDFS). I eksemplet som vises, ville klyngen fortsette å fungere selv om ett rekk skulle mislykkes. Ytelsen vil lide fordi du har mistet halvparten av prosessressursene dine, men systemet er fremdeles online, og alle data er fortsatt tilgjengelige.
I et scenario der en harddisk eller en slave node mislykkes, finner den sentrale metadata-serveren for HDFS (kalles NameNode) til slutt at filblokkene som er lagret på den mislykkede ressursen, ikke lenger er tilgjengelige. Hvis for eksempel slave node 3 mislykkes, vil det bety at blokkene A, C og D er underreplisert .
Med andre ord er for få kopier av disse blokkene tilgjengelige i HDFS. Når HDFS oppdager at en blokk er underreplisert, bestiller den en ny kopi.
For å fortsette eksemplet, si at Slave Node 3 kommer tilbake online etter noen timer. I mellomtiden har HDFS sikret at det er tre kopier av alle filblokkene. Så nå har blokkene A, C og D fire eksemplarer og er overreplisert . Som med underrepliserte blokker vil HDFS sentrale metadata server også finne ut om dette, og vil bestille en kopi av hver fil som skal slettes.
Et fint resultat av tilgjengeligheten av data er at når diskfeil oppstår, er det ikke nødvendig å erstatte feilbare harddisker umiddelbart. Dette kan mer effektivt gjøres med jevne mellomrom.
