Video: Hadoop YARN 2025
Hver slave node i Yet Another Resource Negotiator (YARN) har en Node Manager-demon, som fungerer som en slave for Resource Manager. Som med TaskTracker har hver slave node en tjeneste som binder den til behandlingstjenesten (Node Manager) og lagringstjenesten (DataNode) som gjør at Hadoop kan være et distribuert system.
Hver Node Manager sporer de tilgjengelige databehandlingsressursene på slave node og sender regelmessige rapporter til Resource Manager.
Behandlingsressursene i en Hadoop-klynge forbrukes i bittestørrelser kalt beholdere. En container er en samling av alle ressursene som er nødvendige for å kjøre et program: CPU-kjerner, minne, nettverksbåndbredde og diskplass. En distribuert beholder går som en individuell prosess på en slaveknute i en Hadoop-klynge.
Konseptet med en container kan minne deg om et -spor, prosesseringsenheten som brukes av JobTracker og TaskTracker, men de har noen bemerkelsesverdige forskjeller. Mest vesentlig, beholdere er generiske og kan kjøre hvilken applikasjonslogikk de er gitt, i motsetning til spor, som er spesifikt definert for å kjøre enten kart eller redusere oppgaver. Også, beholdere kan bli bedt om med tilpassede mengder ressurser, mens sporene er alle ensartede.
Så lenge den forespurte mengden er innenfor minimum og maksimumsgrenser for hva som er akseptabelt for en container (og så lenge den forespurte mengden minne er et flertall av minimumsbeløpet), vil ressursbehandleren vil gi og planlegge den beholderen.
Alle beholderprosesser som kjører på slaveknutepunkter, er i utgangspunktet tilveiebrakt, overvåket og sporet av den slave nodeens Node Manager daemon.
