Úvod do příkazů Hadoop fs

V tomto článku projdeme příkazy pro práci se soubory HADOOP, které se používají pro správu souborů prostřednictvím konzoly.

Budete potřebovat systém Linux a nejnovější verzi Hadoop. Chcete-li vytisknout verzi Hadoop, abyste věděli, kdo byl vydání vytvořen, je třeba zkontrolovat hodnotu kontrolního součtu, kterou po spuštění do platformy Hadoop potřebujeme provést níže uvedený příkaz.

Příkaz: Hadoop verze

Příkazy Hadoop fs

Nyní se naučíme, jak používat příkazy HADOOP fs.

Začneme základy. Stačí zadat tyto příkazy do PUTTY nebo libovolné konzoly, se kterou jste spokojeni.

1. hadoop fs -ls

U adresáře vrací seznam souborů a adresářů, zatímco u souboru vrací statistiky souboru.

hadoop fs -lsr: Toto je pro rekurzivní výpis adresářů a souborů ve specifických složkách.

  • Příklad : hadoop fs -ls / nebo hadoop fs -lsr
Poznámka : hadoop fs -ls (-d) (-h) (-R)
  • -d: Slouží k výpisu adresářů jako obyčejných souborů.
  • -h: Používá se k formátování velikostí souborů způsobem, který je čitelný člověkem, než jen počtem bajtů.
  • -R: Používá se k rekurzivnímu výpisu obsahu adresářů.
2. hadoop fs -mkdir

Tento příkaz vezme cestu jako argument a vytvoří adresáře v hdfs.

  • Příklad : hadoop fs -mkdir / user / datahub1 / data
Poznámka: Pokud se pokusíme vytvořit podadresáře, musí existovat nadřazený adresář. Pokud tato podmínka není splněna, objeví se „Žádný takový soubor nebo adresář“.
3. hadoop fs -touchz

Vytváří prázdný soubor a nevyužívá žádné místo

  • Příklad: hadoop fs -touchz URI
4. hadoop fs -rm

Odstraňte soubory zadané jako argument. Pro odstranění celého adresáře musíme zadat volbu -r. A pokud je zadána volba -skipTrash, přeskočí koše a soubor bude okamžitě odstraněn.

  • Příklad : hadoop fs -rm -r /user/test1/abc.text
5. hadoopfs-rmdir

Odstraňuje soubory a oprávnění adresářů a podadresářů. V zásadě jde o rozšířenou verzi Hadoop fs -rm.

6. hadoop fs -cp

Zkopíruje soubor z jednoho umístění do druhého

  • Příklad : hadoop fs -cp /user/data/abc.csv / user / datahub
7. hadoop fs -copyOdstranka

Zkopíruje soubor z edgenode do HDFS.

8. hadoop fs -put

Zkopíruje soubor z edgenode do HDFS, je podobný předchozímu příkazu, ale dá také přečte vstup ze standardního vstupu stdin a zapíše do HDFS

  • Příklad : hadoop fs -put abc.csv / user / data
Poznámka :
hadoop fs -put -p: Příznak zachovává přístup, čas změny, vlastnictví a režim.
hadoop fs -put -f: Tento příkaz přepíše cíl, pokud soubor již existuje před kopií.
9. hadoop fs -moveFromLocal

Je to podobné kopírování z lokálního, s výjimkou toho, že po zkopírování do HDFS se zdrojový soubor z lokálního edgenodu odstraní

  • Příklad : fs -moveFromLocal abc.text / user / data / acb.
10. hadoop fs -copyToLocal

Zkopíruje soubor z HDFS do edgenode.

  • Příklad : fs -copyToLocal abc.text / localpath
11. hadoop fs -chmod

Tento příkaz nám pomáhá změnit přístup k souboru nebo adresáři

  • Příklad : hadoop fs -chmod (-R) (cesta)
12. hadoop fs -chown

Tento příkaz nám pomáhá změnit vlastnictví souboru nebo adresáře

  • Příklad : hadoop fs -chown (-R) (OWNER) (:( GROUP)) PATH
13. hadoop fs -cat

Vytiskne obsah souboru HDFS na terminálu

  • Příklad : hadoop fs -cat /user/data/abc.csv
14. hadoop fs -tail

Zobrazuje poslední KB souboru HDFS ke stdout

  • Příklad : hadoop fs -tail / in / xyzfile
15. hadoop fs -test

Tento příkaz se používá pro operace testu souborů HDFS, vrátí 0, pokud je pravdivé.

  • - e: zkontroluje, zda soubor existuje.
  • -z: zkontroluje, zda je soubor nulové délky
  • -d / -f: zkontroluje, zda je cesta adresářem / souborem

Zde diskutujeme podrobně příklad

  • Příklad : hadoop fs -test - (defz) /user/test/test1.text
16. hadoop fs -du

Zobrazuje velikosti souborů a adresářů obsažených v daném adresáři nebo délku souboru v případě, že se jedná o soubor

17. hadoop fs -df

Zobrazuje volné místo

18. hadoop fs -checksum

Vrátí informace o kontrolním součtu souboru

19. hadoop fs -getfacl

Zobrazuje seznam řízení přístupu (ACL) konkrétního souboru nebo adresáře

20. hadoop fs -count

Počítá počet adresářů, souborů a bajtů pod cestou, která odpovídá zadanému vzoru souboru.

21. hadoop fs -setrep

Mění faktor replikace souboru. A pokud je cesta adresářem, příkaz změní faktor replikace všech souborů v adresáři.

  • Příklad : hadoop fs -setrep -R / user / datahub: používá se k přijetí zpětné schopnosti a nemá žádný účinek.

hadoop fs - setrep -w / user / datahub : čeká na dokončení replikace

22. hadoop fs -getmerge

Zřetězuje soubory HDFS ve zdroji do cílového lokálního souboru

  • Příklad : hadoop fs -getmerge / user / datahub
23. hadoop fs -endendooile

Připojí jeden zdroj nebo více zdrojů z místního systému souborů do cíle.

  • Příklad : hadoop fs -appendToFile xyz.log data.csv / in / appendfile
24. hadoop fs -stat

Vytiskne statistiky o souboru nebo adresáři.

  • Příklad : hadoop fs -stat (formát)

Závěr - Hadoop fs Příkazy

Prošli jsme tedy téměř všechny příkazy, které jsou nezbytné pro práci se soubory a prohlížíme si data uvnitř souborů. Nyní můžete své soubory a přijímat data upravovat do platformy Hadoop.

Doporučené články

Toto je průvodce příkazy Hadoop fs. Zde diskutujeme podrobně úvod do příkazů Hadoop fs a jeho příklad. Další informace naleznete také v následujících článcích

  1. Nainstalujte Hadoop
  2. Hadoop Tools
  3. Hadoop architektura
  4. Hadoop Components
  5. Hadoop fs Příkazy

Kategorie: