Ocena:

Obecnie brak opinii czytelników. Ocena opiera się na 12 głosach.
Mastering Hadoop 3: Big data processing at scale to unlock unique business insights
Kompleksowy przewodnik po najbardziej zaawansowanych koncepcjach Hadoop 3.
Kluczowe cechy
⬤ Zapoznaj się z nowo wprowadzonymi funkcjami i możliwościami Hadoop 3.
⬤ Chrup i przetwarzaj dane za pomocą MapReduce, YARN i wielu narzędzi w ekosystemie Hadoop.
⬤ Wyostrz swoje umiejętności Hadoop dzięki rzeczywistym studiom przypadków i kodowi.
Opis książki
Apache Hadoop to jedno z najpopularniejszych rozwiązań Big Data do rozproszonego przechowywania i przetwarzania dużych fragmentów danych. Wraz z Hadoop 3, Apache obiecuje dostarczyć wysokowydajną, bardziej odporną na błędy i wysoce wydajną platformę przetwarzania dużych zbiorów danych, z naciskiem na lepszą skalowalność i zwiększoną wydajność.
Dzięki temu przewodnikowi zrozumiesz zaawansowane koncepcje narzędzi ekosystemu Hadoop. Dowiesz się, jak Hadoop działa wewnętrznie, poznasz zaawansowane koncepcje różnych narzędzi ekosystemu, odkryjesz rozwiązania dla rzeczywistych przypadków użycia i zrozumiesz, jak zabezpieczyć swój klaster. Następnie przejdziesz przez koncepcje HDFS, YARN, MapReduce i Hadoop 3. Będziesz w stanie sprostać typowym wyzwaniom, takim jak efektywne korzystanie z Kafki, projektowanie systemów Kafka o niskim opóźnieniu, niezawodne dostarczanie wiadomości i obsługa dużych ilości danych. W miarę postępów odkryjesz, jak radzić sobie z głównymi wyzwaniami podczas budowania systemu przesyłania wiadomości klasy korporacyjnej oraz jak korzystać z różnych systemów przetwarzania strumieniowego wraz z Kafką, aby osiągnąć cele przedsiębiorstwa.
Pod koniec tej książki będziesz w pełni rozumieć, w jaki sposób komponenty ekosystemu Hadoop są skutecznie zintegrowane w celu wdrożenia szybkiego i niezawodnego potoku danych, i będziesz przygotowany do rozwiązania szeregu rzeczywistych problemów w potokach danych.
Czego się nauczysz
⬤ Dogłębne zrozumienie obliczeń rozproszonych przy użyciu Hadoop 3.
⬤ Tworzyć aplikacje klasy korporacyjnej przy użyciu Apache Spark, Flink i nie tylko.
⬤ Tworzenie skalowalnych i wydajnych potoków danych Hadoop z zabezpieczeniami, monitorowaniem i zarządzaniem danymi.
⬤ Poznaj wzorce przetwarzania danych wsadowych i sposoby modelowania danych w Hadoop.
⬤ Opanowanie najlepszych praktyk dla przedsiębiorstw korzystających lub planujących korzystanie z Hadoop 3 jako platformy danych.
⬤ Zrozumienie aspektów bezpieczeństwa Hadoop, w tym autoryzacji i uwierzytelniania.
Dla kogo jest ta książka
Jeśli chcesz zostać profesjonalistą w dziedzinie Big Data poprzez opanowanie zaawansowanych koncepcji Hadoop, ta książka jest dla Ciebie. Książka ta będzie również przydatna, jeśli jesteś profesjonalistą Hadoop, który chce wzmocnić swoją wiedzę na temat ekosystemu Hadoop. Podstawowa znajomość języka programowania Java i podstaw Hadoop jest niezbędna do rozpoczęcia pracy z tą książką.