Будинки Тенденції 10 найважливіших умов hadoop, які потрібно знати і розуміти

10 найважливіших умов hadoop, які потрібно знати і розуміти

Зміст:

Anonim

Великі дані, захоплююча назва для величезних обсягів структурованих, неструктурованих або напівструктурованих даних, як відомо, важко збирати, зберігати, керувати, обмінюватися, аналізувати та візуалізувати, принаймні, використовуючи традиційні програми для баз даних та програмного забезпечення. Ось чому технології великих даних мають потенціал ефективно та ефективно управляти та обробляти величезні обсяги даних. І саме Apache Hadoop надає основу та пов'язані з ними технології для обробки великих наборів даних по кластерах комп'ютерів розподіленим способом. Отже, щоб реально зрозуміти великі дані, вам потрібно трохи розібратися в Hadoop. Тут ми розглянемо основні терміни, які ви почуєте стосовно Hadoop - і що вони означають.

Вебінар: Big Iron, Знайомтеся з великими даними: Звільнення даних основних систем за допомогою Hadoop & Spark

Зареєструйтесь тут

Але спочатку подивіться, як працює Hadoop

Перш ніж зайти в екосистему Hadoop, потрібно чітко зрозуміти дві основні речі. Перший - як зберігається файл у Hadoop; друге - як обробляються збережені дані. Усі технології, пов'язані з Hadoop, в основному працюють на цих двох напрямках і роблять його більш зручним для користувачів. (Отримайте основи того, як Hadoop працює в «Як Hadoop допомагає вирішити великі проблеми даних».)

Тепер, про умови.

10 найважливіших умов hadoop, які потрібно знати і розуміти