З: Чи Hadoop для всіх?
A: Ресурс Hadoop для обробки даних Apache з відкритим кодом та пов'язані з ним інструменти стають впливовими у світі великих даних. Але в гонці прийняти новіші, сучасніші ІТ-рішення компанії запитують, чи Hadoop є універсальним інструментом, який слід широко застосовувати до великих процесів передачі даних та аналітики.
Насправді, існує кілька міркувань щодо того, чи багато системи виграє від впровадження Hadoop. Одне полягає в тому, чи великі дані стосуються галузі. Іншими словами, чи буде бізнес працювати над придбанням та аналізом надзвичайно великих наборів даних, набір даних більший, ніж те, що можна проаналізувати за допомогою традиційної реляційної бази даних.
Крім того, компанії можуть вибирати між Hadoop та іншими фірмовими інструментами, які можуть вимагати менш технічних навичок. Деякі інші технологічні компанії створюють подібні інструменти з великими даними, які можуть мати інтуїтивніші інтерфейси або ярлики, щоб менш досвідчені користувачі могли більше працювати з великими даними.
У той же час існує консенсус, що більшість проектів з великими даними можуть отримати користь від Hadoop при достатньому адмініструванні. Такі інструменти, як дизайн складських приміщень Apache Hive та синтаксис програмування Apache Pig для великих даних, розширюють те, що Hadoop може зробити. Інші досягнення, як-от Hadapt і MapR, роблять синтаксис та використання Hadoop більш прозорими для широкого кола користувачів, або іншими словами, починаючи усунути проблему "techiness".
В цілому, бізнес повинен дивитись, наскільки великі дані він використовує та звідки беруться ці дані. Керівники та керівники повинні врахувати, хто буде працювати над залученими ІТ-проектами та їхніми навичками та досвідом. Вони повинні зрозуміти різницю між реалізацією різних інструментів великих даних. Це допоможе керівництву зрозуміти, чи Hadoop підходить для своїх проектів.