Q:
Як великі дані вплинули на процес роботи з традиційною аналітикою?
A:Прагнення до бізнес-аналітики чи інших аналітичних процесів сильно відрізняється, і їх слід оцінювати у кожному конкретному випадку. Однак є деякі загальні способи, завдяки яким набори великих даних змінили те, як професіонали підходять до проектів аналітики.
Мабуть, найважливіший спосіб, коли великі дані вплинули на аналітику, полягає в тому, як аналізуються сховища даних. Перед великими даними сховища даних зазвичай аналізувались на лінійній основі окремо. Перед комп'ютерами це робилося вручну. Тоді електронні таблиці Excel та інші інструменти дозволили більш ефективно використовувати лінійний аналіз аналітики. Наприклад, електронна таблиця відображатиме таблицю різних клієнтів та історію їх придбання, а користувачі створюватимуть звіти про середні покупки, збираючись по черзі та беручи до уваги кожен запис. Це був переважаючий метод здійснення аналітики, поки на місце події не з’явилися великі дані.
Безкоштовний вебінар Знаючи свого клієнта на багатьох платформах |
У світі великих даних аналіз зазвичай проводиться за допомогою широких алгоритмів та сортування шаблонів. Зазвичай це не робиться вручну, оскільки це займе занадто багато часу і вимагатиме занадто багато ресурсів. Крім того, структурні інструменти, що поставляються разом з великими даними, означають, що аналітику не потрібно робити вручну. Зростає використання того, що називається евристикою або імовірнісною роботою, що дозволяє зробити набагато ефективнішу аналітику на основі розпізнавання шаблонів та інших стратегій, що витісняє процес традиційного статистичного аналізу.
З цією метою сучасний бізнес швидко вкладає кошти у всілякі апаратні та програмні засоби для використання цих більш складних методів обміну даними. Великі дані значно вплинули на те, як ми аналізуємо майже все, від наукового проекту до бізнес-процесу. Простіше кажучи, програмні засоби обробляють дані та сортують їх за допомогою автоматизації та чогось, що наближається до штучного інтелекту.