Перегруженность данными еще больше усложняет жизнь аналитика. Чтобы эффективно использовать данные, необходимо изменить подходы и отношение к ним, пишет на портале InformationWeek Мартин Брунталер, технический директор и соучредитель компании Adverity.
Задачи аналитиков данных как изменились, так и не изменились. По-прежнему занимаясь решением проблем, они сталкиваются с теми же старыми вопросами, особенно со стороны руководителей отделов маркетинга и финансовых директоров, о том, приносят ли инвестиции достаточную прибыль компании. Но поскольку сохраняется подход к сбору данных по принципу «чем больше, тем лучше», найти действенные ответы становится все сложнее.
В условиях постоянно растущих объемов информации у аналитиков остается мало времени на что-либо, кроме пересказа недавней истории с помощью описательной аналитики. А в условиях, когда руководители компаний стремятся получить инсайты, позволяющие сократить расходы и улучшить бизнес-стратегию, это означает, что возможности аналитиков в плане предоставления ценности существенно ограничены.
Что заставляет аналитиков застревать в прошлом?
Ответственность за приведение данных в надлежащий вид сегодня включает в себя задачи, которые раньше решали инженеры по данным или ПО. Помимо сбора, регистрации и обработки данных из разных источников, аналитики должны внимательно следить за соблюдением норм конфиденциальности. Это включает в себя навигацию по «серым» зонам глобальных правил и преодоление юридических препятствий для получения доступа к данным, которые могут считаться конфиденциальными.
После этого аналитику нужно разобраться в том, как запрашивать и подключать базы данных, а также разрабатывать, контейнеризировать и преобразовывать моделирующие структуры в API, чтобы их можно было подключить к инструментам оценки или бизнес-аналитики и начать таки использовать данные.
Все это отнимает много времени и становится еще более трудоемким, когда ставится задача «проанализировать все». В итоге, столкнувшись с бесконечно растущим объемом работы, аналитики становятся похожими на волшебника из страны Оз: за внешним привлекательным фасадом они тонут в данных и судорожно дергают за различные ручные рычаги, чтобы создать видимость автоматического управления данными. В итоге конечный результат, когда он наконец попадает на приборные панели бизнес-пользователей, оказывается устаревшим.
Возьмем, к примеру, применение данных в маркетинговых командах. В большинстве отраслей, от автомобильной до швейной, рекламные кампании имеют короткий срок существования — от двух недель до двух месяцев, и время для внесения изменений ограничено. Для руководителей рекламных кампаний, которые и без того испытывают трудности со временем, необходимым для изменения бюджетов и корректировки креативной стратегии, данные, поступающие с опозданием, становятся последней проблемой, не позволяющей им использовать возможности оптимизации, которые «не успеешь моргнуть, как будет поздно».
Современные стеки еще недостаточно интеллектуальны
В прошлом году компания McKinsey объяснила проблемы с получением оперативных данных двумя основными причинами: технологическими ограничениями (например, унаследованными системами) и сложностями с внедрением современной архитектуры, а также предсказала, что эти проблемы будут решены с помощью облачных инструментов.
На мой взгляд, этот вердикт не совсем верен. Использование облачных технологий, скорее всего, приведет к некоторому повышению эффективности анализа, а хранилища данных помогут оптимизировать объединение структурированных и полуструктурированных данных. Однако, учитывая широкое распространение неструктурированных данных, можно предположить, что многие проблемы останутся.
Современные стеки по-прежнему страдают теми же недостатками, что и ранние облачные системы. Как правило, они содержат множество модульных компонентов, которые сложно согласовать между собой и которые создают бессистемную lego-башню из несочетаемых кирпичиков. Мы наблюдаем слишком много сценариев, когда основные проблемы обусловлены стремлением рассматривать и управлять данными из этих компонентов по отдельности.
Отсутствие интеграции между инструментами сбора и активации данных, такими как Google Analytics, приводит к беспорядку и низкому качеству данных, а также вынуждает аналитиков тратить больше времени на работу с данными. В этом отношении другие элементы оценки McKinsey верны: использование экспертизы в области данных для ручного изучения и соединения данных — ненужная трата времени.
Минимизировать, чтобы максимизировать — продуктивизация данных
На общем уровне подходы к координации данных требуют пересмотра. Организации должны разработать четкие стратегии работы с данными, которые не только определяют потребности бизнеса, но и определяют роль каждого производителя и пользователя данных в удовлетворении этих потребностей.
Вместо того чтобы собирать данные из всех источников, необходимо взять запросы, которые аналитики получают от команд, и в обратном порядке определить, что необходимо для ответа на них. Только на этом этапе компании получат необходимую информацию, чтобы начать итеративную разработку модели данных, обеспечивающей действительно ценный продукт.
Вероятно, в рамках этой работы будут реализованы более быстрые и гибкие методы оркестровки. Создание инфраструктуры, позволяющей мгновенно согласовывать и преобразовывать информацию в соответствии с конкретными потребностями, значительно облегчит работу аналитиков. Отличным примером является функция отчетности, недавно выпущенная PR- и интегрированным маркетинговым агентством 10Fold. Этот инструмент, получивший название «Metrics matter» («Метрики имеют значение»), позволяет руководителям компаний поменять море отчетов в PowerPoint на один источник правды, автоматизировав нормализацию, рационализацию и объединение данных; при этом данные попадают на чистую приборную панель, где отображаются заданные ключевые показатели эффективности, которые агентства могут использовать для отслеживания и оптимизации работы.
Перегрузка данными еще больше усложняет участь аналитика. Помимо работы с постоянно расширяющимся набором не связанных между собой инструментов, аналитику приходится продираться сквозь бесконечные потоки данных и извлекать из них значимые инсайты, зачастую лишь подтверждая то, что уже выяснили маркетинговые, продуктовые и финансовые отделы.
Чтобы эффективно использовать данные, необходимо изменить подходы и отношение к ним. Оптимизация основных методов работы с данными позволит существенно сократить время их обработки и значительно снизить нагрузку на аналитиков. Но для того, чтобы перейти от рассказа об истории к прогнозированию будущего, необходимо строить конвейеры данных с учетом их практического использования.