Adaptive Computing: прогнозы развития технологий анализа «больших данных» в 2014 году

Компания Adaptive Computing (ранее известная как Cluster Resources) опубликовала прогнозы развития «больших данных» и облачных платформ на 2014 год. Они охватывают несколько возникающих сегодня тенденций, включая взаимопроникновение облачных и высокопроизводительных (HPC) вычислений, а также их слияние с технологиями Big Data.

Сама фирма известна в первую очередь как разработчик управляющего программного обеспечения Moab, широко используемого сегодня в сфере HPC и для оптимизации работы гибридных облаков.

В основу прогнозов легли практические исследования рынка, результаты которых докладывались на проводимых в конце прошлого года конференциях HPC, HP Discover и Gartner Data Center. Более четырёхсот администраторов и менеджеров дата-центров приняли участие в опросе. Их ответы помогли оценить динамику в запросах корпоративных клиентов, представляющих самые разные отрасли — от сферы образования до телекоммуникаций.

Генеральный директор Adaptive Computing Роб Клайд (Rob Clyde) видит в наступившем году хорошие перспективы как для своей компании, так и для всей отрасли Big Data: «Скорость, точность и стоимость обработки “больших данных” для предприятия — вот новое поле конкурентной битвы. Мы ожидаем, что осознанная потребность в результатах значительно повлияет на вычислительные сервисы в 2014 году и позже. По нашей оценке, “большие данные” потребуют оптимизированного подхода, при котором сложный анализ задействует все ресурсы множества разнородных вычислительных платформ. Moab может выступать в роли посредника, распределяющего задачи между HPC, облачными и кластерными платформами».

Итак, прогнозы.

  1. Корпоративные клиенты будут сочетать различные вычислительные ресурсы для лучшей обработки «больших данных». По результатам опроса Adaptive Computing, на такую схему рассчитывают в 91% компаний. Организации получат конкурентное преимущество, вкладывая капитал в программное обеспечение, автоматизирующее распределение ресурсов центров обработки данных.
  2. Больше организаций станут использовать HPC как основу обработки «больших данных». 44% компаний уже применяют такой подход. Затраты на аппаратное обеспечение HPC продолжают уменьшаться — а следовательно, в этом году больше компаний сможет позволить себе их использовать.
  3. Анализ «больших данных» будет лучше автоматизирован. Сегодня в 84% организаций многие аналитические операции выполняются вручную. Это приводит к неоправданным затратам на ручной труд и устранение негативного влияния «человеческого фактора».
  4. Объём и структура потоков данных начнут сильнее влиять на работу компаний. Уже 72% опрошенных полагают, что «большие данные» влияют на их бизнес. Возрастающий объём запросов и ежедневных операций всё сложнее обработать традиционными методами. Увеличение информационной нагрузки вызывает задержку в принятии важных решений и приводит к упущенной выгоде. Автоматизация информационных потоков станет одним из важнейших акцентов в развитии ИТ-инфраструктуры предприятий.
  5. Анализ «больших данных» будет приносить больше прибыли. Такой прогноз хорошо согласуется с данными Gartner: согласно опубликованному отчёту, более двух тысяч фирм рассчитывают получить в этом году втрое больший доход от аналитики.

Что будем искать? Например,ChatGPT

Мы в социальных сетях