0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

ТОП 10 облачных тенденций в 2018 году

Содержание

ТОП 10 облачных тенденций в 2018 году

От редакции: Облачные технологии прошли путь от личного облачного хранилища до миграции в облако целых организаций. Сегодня рынок облачных услуг стабильно показывает самые высокие темпы роста во всей ИТ-сфере. Что же ждет облака завтра? Мы изучили мнения западных аналитиков и выбрали самые распространенные прогнозы о будущем облачной архитектуры.

Сегодня компании должны быть достаточно гибкими, способными быстро развиваться и соответствовать постоянно изменяющимся желаниям клиентов. Предприятия все чаще обращаются к облачным системам для создания внутренней коммуникативной среды организации, системы хранения данных и системы обработки больших данных. По мере развития технологий облака, организации продолжают находить им все больше и больше применений.

Более того, исполнительные директора фирм и ИТ-руководители уже не рассматривают Облако исключительно как инструмент; теперь больше внимания уделяется поиску правильных путей его использования для достижения целей бизнеса в 2018 году.

Хотя использование облака сулит много преимуществ, крупные организации все еще не решаются перенести свою информацию в облако в основном из-за проблем с безопасностью. Но даже с учетом опасений по поводу безопасности облачные сервисы набирают все большую популярность благодаря совершенствованиям в использовании, включающим мобильность, экономическую эффективность, оптимизированное взаимодействие и увеличение скорости подключения и эффективности работы.

Тренды в сфере облачных технологий: хранение данных

Сегодня расскажем о трендах в области хранения данных, которые стимулируют развитие облачных технологий и дата-центров. Речь пойдет о жестких дисках и «твердотельниках», а также ДНК-хранилищах и блокчейнах.

SSD рвется вперед, но HDD не отстает

Все больше компаний и облачных провайдеров используют SSD для организации хранилищ в корпоративных дата-центрах. Твердотельные накопители в свои ЦОД внедряют такие ИТ-гиганты, как Calligo, Facebook и Dropbox. Они говорят, что flash-память лучше справляется с обработкой больших объемов запросов.

Аналитики считают, что в 2021 году общий объем поставок твердотельных накопителей возрастет до 313 млн, что в два раза превысит показатели 2016 года. Этому способствует медленное, но верное снижение стоимости SSD — в среднем на 3–5% в год.

Интерес к SSD-накопителям подогревается и новыми разработками. В качестве примера можно привести продукты на базе технологии 3D Xpoint. Она позволяет создавать память с произвольным доступом, принцип работы которой основан на переходе вещества из одного фазового состояния в другое.

В прошлом году компания Intel представила накопитель Optane 905P на 3D Xpoint — его объем составил 1,5 ТБ. Из-за этого и высокой скорости чтения/записи он нашел применение в дата-центрах.

Несмотря на растущую привлекательность «твердотельников» не все компании готовы отказаться от классических HDD. SSD по-прежнему дороже привычных HDD в среднем в шесть раз, и стоимость хранения в пересчете на гигабайт данных получается довольно высокой.

При этом производители HDD продолжают развивать емкостные и скоростные характеристики своих продуктов. Например, WD в конце 2018 года представила HDD на 15 ТБ, а в начале 2019 анонсировала скорый релиз диска на 16 ТБ, созданного на основе технологии микроволновой магнитной записи, или MAMR. В этом году компания также планирует завершить работу над 18-гигабайтным HDD.

Seagate делает ставку на производительность дисков, создавая модели с двумя актуаторами. По словам разработчиков, независимые блоки с головками увеличивают показатель IOPS в два раза при произвольном чтении. Еще одной технологией, которая должна повысить производительность HDD, являются гелиевые камеры. Гелий легче воздуха, поэтому он уменьшает трение во время вращения магнитных дисков и повышает ресурс накопителя.

Развиваются «альтернативные» методы хранения данных

К примеру, инженеры из Гарварда разрабатывают ДНК-хранилища. Используя естественный защитный механизм бактерии — CRISPR — им удалось закодировать в нее анимационный фильм. В перспективе ДНК-технологии позволят создавать долговечные носители, которые смогут хранить петабайты информации на протяжении десятков тысяч лет.

Другой пример альтернативной технологии — разработка Исследовательского центра оптоэлектроники Саутгемптона. Инженеры создали 5D-хранилище, носителем информации в котором является наноструктурированный прозрачный материал. Данные не него записываются фемтосекундным лазером. Помимо направлений X, Y и Z при кодировании информации используются ориентация оси наименьшей скорости распространения света и фазовый сдвиг — отсюда и 5D. Такой накопитель способен хранить 360 ТБ данных, а срок его службы неограничен (теоретически).

Но пока что обе технологии — и ДНК-хранилища, и 5D-хранилища — находятся на стадии тестирования и далеки от массового применения. Хотя попытки использовать их в дата-центрах уже производятся. Например, внедрением ДНК в свои ЦОДы занимаются в Microsoft.

фото Angy DS CC BY

Облачные провайдеры переходят на блокчейн

Постепенно популярность в облаке приобретают блокчейн-технологии. Они облегчают жизнь как поставщикам услуг, так и их клиентам. Первые получают возможность следить, каким образом используются их сервисы, а вторые — быстрее обрабатывать транзакции на виртуальных машинах.

В прошлом году RedHat создали блокчейн-систему для облачных провайдеров, которая отслеживает то, как клиент работает с услугой и сколько тратит на нее времени. Вендоры, анализируя эти данные, затем получают возможность предоставить клиенту более выгодные сервисы. Например, вместо пакетов услуг предложить оплату по модели pay-as-you-go, когда деньги со счета списываются лишь во время фактического использования ИТ-инфраструктуры.

Также такая система позволит выявлять мошеннические схемы. Записанные в блокчейн данные сложно модернизировать (процесс слишком ресурсозатратен). Если записать в распределенный реестр информацию о лицензиях, то провайдер всегда сможет узнать, работает ли по одной лицензии несколько человек.

Читать еще:  Кто внедряет, а кто тормозит развитие IPv6

VMware тоже занимается разработкой блокчейн-платформы для финансовых организаций и банков. Их решение даст возможность выстраивать надежную и масштабируемую инфраструктуру на блокчейне для защиты данных от кражи и несанкционированного изменения. В будущем VMware планируют добавить в свою систему функции распределенной аналитики и IoT-интерфейсы.

Что готовит облачное будущее

По результатам опроса Rightscale, в котором участвовала тысяча IT-специалистов из разных компаний, 81% организаций использует гибридные облачные решения. При для 45% переход на облачную ИТ-инфраструктуру является приоритетной задачей. В Gartner говорят , что к 2021 году стоимость рынка IaaS вырастет до 83,5 млрд долларов США по сравнению с нынешними 40 млрд.

Рост популярности облачных решений приведет к увеличению объемов данных, обрабатываемых в ЦОД. Поэтому можно с уверенностью сказать, что в ближайшем будущем рынок технологий хранения данных для дата-центров продолжит расти. Также будет появляться больше инструментов для IaaS-провайдеров, которые позволят им расширить спектр предоставляемых услуг для клиентов.

2. Повышенное внимание к экономике хранения данных

Поскольку рост данных не прекращается, крупные организации будут испытывать на себе повышенное давление, они должны четко понимать соотношение затрат и выгоды от разных моделей хранения. Дело в том, что объем создаваемых, совместно используемых и хранимых данных увеличивается в геометрической прогрессии. Компании должны будут пересмотреть используемые решения для частного облака, если они хотят предложить альтернативу хранению в публичных облаках.

В этом новом стандарте, в котором мы конвертируем время в деньги, частные облака дешевле, но зачастую они проигрывают публичному облаку из-за отсутствия гибкости, времени вывода на рынок. Любой бизнес, желающий уменьшить расходы на IT, должен будет повысить гибкость частного облака. Это не означает, что частное облако должно быть таким же гибким, как публичное облако. Оно должно быть достаточно быстрым, чтобы больше не имело смысла переплачивать за публичное облако.

Например, если для создания новой среды публичному облаку требуется 15 минут, а частному облаку — месяц, то организации выбирают переход в публичное облако. Но если разница составляет 15 минут против одного дня, это совершенно другой вопрос. У частных облаков есть ценовое преимущество, но они должны повысить гибкость, чтобы стать настоящей альтернативой публичным. Без этого изменения компании будут продолжать тратить больше денег, чтобы ее получить. Если же оно произойдет, то будет трудно определиться, что выбрать.

Где используются облачные вычисления

В корпоративной сфере облачные вычисления охватывают большой набор услуг — от виртуальной инфраструктуры (Infrastructure as a Service, IaaS) до корпоративных приложений (Software as a Service, SaaS). Благодаря облакам служебные сервисы, доступ к которым сотрудники раньше получали только в офисе, используя рабочий ПК, теперь доступны из любого места, где есть интернет.

Облака используются практически во всех высокотехнологичных отраслях: в разработке ПО, в проектах на основе IoT, для анализа больших данных и пр. Есть и более узкоспециализированные задачи, которые решаются в облаке, — например, обработка речи реальном времени с применением искусственного интеллекта.

Продолжение совместной работы поставщиков облачных технологий

В 2017 году VMware объединилась с AWS, а Pivotal объявила о партнерстве с Google Cloud. Всё на благо клиентов.

Облачные провайдеры в своём развитии имеют три варианта. Дорогостоящие пути — идти в одиночку или тратить сотни миллионов долларов на покупку других компаний. Третий путь — путь сотрудничества со своими конкурентами для создания экосистем, которые отвечают уникальным потребностям их клиентской базы.

В этом году ожидаем увидеть более интересные (и неожиданные) партнерские отношения, поскольку поставщики облачных вычислений соревнуются в удовлетворении потребностей клиентов. Похоже, что 2018 год станет «Годом специализированного облака».

Автоматизация разработки софта

Использование облака позволило автоматизировать разработку SaaS. Приложения, работающие по данной модели (то есть «приложения как бизнес»), можно объединить двумя критериями:

  • Такие программы требуют постоянного обновления. Скорость выката нового функционала является критической для поддержания конкурентоспособности.
  • Они восприимчивы к падениям и сбоям: если работа SaaS нарушена, то появляется много недовольных пользователей.

В результате такие приложения должны совмещать в себе две противоположные характеристики. С одной стороны, необходимы быстрые обновления (быстрее, чем у ближайших конкурентов). С другой – нельзя допустить падения сервиса, а, следовательно, нужно оперативно отслеживать и устранять ошибки.

Именно поэтому трендом стало активное использование облака для SaaS. Стоит сказать, что подобная ситуация вполне объяснима. Ведь далеко не каждая компания может создать собственную инфраструктуру, нанять работников для администрирования серверов и платить за их техническое обслуживание и модернизацию.

Также наметилась тенденция использования облака для системы PaaS («платформы как сервиса»). Облачное хранилище позволяет получить настроенные сервисы, базы данных и комплексы машинного обучения. И практически 50% инструментов, которые используются для этих целей, можно заполучить только в облаке.

Даже такие крупные проекты, как «Битрикс24», отказались от собственной ИТ-инфраструктуры в пользу сервисов облачного провайдера. Это позволило сократить расходы и модернизировать работу отделов. Кроме этого, облачную инфраструктуру легче администрировать, а значит, не потребуются лишние затраты на сотрудников и оборудование.

Некоторые тенденции в сфере хранения данных, на которые стоит обратить внимание

Мы знаем, что данные становятся все более ценным для бизнеса ресурсом. Известно и то, что объем генерируемых в мире данных будет расти в геометрической прогрессии. Но тогда возникает вопрос: где же компании собираются их хранить? С появлением новых технологий в этой отрасли стали происходить заметные изменения, которые окажут влияние на рынок корпоративных СХД.

Ожидается, что в скором времени резко вырастут объемы видеоматериалов и тех данных, которые собираются с различных датчиков. Последние тенденции приведут к изменениям в самом подходе к хранению информации и управлению ею. ИТ-администраторы и директора должны заранее планировать будущие изменения и быть к ним готовыми.

Стандартизация управления данными

Каждая ответственная компания стремится раскрыть возможности своих данных, но сперва их необходимо сделать более управляемыми. В этом случае традиционные инструменты отходят на второй план: в первую очередь предприятие нуждается в мощном оборудовании и максимально стандартизированном управлении информацией.

Читать еще:  Как узнать, безопасен ли удаленный доступ в вашей компании

Например, компании должны по возможности централизовать администрирование существующих СХД, в идеале — управлять ими через единый интерфейс. Данные будет намного легче сортировать, контролировать и использовать, если их можно будет универсальным образом интерпретировать.

Еще один тренд — автоматизация хранения с целью повышения эффективности, снижения затрат на администрирование и исключения ошибок. Например, аналитика с использованием ИИ и машинного обучения позволяет прогнозировать заполняемость, выделять редко используемые данные для перемещения на другие уровни хранения, выявлять потенциальные риски.


Рост мирового рынка СХД с функциями ИИ (AI-Powered Storage). По данным Market Research Future

Решения на основе искусственного интеллекта и машинного обучения для управления и анализа больших объемов данных получат широкое распространение. Особенно с учетом того, что сложность и разнообразие данных продолжают расти.

Гибридные системы хранения и многоуровневое хранение данных (тиринг)

Многие компании предпочитают использовать комбинацию локального хранилища и облачных платформ. Там, где требуется быстрый доступ к большим объемам данных, по-прежнему необходимы сети хранения SAN или другие локальные системы. Однако для резервного копирования и архивирования больше подходит облако. Чтобы оптимизировать распределение ресурсов, используются механизмы многоуровневого хранения — тиринга, которые автоматически определяют оптимальное место для размещения данных.


Используемые технологии хранения данных — сейчас и через два года. По прогнозу Spiceworks Research

Искусственный интеллект и «быстрое» хранение данных

Другой тенденцией, которая может оказать глубокое влияние на решения хранения данных, является развитие технологий искусственного интеллекта. Здесь в игру вступают большие объемы информации, особенно на этапе машинного/глубокого обучения: существующие данные проверяются на наличие определенных характеристик системой ИИ, которая затем соответствующим образом «обучается».


Рост продаж СХД для нагрузок ИИ в мире. Источник: IDC

Везде, где используются вычислительные системы на основе GPU, решающую роль играет быстрый обмен данными между алгоритмами ИИ и базовой системой хранения. В конечном счете здесь применяются те же принципы: нужно найти правильное сочетание локальных и облачных систем хранения.

Локальные ЦОД для ускорения коммуникаций

Облачным провайдерам все чаще приходится обеспечивать максимально быстрое подключение к корпоративной инфраструктуре. По этой причине новые центры обработки данных, такие как ЦОД Microsoft или Amazon, размещаются «ближе к пользователю». Это помогает устранить или, по крайней мере, свести к минимуму проблемы с медленным подключением к облачному серверу.

Это применимо также и к небольшим региональным облачным провайдерам, которые гораздо более децентрализованы, чем инфраструктура ЦОД Azure или AWS. Им требуется хорошее интернет-соединение, но его проще получить с помощью небольших локальных центров обработки данных. Региональные провайдеры такого типа представляют собой разумный компромисс с точки зрения стоимости и производительности. Они могут выступать в качестве точек высокоскоростного подключения к публичным облакам при реализации мультиоблачных решений.


Использование сервисов облачного хранения данных — сейчас и через два года. По прогнозу Spiceworks Research

Мультиоблачное хранение

Многие компании используют несколько публичных облачных сервисов в сочетании со своей локальной инфраструктурой. Это влияет на процессы перемещения, миграции данных и организации доступа приложений к информации. Системы хранения cloud-ready призваны обеспечить переносимость данных между несколькими облачными платформами, а также между локальной площадкой и облаком.

Решения для резервного копирования и восстановления должны соответствовать новым требованиям

Постоянный рост количества уровней хранения будет влиять на резервное копирование и восстановление: «вернуть» петабайт утерянных данных намного сложнее, чем гигабайт или терабайт. Это в равной степени относится и к архивированию, хотя, естественно, этот процесс менее критичен по времени, чем восстановление из бэкапа. Здесь решающую роль будут играть другие факторы, такие как интеллектуальное индексирование или хранение метаданных, потому что нужно максимально упростить поиск неструктурированных данных — например, видеоконтента.

Высокопроизводительные вычисления — для среднего бизнеса

В недалеком будущем даже предприятия среднего бизнеса не смогут эффективно функционировать без решений HPC. Если раньше высокопроизводительными вычислениями занимались преимущественно университеты и государственные ВЦ, то теперь ситуация изменилась. С увеличением объема данных решения HPC будут необходимы везде, где используются вычислительные приложения и приложения моделирования, требующие большой емкости хранения.

Например, крупному конструкторскому бюро с очень сложными вычислениями подобные решения понадобятся для расчета и визуализации трехмерных объектов. Из-за большого объема данных, участвующих в этом процессе, подобная работа либо была бы чрезвычайно трудоемкой, либо вообще не могла быть проведена.

Модули SCM

К новым трендам в отрасли хранения данных можно отнести хранилища объектов для улучшенной индексации и выделения метаданных, а также модули SCM (storage-class memory) для более быстрого доступа к информации с использованием интеллектуальных механизмов тиринга. Благодаря накопителям SCM задержки будут сокращаться до 50%. Энергонезависимая память с производительностью, близкой к скорости работы RAM, позволяет значительно ускорить обработку больших наборов данных.

Кроме того, технология флеш-памяти в виде компонентов SSD продолжит вытеснять в корпоративной среде классические жесткие диски.

SSD и NVMe

Компании будут продолжать заменять традиционные HDD на твердотельные накопители, чтобы повысить производительность, упростить управление и снизить энергопотребление систем. Новые поколения флеш-массивов будут предлагать более совершенные средства автоматизации и защиты данных, а также интеграцию с публичными облаками.

В гораздо большем масштабе будет развертываться протокол NVMe. Линейка массивов хранения Lenovo уже включает в себя хранилища с поддержкой NVMe для увеличения производительности дисковых массивов серии DM.


Массив DM7000F All Flash стал первым на рынке продуктом, который позволил реализовать сквозное решение NVMe over Fabric от сервера до хранилища

Накопители SSD PCIe, использующие NVMe-спецификацию протоколов доступа к твердотельным накопителям, подключенным по шине PCI Express, — одна из основных тенденций развития технологий хранения данных.


Прогноз роста совокупной емкости поставляемых в мире накопителей разного типа. Источник: IDC

По прогнозу IDC, к 2021 году флеш-массивы с подключениями по NVMe и NVMe-oF обеспечат примерно половину всех доходов от поставок внешних систем хранения. Аналитики считают, что у NVMe-oF большой потенциал, поскольку эта спецификация обеспечивает чрезвычайно высокую пропускную способность при сверхнизкой задержке и открывает путь к созданию распределенных СХД с низколатентной фабрикой.

С развитием технологий Lenovo намерена обеспечить защиту инвестиций заказчиков, поскольку существующие системы способны поддерживать новые протоколы без замены оборудования. И новейшая платформа Lenovo NVMe — прямое тому доказательство. СХД с накопителями NVMe демонстрируют свои лучшие качества в работе с базами данных, поэтому для доставки приложений с максимально низкими задержками массив DM7100 поддерживает подключаемые диски NVMe. Это позволяет значительно увеличить производительность СХД в IOPS и построить мощное и масштабируемое хранилище.

Читать еще:  Мир до и после. Как изменится жизнь с наступлением DNS Flag Day

Сейчас, безусловно, захватывающее время для отрасли хранения данных: новое поколение СХД уже вступает в игру, а на горизонте появляются очередные инновации. Все они становятся ответом на актуальные потребности в работе с облаками, автоматизации, а также оптимизации задач управления и обработки данных.

Гибридные решения

Если сравнивать с публичными или частными облаками, то гибридные системы будут наиболее популярны. Уже появляются интересные, достаточно надежные сервисы, и на этом можно по-настоящему экономить, используя аутсорсинг. Вообще входить исключительно в публичные облака – всегда не очень надежно, и в России этот тренд в ближайшее время не реализуется. Поэтому роль гибридных решений будет возрастать, исходя из того, что часть задач будет передаваться на хранение сторонним облачным сервисам.

Развитие edge/fog computing

В мире

Уже сейчас компании начинают применять граничные и туманные вычисления наряду с облаками. Конечно, на Западе эти технологии более развиты — их используют и крупные корпорации, и стартапы.

Большие компании, которые продают облачные услуги, расширяют ассортимент. Microsoft предлагает не только облако, но и решения с граничными технологиями. Например, систему, которая позволяет перенести часть вычислений на IoT-устройства, или пограничный сервер для обработки данных с искусственным интеллектом. Amazon тоже не отстает и предлагает свой сервис для интернета вещей с граничными вычислениями. При этом компании не забывают про основной продукт — данные не только обрабатываются на периферии, но и передаются в облако.

Новые технологические услуги помогают в обработке данных на производстве, где задержки — серьёзная помеха в работе.

«В первую очередь это, конечно же, машиностроение и автомобилестроение, так как в этих отраслях производятся технически сложные изделия, а производственные линии генерируют большой объём данных. Но технологии периферийных и облачных вычислений внедряются в самые разнообразные отрасли промышленности, включая нефтегазовую, пищевую, химическую промышленность, производство батарей, в инфраструктурные объекты, распределение электроэнергии, водоснабжение, аэропорты и железнодорожный транспорт».

Появляются стартапы, которые фокусируются на применении граничных и туманных вычислений. Например, FogHorn и Pixeom предлагают услуги для компаний в энергетике, телекоме, производстве, ритейле, финансах, безопасности и других сферах. SimShine разрабатывает граничные технологии для камер видеонаблюдения. Компаний, которые предоставляют услуги производству и простым пользователям, становится все больше.

«Таких компаний и решений на самом деле много. В качестве актуального наглядного примера можно привести компании, которые сейчас внедряют решения по видеоаналитике. При отсутствии объектов или событий видео не передаётся на центральный сервер и не загружает каналы связи. При этом в ЦОД передаётся только информация о тревожных событиях и инцидентах».

В России

Но и в России туманные и граничные вычисления уже не новые понятия.

  • Например, Nokia и фонд «Сколково» в 2016 году договорились работать над технологией мобильных граничных вычислений (Mobile Edge Computing). Она позволит перенести часть анализа данных ближе к пользователям связи. С её помощью не будет теряться качество интернет-соединения во время массовых мероприятий. Правда, пока конкретных проектов в этой сфере нет.
  • Администрация президента в том же 2016 году поручила Минкомсвязи, «Ростелекому», Минпромторгу и Агентству стратегических инициатив заняться инфраструктурой для туманных вычислений. Это важно для развития промышленного интернета вещей (IIoT), которым сейчас активно занимаются госкомпании. Например, ГЛОНАСС-ТМ планирует создать сеть для IIoT на территории России, а «Ростелеком» протестировал NB-IoT — стандарт сотовой связи для интернета вещей.

Пока государственные организации экспериментируют со связью, стартапы внедряют практические решения. С туманными вычислениями работает SONM — предлагает платформу с технологией блокчейна. Идея состоит в том, чтобы создать децентрализованный суперкомпьютер. Пользователи могут сдать мощность своего компьютера в аренду и присоединиться к распределенной сети. Компании в свою очередь покупают возможности туманной платформы для своих вычислений.

С граничными технологиями также связан стартап Facemetric. Он предоставляет клиентам камеры видеонаблюдения и ЦОД с нейросетями, чтобы искать образы в видео — лица, автомобильные номера, ценники и многое другое. Но хранить и обрабатывать большой видеопоток в облаке тяжело и не всегда целесообразно.

Поэтому компания решила использовать граничные вычисления. «В данном случае мы используем более высокопроизводительные вычислители, которые дублируют в себе функционал распознавания, хранят оперативный слепок базы данных и могут работать автономно при потере связи с облачным сервисом. Такой подход повышает требования к производительности вычислителей, их стоимость, но обеспечивает стабильную работу при потере связи с центральным узлом», — рассказывает Юрий Годына, основатель Facemetric.

В России новые технологии будут развиваться и дальше. Как отмечает Юрий Годына, они уже вошли в нашу жизнь:

«В настоящее время появилось множество вариантов реализации проектов в области интернета вещей и граничных вычислений — сбор показаний счетчиков, умные автобусные остановки, системы контроля за водителями общественного транспорта и так далее. Еще пару лет назад на конференциях и круглых столах можно было услышать мнения о раздутости пузыря интернета вещей, умного дома, неподъемной стоимости решений. А сейчас мы видим реализацию этих технологий, они постепенно приходят в нашу жизнь и делают ее комфортнее».

Конечно, туманные и граничные вычисления не вытеснят облако. Технологии будут развиваться вместе и дополнять друг друга. Там, где нужны надежные мощные ЦОДы и экономия IT-ресурсов, облако останется в приоритете. А там, где важна скорость принятия решений, будут развиваться edge и fog computing — при этом облако будет хранить важные данные.

Татьяна Бочарникова, глава представительства NetApp в России и СНГ:

«Бытует мнение, что Edge и Fog computing в конечном итоге полностью заменят собой уже ставшие привычными облачные решения. Но это вовсе не так. Да, бывает, что периферийные технологии обеспечивают более серьезные преимущества, чем полностью централизованные облачные платформы, особенно с точки зрения хранения данных. Но всегда ядром корпоративной ИТ-инфраструктуры остается гибридная и мультиоблачная концепция. Иначе говоря, периферийные и туманные вычисления не заменят облачные, так как, по сути, и являются не чем иным, как “расширением” и “продолжением” облака».

Фото на обложке: scanrail, Depositphotos

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Ссылка на основную публикацию
Статьи c упоминанием слов:
Adblock
detector