Что такое Apache Spark в Azure HDInsight
Apache Spark — это платформа параллельной обработки, которая поддерживает обработку в памяти, чтобы повысить производительность приложений для анализа больших данных. Apache Spark в Azure HDInsight — это облачная реализация Apache Spark от Майкрософт, которая является одним из нескольких предложений Spark в Azure.
Apache Spark в Azure HDInsight позволяет легко создавать и конфигурировать кластеры Spark, чтобы настраивать и использовать полную среду Spark в Azure.
Пулы Spark в Azure Synapse Analytics используют управляемые пулы Spark, чтобы разрешить загрузку, моделирование, обработку и распространение данных для аналитики в Azure.
Apache Spark в Azure Databricks использует кластеры Spark для предоставления интерактивной рабочей области, которая поддерживает совместную работу пользователей для считывания данных из нескольких источников и их преобразование в ценные сведения.
Действия Spark в Фабрике данных Azure позволяют использовать аналитику Spark в конвейере данных, используя существующие кластеры Spark или кластеры по запросу.
С помощью Apache Spark в Azure HDInsight вы можете хранить и обрабатывать данные в Azure. Кластеры Spark в HDInsight совместимы с хранилищем BLOB-объектов Azure или Azure Data Lake Storage 2-го поколения, что позволяет применять обработку Spark к существующим хранилищам данных.
Чтобы приступить к работе с Apache Spark в Azure HDInsight, следуйте инструкциям в руководстве по созданию кластеров HDInsight Spark.
Чтобы узнать больше об Apache Spark и о том, как он взаимодействует с Azure, продолжите читать статью.
Дополнительные сведения о компонентах и версиях см. в статье Что представляют собой компоненты и версии Apache Hadoop, доступные в HDInsight.
Что такое Apache Spark?
Spark предоставляет примитивы для кластерных вычислений в памяти. Задание Spark может загрузить данные, поместить их в кэш в памяти и запрашивать их неоднократно. Вычисления в памяти выполняются намного быстрее, чем в приложениях, использующих диски, таких как приложение Hadoop, которое предоставляет доступ к данным через распределенную файловую систему Hadoop (HDFS). Spark также интегрируется в язык программирования Scala, что дает возможность управлять распределенными наборами данных, такими как локальные коллекции. Нет необходимости структурировать обмен данными как операции сопоставления и редукции.
Кластеры Spark в HDInsight предлагают полностью управляемую службу Spark. Ниже приведены преимущества создания кластера Spark в HDInsight.
Возможность | Description |
---|---|
Простота создания | Создание кластера Spark в HDInsight с помощью портала Azure, Azure PowerShell или пакета SDK для HDInsight .NET занимает всего несколько минут. См. инструкции по началу работы с кластером Apache Spark в HDInsight. |
Простота использования | Кластер Spark в HDInsight включает записные книжки Jupyter Notebook и Apache Zeppelin Notebook. Их можно использовать для интерактивной обработки и визуализации данных. См. статью Use Apache Zeppelin notebooks with Apache Spark cluster on Azure HDInsight (Использование записных книжек Apache Zeppelin с кластером Apache Spark в Azure HDInsight) и Руководство по загрузке данных и выполнению запросов в кластере Apache Spark в Azure HDInsight. |
Интерфейсы REST API | Кластеры Spark в HDInsight включают Apache Livy, сервер заданий Spark на основе REST API, который позволяет удаленно отправлять и отслеживать задания. См. руководство по удаленной отправке заданий Spark в кластер Azure HDInsight с помощью Apache Spark REST API. |
Поддержка для службы хранилища Azure | Кластеры Spark в HDInsight могут использовать Azure Data Lake Storage 2-го поколения как основное хранилище, так и дополнительное хранилище. Дополнительные сведения о Data Lake Storage 2-го поколения см. в этой статье. |
Интеграция со службами Azure | Кластер Spark в HDInsight поставляется с соединителем для Центров событий Azure. Вы можете создавать приложения потоковой передачи с помощью Центров событий. Можно также использовать платформу Apache Kafka, которая уже доступна в составе Spark. |
Интеграция со сторонними IDE | HDInsight предоставляет несколько подключаемых модулей IDE, которые можно использовать для создания приложений и их отправки в кластер HDInsight Spark. Дополнительные сведения см. в статье "Использование набора средств Azure для IntelliJ IDEA", использование spark и Hive Tools для VS Code и использование набора средств Azure для Eclipse. |
Параллельные запросы | Кластеры Spark в HDInsight поддерживают параллельные запросы. Благодаря этому несколько запросов от одного пользователя или несколько запросов от разных пользователей и из различных приложений могут использовать одни и те же ресурсы кластера. |
Кэширование на накопители SSD | Можно выбрать кэширование данных в памяти или на накопители SSD, подключенные к узлам кластера. Кэширование в память обеспечивает наилучшую производительность запросов, однако может оказаться ресурсоемким. Кэширование на накопители SSD предоставляет возможность повысить производительность запросов без необходимости создания кластера такого размера, который необходим для размещения всего набора данных в памяти. См. Improve performance of Apache Spark workloads using Azure HDInsight IO Cache (Повышение производительности рабочих нагрузок Apache Spark с помощью службы IO Cache для Azure HDInsight) |
Интеграция со средствами бизнес-аналитики | В состав кластеров Spark для HDInsight входят соединители для инструментов бизнес-аналитики, таких как Power BI для аналитики данных. |
Предварительно загруженные библиотеки Anaconda | Кластеры Spark в HDInsight поставляются с предустановленными библиотеками Anaconda. Anaconda содержит порядка 200 библиотек для машинного обучения, анализа данных, визуализации и т. д. |
Адаптируемость | HDInsight позволяет динамически изменять число узлов кластера с помощью функции "Автомасштабирование". См. Automatically scale Azure HDInsight clusters (Автоматическое масштабирование кластеров Azure HDInsight). Кроме того, кластеры Spark можно удалить без потери данных, так как все данные хранятся в хранилище BLOB-объектов Azure или Azure Data Lake Storage 2-го поколения. |
SLA | Для кластеров Spark в HDInsight предоставляется круглосуточная и ежедневная поддержка и соглашения об уровне обслуживания, гарантирующие время бесперебойной работы на уровне 99,9 %. |
Кластеры Apache Spark в HDInsight включают следующие компоненты, доступные в кластерах по умолчанию.
- Ядро Spark. Включает ядро Spark, Spark SQL, потоковые API-интерфейсы Spark, GraphX и MLlib.
- Anaconda
- Apache Livy
- Записная книжка Jupyter
- Записная книжка Apache Zeppelin
Кластеры Spark в HDInsight включают драйвер ODBC для подключения из средств бизнес-аналитики, таких как Microsoft Power BI.
Архитектура кластера Spark
Чтобы разобраться с компонентами Spark, нужно понять принцип работы Spark в кластерах HDInsight.
Приложения Spark выполняются как независимые наборы процессов в кластере. Они координируются объектом SparkContext в основной программе (называемой программой драйвера).
SparkContext может подключаться к нескольким типам диспетчеров кластеров, которые распределяют ресурсы между приложениями. К этим диспетчерам кластеров относятся Apache Mesos, Apache Hadoop YARN и Spark. В HDInsight Spark выполняется с использованием диспетчера кластеров YARN. После подключения Spark получает исполнителей на рабочих узлах кластера. Исполнители представляют собой процессы,которые выполняют вычисления и хранят данные для приложения. Затем Spark отправляет исполнителям код приложения (определенный в JAR- или Python-файлах, переданных в SparkContext). Наконец, SparkContext отправляет исполнителям задачи для выполнения.
SparkContext выполняет основную функцию пользователя и осуществляет различные параллельные операции на рабочих узлах. Затем SparkContext собирает результаты операций. Рабочие узлы считывают данные из распределенной файловой системы Hadoop и записывают их в нее. Кроме того, рабочие узлы помещают преобразованные данные в кэш в памяти как устойчивые распределенные наборы данных (RDD).
SparkContext подключается к главному узлу Spark и отвечает за преобразование приложения в ориентированный граф (направленный ациклический граф, DAG) для отдельных задач. Такие задачи выполняются в рамках процесса исполнителя на рабочих узлах. Каждое приложение получает отдельные процессы исполнителя, которые остаются активными во время выполнения приложения и обрабатывают задачи в нескольких потоках.
Варианты использования Spark в HDInsight
Ниже представлены сценарии для использования кластеров Spark в HDInsight.
Интерактивный анализ данных и бизнес-аналитика
Apache Spark в HDInsight хранит данные в Хранилище BLOB-объектов Azure и Azure Data Lake Storage 2-го поколения. Бизнес-специалисты и ответственные за принятие решений лица могут анализировать такие данные и создавать отчеты на их основе. Им также доступны инструменты Microsoft Power BI для создания интерактивных отчетов на основе проанализированных данных. Аналитики могут использовать неструктурированные или полуструктурированные данные в хранилище кластеров, определить схему для данных с помощью записных книжек, а затем создать модели данных с помощью средств Microsoft Power BI. Кластеры Spark в HDInsight также поддерживают ряд сторонних инструментов бизнес-аналитики, например Tableau, что упрощает работу аналитиков данных, бизнес-специалистов и ответственных за принятие решений лиц.
Машинное обучение Spark
В состав Apache Spark входит MLlib, библиотека машинного обучения, созданная на основе Spark, которую вы можете использовать из кластера Spark в HDInsight. Кластер Spark в HDInsight также включает Anaconda, дистрибутив Python с различными пакетами для машинного обучения. А со встроенной поддержкой записных книжек Jupyter и Zeppelin вы получаете в свое распоряжение среду для создания приложений машинного обучения.
- Руководство по прогнозированию температуры здания с помощью данных HVAC
- Руководство по прогнозированию результатов проверки продуктов питания
Потоковая передача и анализ данных в режиме реального времени в Spark
Кластеры Spark в HDInsight обладают широкой поддержкой для создания решений для аналитики в режиме реального времени. Spark уже имеет соединители для приема данных из многих источников, таких как Kafka, Flume, X, ZeroMQ или TCP-сокеты. Spark в HDInsight позволяет реализовать первоклассную поддержку для приема данных из Центров событий Azure. Центры событий — это наиболее часто используемые службы очередей в Azure. Полная поддержка Центров событий делает кластеры Spark в HDInsight идеальной платформой для создания конвейеров аналитики в реальном времени.
- Overview of Apache Spark Streaming (Общие сведения о потоковой передаче Apache Spark)
- Overview of Apache Spark Structured Streaming (Обзор структурированной потоковой передачи Apache Spark)
Next Steps
В этой обзорной статье вы получили некоторые основные сведения об Apache Spark в Azure HDInsight. Ознакомьтесь со следующими статьями, чтобы узнать больше об Apache Spark в HDInsight. Вы также можете создать кластер HDInsight Spark и запустить несколько примеров запросов Spark.
- Краткое руководство. Создание кластера Apache Spark в HDInsight и выполнение интерактивного запроса с помощью Jupyter
- Руководство. Загрузка данных и выполнение запросов в задании Apache Spark с помощью Jupyter
- Руководство по визуализации данных Spark с помощью Power BI
- Руководство по прогнозированию температуры здания с помощью данных HVAC
- Оптимизация заданий Spark для повышения производительности