Как подключить HBase и Spark с помощью Python?

У меня есть смущающая параллельная задача, для которой я использую Spark для распределения вычислений. Эти вычисления находятся в Python, и я использую PySpark для чтения и предварительной обработки данных. Входные данные в мою задачу хранятся в HBase. К сожалению, мне еще не удалось найти удовлетворительный (т.е. Простой в использовании и масштабируемый) способ чтения/записи данных HBase из/в Spark с использованием Python.

То, что я изучил ранее:

  • Подключение из моих процессов Python с использованием happybase. Этот пакет позволяет подключаться к HBase с Python с помощью HBase Thrift API. Таким образом, я в основном пропускаю Spark для чтения/записи данных и не упускаю возможности оптимизации HBase-Spark. Скорости чтения выглядят достаточно быстро, но скорость записи медленная. В настоящее время это мое лучшее решение.

  • Использование SparkContext newAPIHadoopRDD и saveAsNewAPIHadoopDataset которые используют интерфейс HBase MapReduce. Примеры этого были однажды включены в базу данных Spark (см. Здесь). Однако теперь они считаются устаревшими в пользу привязок HBase Spark (см. Здесь). Я также нашел, что этот метод является медленным и громоздким (для чтения, написания хорошо работает), например, поскольку строки, возвращенные из newAPIHadoopRDD должны были анализироваться и преобразовываться различными способами, чтобы в итоге получить объекты Python, которые я хотел. Он также поддерживал только один столбец за раз.

Альтернативы, о которых я знаю:

  • В настоящее время я использую Cloudera CDH, а версия 5.7.0 предлагает hbase-spark (заметки о выпуске CDH и подробное сообщение в блоге). Этот модуль (ранее известный как SparkOnHBase) официально станет частью HBase 2.0. К сожалению, это замечательное решение, похоже, работает только с Scala/Java.

  • Huawei Spark-SQL-on-HBase/Astro (я не вижу разницы между двумя...). Он не выглядит таким же надежным и хорошо поддержанным, как и моим решением.

Ответ 1

Я нашел этот комментарий одним из создателей hbase-spark, который, кажется, предлагает использовать PySpark для запроса HBase используя Spark SQL.

И действительно, шаблон, описанный здесь, можно применить для запроса HBase с помощью Spark SQL с помощью PySpark, как показано в следующем примере:

from pyspark import SparkContext
from pyspark.sql import SQLContext

sc = SparkContext()
sqlc = SQLContext(sc)

data_source_format = 'org.apache.hadoop.hbase.spark'

df = sc.parallelize([('a', '1.0'), ('b', '2.0')]).toDF(schema=['col0', 'col1'])

# ''.join(string.split()) in order to write a multi-line JSON string here.
catalog = ''.join("""{
    "table":{"namespace":"default", "name":"testtable"},
    "rowkey":"key",
    "columns":{
        "col0":{"cf":"rowkey", "col":"key", "type":"string"},
        "col1":{"cf":"cf", "col":"col1", "type":"string"}
    }
}""".split())


# Writing
df.write\
.options(catalog=catalog)\  # alternatively: .option('catalog', catalog)
.format(data_source_format)\
.save()

# Reading
df = sqlc.read\
.options(catalog=catalog)\
.format(data_source_format)\
.load()

Я пробовал hbase-spark-1.2.0-cdh5.7.0.jar (как было распространено Cloudera) для этого, но столкнулся с проблемой (org.apache.hadoop.hbase.spark.DefaultSource does not allow create table as select при записи, java.util.NoSuchElementException: None.get при чтении). Как оказалось, настоящая версия CDH не включает изменения в hbase-spark, которые позволяют интегрировать Spark SQL-HBase.

Что для меня работает, это пакет shc Spark, найденный здесь. Единственное изменение, которое я должен был сделать для вышеупомянутого script, это изменить:

data_source_format = 'org.apache.spark.sql.execution.datasources.hbase'

Здесь, как я представляю выше script на моем кластере CDH, следуя примеру из shc README:

spark-submit --packages com.hortonworks:shc:1.0.0-1.6-s_2.10 --repositories http://repo.hortonworks.com/content/groups/public/ --files /opt/cloudera/parcels/CDH/lib/hbase/conf/hbase-site.xml example.py

Большая часть работы над shc, похоже, уже слита в модуль hbase-spark HBase, для выпуска в версии 2.0. При этом Spark SQL-запрос HBase возможен с использованием вышеупомянутого шаблона (подробнее см. https://hbase.apache.org/book.html#_sparksql_dataframes). Мой пример выше показывает, как он выглядит для пользователей PySpark.

Наконец, оговорка: мои приведенные выше данные примера имеют только строки. Преобразование данных Python не поддерживается shc, поэтому у меня были проблемы с целыми числами и поплавками, которые не отображаются в HBase или со странными значениями.

Ответ 2

Я получаю эту ошибку из вашего кода. как это исправить.

py4j.protocol.Py4JJavaError: An error occurred while calling o63.save.