Как использовать mllib.recommendation, если идентификаторы пользователя являются строкой, а не смежными целыми числами?

Я хочу использовать библиотеку Spark mllib.recommendation для создания прототипа рекомендуемой системы. Однако формат данных пользователя, который у меня есть, имеет следующий формат:

AB123XY45678
CD234WZ12345
EF345OOO1234
GH456XY98765
....

Если я хочу использовать библиотеку mllib.recommendation, в соответствии с API класса Rating, идентификаторы пользователя должны быть целыми (также должны быть смежными?)

Похоже, должно быть сделано какое-то преобразование между реальными идентификаторами пользователей и числовыми, используемыми Spark. Но как мне это сделать?

Ответ 1

Spark действительно не требует числового id, он просто должен иметь некоторое уникальное значение, но для реализации они выбрали Int.

Вы можете сделать простые преобразования назад и вперед для userId:

  case class MyRating(userId: String, product: Int, rating: Double)

  val data: RDD[MyRating] = ???

  // Assign unique Long id for each userId
  val userIdToInt: RDD[(String, Long)] = 
    data.map(_.userId).distinct().zipWithUniqueId()

  // Reverse mapping from generated id to original
  val reverseMapping: RDD[(Long, String)]
    userIdToInt map { case (l, r) => (r, l) }

  // Depends on data size, maybe too big to keep
  // on single machine
  val map: Map[String, Int] = 
    userIdToInt.collect().toMap.mapValues(_.toInt)

  // Transform to MLLib rating
  val rating: RDD[Rating] = data.map { r =>
    Rating(userIdToInt.lookup(r.userId).head.toInt, r.product, r.rating)
    // -- or
    Rating(map(r.userId), r.product, r.rating)
  }

  // ... train model

  // ... get back to MyRating userId from Int

  val someUserId: String = reverseMapping.lookup(123).head

Вы также можете попробовать "data.zipWithUniqueId()", но я не уверен, что в этом случае .toInt будет безопасным преобразованием, даже если размер набора данных невелик.

Ответ 2

Вам нужно запустить StringIndexer по вашим идентификаторам пользователей, чтобы преобразовать строку в уникальный целочисленный индекс. Они не должны быть непрерывными.

Мы используем это для нашего механизма рекомендации элемента в https://www.aihello.com

df (пользователь: String, product, rating)

  val stringindexer = new StringIndexer()
      .setInputCol("user")
      .setOutputCol("userNumber")
  val modelc = stringindexer.fit(df)
  val  df = modelc.transform(df)

Ответ 3

Вышеупомянутое решение может не всегда работать, как я обнаружил. Spark не может выполнять преобразования RDD из других RDD. Выход ошибки:

org.apache.spark.SparkException: преобразования и действия RDD могут только введите код, указанный водителем, а не внутри другого преобразования; например, rdd1.map(x = > rdd2.values.count() * x) является недопустимым, поскольку преобразование значений и действие счета не могут выполняться внутри преобразования rdd1.map. Для большего информацию см. в SPARK-5063.

В качестве решения вы можете присоединиться к userIdToInt RDD с исходными данными RDD, чтобы сохранить связь между userId и uniqueId. Затем вы можете снова присоединиться к результатам RDD с этим RDD.

// Create RDD with the unique id included
val dataWithUniqueUserId: RDD[(String, Int, Int, Double)] = 
    data.keyBy(_.userId).join(userIdToInt).map(r => 
        (r._2._1.userId, r._2._2.toInt, r._2._1.productId, 1))

Ответ 4

@Ganesh Кришнан прав, StringIndexer решает эту проблему.

from pyspark.ml.feature import OneHotEncoder, StringIndexer
from pyspark.sql import SQLContext
>>> spark = SQLContext(sc)                                                                             
>>> df = spark.createDataFrame(
...     [(0, "a"), (1, "b"), (2, "c"), (3, "a"), (4, "a"), (5, "c")],
...     ["id", "category"])

| id|category|
+---+--------+
|  0|       a|
|  1|       b|
|  2|       c|
|  3|       a|
|  4|       a|
|  5|       c|
+---+--------+
>>> stringIndexer = StringIndexer(inputCol="category", outputCol="categoryIndex")
>>> model = stringIndexer.fit(df)
>>> indexed = model.transform(df)
>>> indexed.show()
+---+--------+-------------+
| id|category|categoryIndex|
+---+--------+-------------+
|  0|       a|          0.0|
|  1|       b|          2.0|
|  2|       c|          1.0|
|  3|       a|          0.0|
|  4|       a|          0.0|
|  5|       c|          1.0|
+---+--------+-------------+

>>> converter = IndexToString(inputCol="categoryIndex", outputCol="originalCategory")
>>> converted = converter.transform(indexed)
>>> converted.show()
+---+--------+-------------+----------------+
| id|category|categoryIndex|originalCategory|
+---+--------+-------------+----------------+
|  0|       a|          0.0|               a|
|  1|       b|          2.0|               b|
|  2|       c|          1.0|               c|
|  3|       a|          0.0|               a|
|  4|       a|          0.0|               a|
|  5|       c|          1.0|               c|
+---+--------+-------------+----------------+

>>> converted.select("id", "originalCategory").show()
+---+----------------+
| id|originalCategory|
+---+----------------+
|  0|               a|
|  1|               b|
|  2|               c|
|  3|               a|
|  4|               a|
|  5|               c|
+---+----------------+