Я использовал Tensorflow DecodeJpeg
для чтения изображений во время тренировки модели. Чтобы использовать тот же метод на устройстве Android, я скомпилировал Tensorflow с Bazel для Android с DecodeJpeg
.
Я попытался прочитать то же изображение на своем рабочем столе, который является x86_64
машиной с Windows. Я запустил метод DecodeJpeg
на изображении со значениями по умолчанию со значением dct_method
, установленным на ''
, INTEGER_FAST
, INTEGER_ACCURATE
.
Я сделал то же самое на устройстве arm64
, для того же изображения. Но значения пикселей значительно различались для одного и того же изображения при одинаковых настройках.
Например, в (100,100,1) значение на рабочем столе - 213
, в то время как это 204
на arm64
.
Как я могу убедиться, что значения пикселей одинаковы на этих двух устройствах? [! [Это изображение, которое я использовал] [1]] [1]
Обновление:
На Gimp в (100,100)
значения пикселей равны (179,203,190)
Для dct_method
, установленного на INTEGER_FAST
, значение в (100,100)
на x86_64 равно (171, 213, 165)
, на руке это (180, 204, 191)
Для dct_method
, установленного в INTEGER_ACCURATE
, значение в (100,100)
на x86_64 равно (170, 212, 164)
, на руке это (179, 203, 190)
Это (170, 212, 164)
с PIL
, что я и получаю с cv2.imread
.