Я использовал Tensorflow DecodeJpeg для чтения изображений во время тренировки модели. Чтобы использовать тот же метод на устройстве Android, я скомпилировал Tensorflow с Bazel для Android с DecodeJpeg.
Я попытался прочитать то же изображение на своем рабочем столе, который является x86_64 машиной с Windows. Я запустил метод DecodeJpeg на изображении со значениями по умолчанию со значением dct_method, установленным на '', INTEGER_FAST, INTEGER_ACCURATE.
Я сделал то же самое на устройстве arm64, для того же изображения. Но значения пикселей значительно различались для одного и того же изображения при одинаковых настройках.
Например, в (100,100,1) значение на рабочем столе - 213, в то время как это 204 на arm64.
Как я могу убедиться, что значения пикселей одинаковы на этих двух устройствах? [! [Это изображение, которое я использовал] [1]] [1]
Обновление:
На Gimp в (100,100) значения пикселей равны (179,203,190)
Для dct_method, установленного на INTEGER_FAST, значение в (100,100) на x86_64 равно (171, 213, 165), на руке это (180, 204, 191)
Для dct_method, установленного в INTEGER_ACCURATE, значение в (100,100) на x86_64 равно (170, 212, 164), на руке это (179, 203, 190)
Это (170, 212, 164) с PIL, что я и получаю с cv2.imread.