Я использую набор данных, в котором он имеет изображения, где каждый пиксель представляет собой 16-битный беззнаковый int, сохраняющий значение глубины этого пикселя в мм. Я пытаюсь визуализировать это как изображение глубины серого, делая следующее:
cv::Mat depthImage;
depthImage = cv::imread("coffee_mug_1_1_1_depthcrop.png", CV_LOAD_IMAGE_ANYDEPTH | CV_LOAD_IMAGE_ANYCOLOR ); // Read the file
depthImage.convertTo(depthImage, CV_32F); // convert the image data to float type
namedWindow("window");
float max = 0;
for(int i = 0; i < depthImage.rows; i++){
for(int j = 0; j < depthImage.cols; j++){
if(depthImage.at<float>(i,j) > max){
max = depthImage.at<float>(i,j);
}
}
}
cout << max << endl;
float divisor = max / 255.0;
cout << divisor << endl;
for(int i = 0; i < depthImage.rows; i++){
for(int j = 0; j < depthImage.cols; j++){
cout << depthImage.at<float>(i,j) << ", ";
max = depthImage.at<float>(i,j) /= divisor;
cout << depthImage.at<float>(i,j) << endl;
}
}
imshow("window", depthImage);
waitKey(0);
Однако он показывает только два цвета, потому что все значения близки друг к другу, то есть в диапазоне 150-175 + небольшие значения, которые отображаются черным (см. ниже).
Есть ли способ нормализовать эти данные, чтобы он отображал различные уровни серого, чтобы выделить эти небольшие различия в глубинах?