Как нормализовать массив NumPy в пределах определенного диапазона?

После выполнения некоторой обработки в массиве аудио или изображений его необходимо нормализовать в пределах диапазона, прежде чем его можно будет записать обратно в файл. Это можно сделать так:

# Normalize audio channels to between -1.0 and +1.0
audio[:,0] = audio[:,0]/abs(audio[:,0]).max()
audio[:,1] = audio[:,1]/abs(audio[:,1]).max()

# Normalize image to between 0 and 255
image = image/(image.max()/255.0)

Есть ли способ сделать это более подробно, удобнее? matplotlib.colors.Normalize(), похоже, не имеет отношения.

Ответ 1

audio /= np.max(np.abs(audio),axis=0)
image *= (255.0/image.max())

Использование /= и *= позволяет исключить промежуточный временный массив, тем самым сохраняя некоторую память. Умножение дешевле деления, поэтому

image *= 255.0/image.max()    # Uses 1 division and image.size multiplications

немного быстрее, чем

image /= image.max()/255.0    # Uses 1+image.size divisions

Поскольку мы используем основные методы numpy здесь, я думаю, что это примерно так же эффективно решение в numpy, как может быть.

Ответ 2

Если массив содержит как положительные, так и отрицательные данные, я бы пошел с:

import numpy as np

a = np.random.rand(3,2)

# Normalised [0,1]
b = (a - np.min(a))/np.ptp(a)

# Normalised [0,255] as integer
c = 255*(a - np.min(a))/np.ptp(a).astype(int)

# Normalised [-1,1]
d = 2.*(a - np.min(a))/np.ptp(a)-1

Также стоит упомянуть, даже если это не ОП вопрос, стандартизация:

e = (a - np.mean(a)) / np.std(a)

Ответ 3

Вы также можете выполнить масштабирование с помощью sklearn. Преимущество состоит в том, что вы можете отрегулировать нормализацию стандартного отклонения, в дополнение к среднему центру данных, и что вы можете делать это на любой оси, по функциям или по записям.

from sklearn.preprocessing import scale
X = scale( X, axis=0, with_mean=True, with_std=True, copy=True )

Аргументы ключевого слова axis, with_mean, with_std являются самоочевидными и отображаются в их состоянии по умолчанию. Аргумент copy выполняет операцию на месте, если он установлен на False. Документация здесь.

Ответ 4

Вы можете использовать версию "i" (как в idiv, imul..), и она не выглядит наполовину плохой:

image /= (image.max()/255.0)

В другом случае вы можете написать функцию для нормализации n-мерного массива с помощью colums:

def normalize_columns(arr):
    rows, cols = arr.shape
    for col in xrange(cols):
        arr[:,col] /= abs(arr[:,col]).max()

Ответ 5

Простым решением является использование масштабирования, предлагаемого библиотекой sklearn.preprocessing.

scaler = sk.MinMaxScaler(feature_range=(0, 250))
scaler = scaler.fit(X)
X_scaled = scaler.transform(X)
# Checking reconstruction
X_rec = scaler.inverse_transform(X_scaled)

Ошибка X_rec-X будет равна нулю. Вы можете настроить feature_range для своих нужд или даже использовать стандартный сканер sk.StandardScaler()

Ответ 6

Я попытался сделать это и получил ошибку

TypeError: ufunc 'true_divide' output (typecode 'd') could not be coerced to provided output parameter (typecode 'l') according to the casting rule ''same_kind''

Массив numpy я пытался нормализовать, был integer массивом. Кажется, что они устарели отбрасывания типов в версиях> 1.10, и вам нужно использовать numpy.true_divide() чтобы решить эту проблему.

arr = np.array(img)
arr = np.true_divide(arr,[255.0],out=None)

img был объектом PIL.Image.

Ответ 7

Вы пытаетесь мин-макс масштабировать значения audio между -1 и +1 и image между 0 и 255.

Использование sklearn.preprocessing.minmax_scale должно легко решить вашу проблему.

например:

audio_scaled = minmax_scale(audio, feature_range=(-1,1))

а также

shape = image.shape
image_scaled = minmax_scale(image.ravel(), feature_range=(0,255)).reshape(shape)

примечание: не следует путать с операцией, которая масштабирует норму (длину) вектора до определенного значения (обычно 1), которое также обычно называют нормализацией.