Я пытаюсь использовать Tensorflow. Вот очень простой код.
train = tf.placeholder(tf.float32, [1], name="train")
W1 = tf.Variable(tf.truncated_normal([1], stddev=0.1), name="W1")
loss = tf.pow(tf.sub(train, W1), 2)
step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
Просто проигнорируйте часть оптимизации (4-я строка). Он примет плавающее число и обучит W1, чтобы увеличить квадратичную разницу.
Мой вопрос прост. Если я использую только знак минуса вместо tf.sub ", как показано ниже, что другое? Не приведет ли он к неправильному результату?
loss = tf.pow(train-W1, 2)
Когда я его заменю, результат выглядит одинаково. Если они одинаковы, зачем нам использовать вещи "tf.add/tf.sub"?
Встроенный анализ обратного распространения может выполняться только с помощью "tf. *" вещей?