LOST IN BLUE

2019/04/09

いろいろなPixelShuffler

Deconv の代わりに用いられることの多い PixelShuffler ですがいろいろな書き方を見たのでまとめてみました.
もちろん全部 TensorFlow です.

1.

論文通りの実装な感じですね.

def PS_1(X, r, out_filters=1):
    Xc = tf.split(X, out_filters, 3)
    X = tf.concat([_phase_shift_1(x, r) for x in Xc], 3)

    return X

def _phase_shift_1(I, r):
    batch_size = tf.shape(I)[0]
    bsize, a, b, c = I.get_shape().as_list()
    X = tf.reshape(I, (batch_size, a, b, r, r))
    X = tf.split(X, a, 1)
    X = tf.concat([tf.squeeze(x) for x in X], 2)
    X = tf.split(X, b, 1)
    X = tf.concat([tf.squeeze(x) for x in X], 2)

    return tf.reshape(X, (batch_size, a * r, b * r, 1))

2.

tf.batch_to_space_nd を使う珍しい(主観)書き方です.
tf.batch_to_space_nd は理解したら詳細を書きます.

def PS_2(inputs, shuffle_strides=(4, 4), out_filters=1):
    batch_size = tf.shape(inputs)[0]
    H = inputs.shape[1]
    W = tf.shape(inputs)[2]
    C = inputs.shape[-1]
    r1, r2 = shuffle_strides
    out_c = out_filters

    assert C == r1 * r2 * out_c

    Xc = tf.split(inputs, out_c, axis=3)
    outputs = tf.concat([_phase_shift_2(x, batch_size, H, W, r1, r2) for x in Xc], 3)

    with tf.control_dependencies([tf.assert_equal(out_c, tf.shape(outputs)[-1]),
        tf.assert_equal(H * r1, tf.shape(outputs)[1])]):
        outputs = tf.identity(outputs, name='SubPixelConv_output_check')

    return tf.reshape(outputs, [tf.shape(outputs)[0], r1 * H, tf.shape(outputs)[2], out_c])

def _phase_shift_2(inputs, batch_size, H, W, r1, r2):
    x = tf.reshape(inputs, [batch_size, H, W, r1, r2])

    x = tf.transpose(x, [4, 2, 3, 1, 0])
    x = tf.batch_to_space_nd(x, [r2], [[0, 0]])
    x = tf.squeeze(x, [0])

    x = tf.transpose(x, [1, 2, 0, 3])
    x = tf.batch_to_space_nd(x, [r1], [[0, 0]])
    x = tf.transpose(x, [3, 1, 2, 0])

    return x

3.

この中では一番シンプルな書き方ではないでしょうか. 1.を短く書いた感じですね.

def pixel_shuffler(inputs, shuffle_strides=(4, 4), out_filters=1):
    batch_size = tf.shape(inputs)[0]
    _, H, W, C = inputs.get_shape()
    r1, r2 = shuffle_strides
    out_c = out_filters
    out_h = H * r1
    out_w = W * r2

    assert C == r1 * r2 * out_c

    x = tf.reshape(inputs, (batch_size, H, W, r1, r2, out_c))
    x = tf.transpose(x, (0, 1, 3, 2, 4, 5))
    x = tf.reshape(x, (batch_size, out_h, out_w, out_c))

    return x

比較

以上の 3 つの計算時間を計測してみました.
同時に 3 つのコードが同じ結果を出力するかも確認しました.
実行結果は上から順に入力した Tensor の形,1.の出力 Tensor の形,2.の出力 Tensor の形,3.出力の Tensor の形,1.の実行時間,2.の実行時間,3.の実行時間になっています.
コードはgistにあります.

CPU

CPU 版はビルドしていないので AVX は使っていません.

$ python3.6 test.py
(16, 256, 256, 4)
(16, 512, 512, 1)
(16, 512, 512, 1)
(16, 512, 512, 1)
True
True
True
7.066614389419556
8.190456628799438
6.373971223831177

GPU

GPU は GTX1080 です.

$ python test.py
(16, 256, 256, 4)
(16, 512, 512, 1)
(16, 512, 512, 1)
(16, 512, 512, 1)
True
True
True
5.280000448226929
5.2200000286102295
5.035000562667847

3 つの PixelShuffler の結果はどれも等しいことが分かりました.
CPU では 2 つ目が最も遅い結果となっていますが GPU では僅差ですが 1 つ目が最も遅くなっています.
念の為 GPU で 1000 回に増やしてもう一度測ってみると,

51.86694884300232
52.51900100708008
50.833998918533325

という結果になったので CPU,GPU ともに 3 つ目, 1 つ目, 2 つ目の順番に速いということでよいでしょう.
tf.batch_to_space_nd を使っているのは速度のためなのかと思いましたが意外な結果になりました.

総括としては 3 つ目を使うのが人間にも機械にも良さそうです.