• UFLDL教程 一节。

    考虑一个实际问题,某城市在2013年-2017年的房价如下表所示:

    现在,我们希望通过对该数据进行线性回归,即使用线性模型 来拟合上述数据,此处 和 b 是待求的参数。

    首先,我们定义数据,进行基本的归一化操作。

    接下来,我们使用梯度下降方法来求线性模型中两个参数 ab 的值 3

    回顾机器学习的基础知识,对于多元函数 f(x) 求局部极小值, 的过程如下:

    • 初始化自变量为 , k=0

    • 迭代进行下列步骤直到满足收敛条件:

    机器学习模型的实现并不是TensorFlow的专利。事实上,对于简单的模型,即使使用常规的科学计算库或者工具也可以求解。在这里,我们使用NumPy这一通用的科学计算库来实现梯度下降方法。NumPy提供了多维数组支持,可以表示向量、矩阵以及更高维的张量。同时,也提供了大量支持在多维数组上进行操作的函数(比如下面的 np.dot() 是求内积, np.sum() 是求和)。在这方面,NumPy和MATLAB比较类似。在以下代码中,我们手工求损失函数关于参数 ab 的偏导数 4,并使用梯度下降法反复迭代,最终获得 ab 的值。

    然而,你或许已经可以注意到,使用常规的科学计算库实现机器学习模型有两个痛点:

    • 经常需要手工求函数关于参数的偏导数。如果是简单的函数或许还好,但一旦函数的形式变得复杂(尤其是深度学习模型),手工求导的过程将变得非常痛苦,甚至不可行。

    • 经常需要手工根据求导的结果更新参数。这里使用了最基础的梯度下降方法,因此参数的更新还较为容易。但如果使用更加复杂的参数更新方法(例如Adam或者Adagrad),这个更新过程的编写同样会非常繁杂。

    而TensorFlow等深度学习框架的出现很大程度上解决了这些痛点,为机器学习模型的实现带来了很大的便利。

    TensorFlow下的线性回归

    TensorFlow的 Eager Execution(动态图)模式5 与上述NumPy的运行方式十分类似,然而提供了更快速的运算(GPU支持)、自动求导、优化器等一系列对深度学习非常重要的功能。以下展示了如何使用TensorFlow计算线性回归。可以注意到,程序的结构和前述NumPy的实现非常类似。这里,TensorFlow帮助我们做了两件重要的工作:

    • 使用 tape.gradient(ys, xs) 自动计算梯度;

    • 使用 optimizer.apply_gradients(grads_and_vars) 自动更新模型参数。

    在这里,我们使用了前文的方式计算了损失函数关于参数的偏导数。同时,使用 tf.keras.optimizers.SGD(learning_rate=1e-3) 声明了一个梯度下降 优化器 (Optimizer),其学习率为1e-3。优化器可以帮助我们根据计算出的求导结果更新模型参数,从而最小化某个特定的损失函数,具体使用方式是调用其 apply_gradients() 方法。

    注意到这里,更新模型参数的方法 需要提供参数 grads_and_vars,即待更新的变量(如上述代码中的 variables )及损失函数关于这些变量的偏导数(如上述代码中的 grads )。具体而言,这里需要传入一个Python列表(List),列表中的每个元素是一个 (变量的偏导数,变量) 对。比如这里是 [(grad_a, a), (grad_b, b)] 。我们通过 grads = tape.gradient(loss, variables) 求出tape中记录的 loss 关于 variables = [a, b] 中每个变量的偏导数,也就是 grads = [grad_a, grad_b],再使用Python的 zip() 函数将 grads = [grad_a, grad_b]variables = [a, b] 拼装在一起,就可以组合出所需的参数了。

    函数是Python的内置函数。用自然语言描述这个函数的功能很绕口,但如果举个例子就很容易理解了:如果 a = [1, 3, 5]b = [2, 4, 6],那么 zip(a, b) = [(1, 2), (3, 4), …, (5, 6)] 。即“将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表”。在Python 3中, zip() 函数返回的是一个对象,需要调用 list() 来将对象转换成列表。

    Python的 zip() 函数图示

    在实际应用中,我们编写的模型往往比这里一行就能写完的线性模型 y_pred = a * X + b (模型参数为 variables = [a, b] )要复杂得多。所以,我们往往会编写并实例化一个模型类 model = Model() ,然后使用 y_pred = model(X) 调用模型,使用 model.variables 获取模型参数。关于模型类的编写方式可见 。

    • 1
    • 主要可以参考 Tensor Transformations 和 两个页面。可以注意到,TensorFlow的张量操作API在形式上和Python下流行的科学计算库NumPy非常类似,如果对后者有所了解的话可以快速上手。

    • 3

    • 其实线性回归是有解析解的。这里使用梯度下降方法只是为了展示TensorFlow的运作方式。

    • 此处的损失函数为均方差 L(x) = \frac{1}{2} \sum_{i=1}^5 (ax_i + b - y_i)^2。其关于参数 和 b 的偏导数为 ,\frac{\partial L}{\partial b} = \sum_{i=1}^5 (ax_i + b - y)

    • 与Eager Execution相对的是Graph Execution(静态图)模式,即TensorFlow在2018年3月的1.8版本发布之前所主要使用的模式。本手册以面向快速迭代开发的动态模式为主,但会在附录中介绍静态图模式的基本使用,供需要的读者查阅。