阅读量:0
TensorFlow 1.12 包含大量的函数和类,覆盖了从基础数学操作到复杂的神经网络层构建的各种功能。列举出部分函数并进行注释。
基础张量操作
tf.add
: 张量加法。tf.subtract
: 张量减法。tf.multiply
: 张量乘法。tf.div
: 张量除法。tf.mod
: 张量取模。tf.pow
: 张量幂运算。
张量变换
tf.concat
: 沿指定轴合并张量。tf.expand_dims
: 增加维度。tf.squeeze
: 删除单维度。tf.reshape
: 改变张量形状。
基础数学函数
tf.abs
: 绝对值。tf.negative
: 取负。tf.sign
: 符号函数。tf.round
: 四舍五入。
指数和对数函数
tf.exp
: 指数函数。tf.log
: 自然对数。tf.sqrt
: 平方根。
三角函数
tf.sin
: 正弦函数。tf.cos
: 余弦函数。tf.tan
: 正切函数。
激活函数
tf.nn.relu
: 线性整流激活函数。tf.nn.sigmoid
: Sigmoid激活函数。tf.nn.softmax
: Softmax激活函数。
损失函数
tf.nn.softmax_cross_entropy_with_logits
: 带 logits 的 softmax 交叉熵损失。tf.nn.l2_loss
: L2损失,用于正则化。
优化器
tf.train.GradientDescentOptimizer
: 梯度下降优化器。tf.train.AdamOptimizer
: Adam优化器。
梯度计算
tf.gradients
: 计算给定张量相对于其他张量的梯度。
卷积层
tf.nn.conv2d
: 二维卷积操作。
池化层
tf.nn.max_pool
: 最大池化操作。
归一化
tf.nn.local_response_normalization
: 局部响应归一化。
嵌入层
tf.nn.embedding_lookup
: 查找嵌入。
正则化
tf.contrib.layers.l2_regularizer
: L2正则化。
模型保存和恢复
tf.train.Saver
: 保存和恢复模型。
数据输入
tf.placeholder
: 创建数据占位符。tf.data.Dataset
: 用于构建复杂的输入管道。
会话和执行
tf.Session
: 执行图的会话。tf.global_variables_initializer
: 初始化所有全局变量。
监控和摘要
tf.summary
: 记录训练过程中的监控信息。
分布式训练
tf.train.ClusterSpec
: 定义训练集群的规格。tf.train.Server
: 用于分布式训练的服务器。