道本虚无,虚无生万物,物皆虚化
深度学习框架TensorFlow(简称TF)道术:架构之道,实战之术,干货不水,系列文章之概念篇,分享之,望你喜欢。
1、数据流图(Data Flow Graph):TF使用有向图描述数学运算过程,有向图的节点表示数据运算操作,有向图的边表示数据流向,数据沿着边的动态流动过程,构成了TF的基本工作原理。
2024年10月03日
道本虚无,虚无生万物,物皆虚化
深度学习框架TensorFlow(简称TF)道术:架构之道,实战之术,干货不水,系列文章之概念篇,分享之,望你喜欢。
1、数据流图(Data Flow Graph):TF使用有向图描述数学运算过程,有向图的节点表示数据运算操作,有向图的边表示数据流向,数据沿着边的动态流动过程,构成了TF的基本工作原理。
2024年10月03日
在TensorFlow官网(https://tensorflow.google.cn/?hl=en,英文)上,这样描述TensorFlow:
2024年10月03日
本教程介绍如何使用 tf.Keras 时序 API 从头开始训练模型,将 tf.Keras 模型转换为 tflite 格式,并在 Android 上运行该模型。我将以 MNIST 数据为例介绍图像分类,并分享一些你可能会面临的常见问题。本教程着重于端到端的体验,我不会深入探讨各种 tf.Keras API 或 Android 开发。
下载我的示例代码并执行以下操作:
在 colab 中运行:使用 tf.keras 的训练模型,并将 keras 模型转换为 tflite(链接到 Colab notebook)。
2024年10月03日
本文主要介绍MoXing将数据的输入定义在input_fn方法中,并在mox.run时注册该方法。
基本方法:
def input_fn(mode, **kwargs):
...
return input_0, input_1, ...
mox.run(..., input_fn=input_fn, ...)
输入参数:
· mode: 当前调用input_fn时的运行模式,需要用户在input_fn中做好判断使用相应的数据集和数据集增强、预处理方法。
2024年10月03日
在TensorFlow中,多维数组(也称为张量)和自动微分是深度学习中非常重要的概念。今天,我们将学习如何在TensorFlow中使用多维数组,并了解自动微分的基本原理。
在TensorFlow中,张量可以有0维(标量)、1维(向量)、2维(矩阵)或更高维度。我们可以使用
2024年10月03日
TensorFlow.js是一个开源的硬件加速JavaScript库,用于训练和部署机器学习模型。支持如下:
在浏览器中开发ML
使用灵活直观的API,使用低级JavaScript线性代数库或高级层API从头开始构建模型。
在Node.js中开发ML
Node.js运行时下使用相同的TensorFlow.js API执行本机TensorFlow。
2024年10月03日
在本文中,我们将探索TensorFlow 2.0的10个特性。
从张量构建管道
>>> dataset = tf.data.Dataset.from_tensor_slices([8, 3, 0, 8, 2, 1])
>>> iter(dataset).next().numpy()
8
2024年10月03日
除了GPU和TPU等硬件加速设备以外,一个高效的数据输入管道也可以很大程度的提升模型性能,减少模型训练所需要的时间。数据输入管道本质是一个ELT(Extract、Transform和Load)过程:
2024年10月03日
本文主要讲解TensorFlow中比较常用的的几个函数:
tf.slice()
tf.convert_to_tensor()
tf.nn.embedding_lookup()
2024年10月03日
使用TensorFlow v2.0的基本张量操作
from __future__ import print_function import tensorflow as tf # 定义张量常量 a = tf.constant(2) b = tf.constant(3) c = tf.constant(5) # 各种张量操作 # 注意:张量也支持python的操作(+,*,...) add = tf.add(a,b) sub = tf.subtract(a,b) mul = tf.multiply(a,b) div = tf.divide(a,b) # 访问张量的值 print("add=",add.numpy()) print("sub=",sub.numpy()) print("mul=",mul.numpy()) print("div=",div.numpy())