TF 卡读/写/删除
基于 FlexLua 低代码单片机技术,脱离复杂单片机C语言开发正逐渐成为一种快速高效的 IoT 硬件开发方式。即使新手不懂单片机开发也可很快很容易用FlexLua零门槛开发各种 IoT 硬件,更多教程请参考 FlexLua 官网。
注意:仅 ShineBlink C1 开发板 带 SDIO TF 卡接口,C2不适合本教程(C2 仅能通过内部 Flash 模拟出一个 1.6M 的极小 U 盘)。
2024年10月06日
基于 FlexLua 低代码单片机技术,脱离复杂单片机C语言开发正逐渐成为一种快速高效的 IoT 硬件开发方式。即使新手不懂单片机开发也可很快很容易用FlexLua零门槛开发各种 IoT 硬件,更多教程请参考 FlexLua 官网。
注意:仅 ShineBlink C1 开发板 带 SDIO TF 卡接口,C2不适合本教程(C2 仅能通过内部 Flash 模拟出一个 1.6M 的极小 U 盘)。
2024年10月06日
AI神经网络的图像识别技术可以通俗理解为:通过模仿人类大脑神经网络的运作方式,构建一个复杂的计算模型,这个模型能够接收图像信息,经过处理后提取出图像中的特征,并根据这些特征对图像进行识别和分类。
2024年10月06日
TensorFlow是一个被广泛使用的深度学习库,它提供了丰富的功能和工具,用于构建和训练各种类型的神经网络模型。
1. 导入TensorFlow库
要使用TensorFlow库,首先需要安装并导入它。在Python代码中,可以使用以下代码导入TensorFlow库:
```
import tensorflow as tf
2024年10月06日
上期我们分享了TensorFlow的过拟合与dropout的问题过拟合(Overfitting)与dropout,本期我们来实现如何在TensorFlow中利用代码实现overfiting的问题。
我们导入sk-learn的数据,来进行本期的训练分析
2024年10月06日
本文介绍简单说说深层神经网络中的几种常用方法,深度学习所示深层神经网络的代名词,重要特性:多层、非线性。若只通过线性变换,任意层的神经网络模型与单层神经网络模型的表达能力没有任何区别,这是线性模型的局限性。对于线性可分的问题中,线性模型可解决,但在现实生活中,绝大部分的问题都是无法线性分割的。
1、激活函数
将每一个神经元(神经网络的节点)的输出通过一个非线性函数便可使得整个神经网络的模型非线性化,这个非线性函数就是激活函数。常用非线性激活函数:tf.nn.relu、tf.sigmoid、tf.tanh;使用方法,例:tf.nn.relu(tf.matmul(x,w1)+biases1)
2024年10月06日
李林 编译自 Google Research Blog
量子位 出品 | 公众号 QbitAI
谷歌今天推出了一个新的开源Python自动微分库:Tangent。
和现有的机器学习库不同,Tangent是一个源代码到源代码的系统,使用Python函数f,并用一个新的Python函数来计算f的梯度。这能帮用户更好地看清梯度计算,并更简单地对梯度进行用户级编辑和调试。
此外,Tangent还有更多调试和设计机器学习模型的功能:
2024年10月06日
各种土方量的计算方法汇总
8.2.1 DTM法土方计算
由DTM模型来计算土方量是根据实地测定的地面点坐标(X,Y,Z)和设计高程,通过生成三角网来计算每一个三棱锥的填挖方量,最后累计得到指定范围内填方和挖方的土方量,并绘出填挖方分界线。
DTM法土方计算共有三种方法,一种是由坐标数据文件计算,一种是依照图上高程点进行计算,第三种是依照图上的三角网进行计算。前两种算法包含重新建立三角网的过程,第三种方法直接采用图上已有的三角形,不再重建三角网。下面分述三种方法的操作过程:
2024年10月06日
编者按:本文转载于酷耍(http:/kooshua.com)
这个教程的目标读者是对机器学习和TensorFlow都不太了解的新手。如果你已经了解MNIST和softmax回归(softmax regression)的相关知识,你可以阅读这个快速上手教程。
当我们开始学习编程的时候,第一件事往往是学习打印"Hello World"。就好比编程入门有Hello World,机器学习入门有MNIST。
2024年10月06日
李林 编译自 Google Research Blog
量子位 出品 | 公众号 QbitAI
谷歌今天推出了一个新的开源Python自动微分库:Tangent。
和现有的机器学习库不同,Tangent是一个源代码到源代码的系统,使用Python函数f,并用一个新的Python函数来计算f的梯度。这能帮用户更好地看清梯度计算,并更简单地对梯度进行用户级编辑和调试。
此外,Tangent还有更多调试和设计机器学习模型的功能:
2024年10月06日
在这篇文章中,我将解释NALU,它的架构,它的组件和传统神经网络的意义。这篇文章的主要目的是提供简单直观的NALU解释(包括概念和代码)。
神经网络,从理论上讲,都是很不错的函数逼近。他们几乎总能学习输入(数据或特征)和输出(标签或目标)之间的任何有意义的关系。因此,它们被用于各种各样的应用,从物体检测和分类到语音到文本转换,再到可以击败人类世界冠军球员的智能游戏代理。有许多有效的神经网络模型满足了诸如卷积神经网络(CNN),递归神经网络(RNN),自动编码器等应用的各种需求。深度学习和神经网络模型的进步本身就是另一个主题。