对ChatGPT的几个提问,当码农小帮手可行

  ChatGPT能说会到,还能写代码修Bug,今天就验证它的IT相关知识能力,容器的使用、代码理解编写的能力等,目前看ChatGPT的水平还是很高,虽然之前通过搜索引擎也能够获取得到,但是搜索精准程度还是差得很多并不是第一时间就能够找到自己想要的答案;   ChatGPT在代码理解、编写代码方面视

使用LabelImg标注图片

  要训练自己的模型、需要标注图片,好在现在标注工具比较简单几乎傻瓜化了。这里使用LabelImg对图片进行标注; LabelImg安装 conda create -n labelImg python=3 conda activate labelImg conda install pyqt=5 co

Python常用库—tqdm

tqdm Tqdm库比较常用,用于显示进度条。 简单用法: from tqdm import tqdm for i in tqdm(range(2)): pass 100%|███████████████████| 2/2 [00:00<00:00, 1998.72it/s]  

python中几种自动微分库

  简单介绍下python的几个自动求导工具,tangent、autograd、sympy;   在各种机器学习、深度学习框架中都包含了自动微分,微分主要有这么四种:手动微分法、数值微分法、符号微分法、自动微分法,这里分别简单走马观花(hello world式)的介绍下下面几种微分框架; sympy

反向传播算法—从四个基本公式说起

反向传播四公式:   反向传播的最终目的是求得使代价C最小时w、b的最佳值,为了方便计算引入了神经单元误差δ_j^l,其定义为误差C关于某个神经单元z的关系;   其定义如上所示,某神经元误差为代价C(总误差)关于z的偏导数,其中l为神经网络的层数,j为第几个神经元;   这里的代价函数(

微积分——自动微分

  梯度下降法(Gradient Descendent)是机器学习的核心算法之一,自动微分则是梯度下降法的核心;   梯度下降法用于求损失函数的最优值,前面的文章中我们说过梯度下降是通过计算参数与损失函数的梯度并在梯度的方向不断迭代求得极值;但是在机器学习、深度学习中很多求导往往是很复杂的,手动使用

BP神经网络

神经网络理论   BP神经网络(Back Propagation Neural Network)为多层前馈神经网络用得比较广泛,该神经网络先通过前向传播取得估计值,后再使用误差进行反向传播通过梯度下降来不断地更新权重从而取得最小误差从中学习得最佳权重系数;从BP神经网络的名字也知道该算法的核心为反向

微积分拾遗——链式法则

  链式法则(chain rule)微积分中求导法则,用于求复合函数的导数;   链式法则应用广泛,比如神经网络中的反向传播算法就是已链式法则为基础演变的;接下来先说说链式法则的概念然后通过链式法则的两种形式学习链式法则;   链式法则:两个函数组合起来的复合函数,导数等于里面函数代入外函数值的导乘

机器学习是什么

  近几年机器学习非常火,机器学习并不是近来才出现的已经出现了几十年了,但随着互联网、移动互联网、计算资源的迅猛发展使得机器学习有了庞大的数据、 廉价的计算资源、 广泛的应用场景;三种条件可以说缺一不可,互联网、移动互联网带来了大数据与广泛的应用场景,摩尔定律使得机器越来越便宜云计算的出现又让计算资

模型评估与选择

  好记忆不如烂笔头,之前西瓜书这章也看过几次但还是掌握不够,今天又拿来翻翻顺便做个笔记;   前面写了几篇线性回归与逻辑回归的文章,是说模型训练的但是模型的性能怎样该怎么选择使用最小二乘法还是梯度下降法呢,我们总得要比较模型的性能再做选择吧;所以就有了这里所说的模型评估与选择;   既然是读书比较
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×