LearnFromPapers系列——标签增强技术(Label Enhancement) 作者:郭必扬 时间:2...[作者空间]
前言: PyTorch的torch.nn中包含了各种神经网络层、激活函数、损失函数等等的类。我们通过torch.n...[作者空间]
不断地被人安利PyTorch,终于忍不住诱惑决定入坑了。当初学习TensorFlow的时候,没有系统性地学习。之前...[作者空间]
如果你愿意一层一层剥开CNN的心——你会明白它究竟在做什么 一直以来,卷积神经网络对人们来说都是一个黑箱,我们只知...[作者空间]
他山之玉——窥探CNN经典模型 上一篇文章介绍了CNN的基础知识以及它的优势,今天这篇文章主要来看一看一些著名的卷...[作者空间]
初识卷积神经网络(CNN) 从今天起,正式开始讲解卷积神经网络。这是一种曾经让我无论如何也无法弄明白的东西,主要是...[作者空间]
使用TensorFlow搭建神经网络——手写数字识别 之前又有很长一段时间在讲理论,上次实践还是用python实现...[作者空间]
深度学习中的正则化(Regularization) 一、Bias(偏差) & Variance(方差) 在机器学习...[作者空间]
深度学习中的的超参数调节 我们平时一直都在说“调参、调参”,但实际上,不是调“参数”,而是调“超参数”。 一、参数...[作者空间]
神经网络的每一层基本都是在一个线性运算后面来一个非线性激活函数(Activation function),再把值传...[作者空间]
好久没写了,之前是每周都会写一两篇,前段时候回家陪爸妈旅游了 ̄▽ ̄,这段时候又在学习keras并复现一些模型,所以...[作者空间]
穷学生学习神经网络一定体会过“等待”的痛苦。。。循环一次epoch急死人,但是有几十个上百个循环等着你!你盯着屏幕...[作者空间]
前面的【DL笔记1】Logistic回归:最基础的神经网络和【DL笔记2】神经网络编程原则&Logistic Re...[作者空间]
上一篇文章讲了神经网络的参数初试化,可以看到不同的初始化方法对我们的学习效果有很大影响。(参见:【DL笔记】神经网...[作者空间]
我们已经知道,神经网络的参数主要是权重(weights):W, 和偏置项(bias):b。训练神经网络的时候需先给...[作者空间]
本文是【专题“DeepLearning学习笔记”】的第【2】篇上一篇:【DL笔记1】Logistic回归:最基本的...[作者空间]
个人认为理解并掌握这个logistic regression是学习神经网络和深度学习最重要的部分,也是最基础的部分...[作者空间]