CNN--两个Loss层计算的数值问题

CNN--两个Loss层计算的数值问题

机器学习 2017-12-30 浏览: 查看评论

写在前面,这篇文章的原创性比较差,因为里面聊的已经是老生长谈的事情,但是为了保持对CNN问题的完整性,还是把它单独拿出来写一篇了。已经知道的童鞋可以忽略,没看过的童鞋可以来瞧瞧。 这次我们来聊一聊在计算Loss部分是可能出现的一些小问题以及现在的解决方法。其实也是仔细阅读

Caffe代码阅读——Solver

Caffe代码阅读——Solver

机器学习 2017-12-29 浏览: 查看评论

前面我们聊了Net组装的内容,接下来我们来看看Solver的内容。Solver主体有两部分:初始化和训练。初始化内容相对比较简单,这里就不说了;下面我们来说说训练中的几个关键函数。 核心函数:Step 真正的训练在Step函数内,这里有多卡训练的关键回调函数:on_start()和on_gradient_ready(),具

Caffe源码阅读——Net组装

Caffe源码阅读——Net组装

机器学习 2017-12-12 浏览: 查看评论

最近忙着看TI没有及时写文章,今天赶紧补一篇…… Net是Caffe代码中一个比较核心的类,往下看它封装了所有的Layer,构建起了整个神经网络;往上看它对外提供了前向后向计算,以及核心数据结构的访问结构,使得再上层的Solver可以利用Net比较轻松地实现Train和Test的策略。

Caffe代码阅读——层次结构

Caffe代码阅读——层次结构

机器学习 2017-12-12 浏览: 查看评论

Caffe是一款优秀的深度神经网络的开源软件,下面我们来聊聊它的源代码以及它的实现。Caffe的代码整体上可读性很好,架构比较清晰,阅读代码并不算是一件很困难的事情。不过在阅读代码之前还是要回答两个问题: 阅读代码是为了什么? 阅读到什么程度?(这个问题实际上和前面的问题相

CNN--结构上的思考

CNN--结构上的思考

机器学习 2017-12-11 浏览: 查看评论

前面我们通过几个数值展示了几个比较经典的网络的一些特性,下面我们就花一点时间来仔细观察CNN网络的变化,首先是VGG在网络结构上的一些思考,其次是Inception Module对于单层网络内部的扩展,最后我们再来看看ResidualNet对于网络计算的改变。当然,我们在介绍这些模型的同时还会聊一些

CNN——架构上的一些数字

CNN——架构上的一些数字

机器学习 2017-12-11 浏览: 查看评论

前面说了很多关于CNN的数值上的事,下面我们来看看网络架构。网络架构也是CNN的一个核心部分,由于CNN的特点是它的深度,所以深度模型的网络架构给了人们无数的想象,于是也有了无数的前辈创造了各种各样的模型。我们今天来看看那些经典的模型,不是从感性的角度上去观看,而是从理性的角度

卷积层(3)

卷积层(3)

机器学习 2017-12-10 浏览: 查看评论

上回说完了卷积层的线性部分,这次来聊聊非线性部分。其实在此之前我们在聊全连接层的时候就已经说过两个非线性部分的函数: Sigmoid Tanh 而且进入了深度网络学习的过程中,前辈们又发现了另一个好用的非线性函数,那就是ReLU,全称Rectify Linear Unit。它的函数形式是这样

卷积层(2)

卷积层(2)

机器学习 2017-12-10 浏览: 查看评论

这一回我们来看看卷积层的解法。我们将采用两种方法求解: 一种是实力派解法 一种是软件库中常用的套路——整容后的偶像派解法。 这里需要一个小例子,我们假定一个1*5*5的输入,卷积层的维度是1*1*3*3,同时stride=1,padding=0。最终的输出是1*3*3。 这里先画

卷积层(1)

卷积层(1)

机器学习 2017-12-10 浏览: 查看评论

前面聊了3期全连接层,下面先扔下它,看看卷积神经网络的另外一个重量级组成部分——卷积层。 关于卷积层的具体计算方式在这里就不多说了,和全连接层类似,由线性部分和非线性部分组成,一会儿直接看代码就好。关于卷积层的计算方法,现在一般来说大家的实现方式都是用相关

神经网络-全连接层(3)

神经网络-全连接层(3)

机器学习 2017-12-10 浏览: 查看评论

上一回我们聊完了算法,这回我们正式开始写代码。上回在做公式推导的时候,我们实际上只是针对一个数据样本进行推导,而实际中,计算和训练都是一批一批完成的。大多数机器学习训练都有batch的概念,而训练中batch的计算不是一个一个地算,而是一批数据集中算,那么就需要用上矩阵了。 首

神经网络-全连接层(2)

神经网络-全连接层(2)

机器学习 2017-12-10 浏览: 查看评论

这一回聊一下神经网络的反向传导算法问题。反向传导算法是一个比较复杂的算法,但是如果把它拆解开,其实每一个小步骤并不复杂。 在此之前需要先介绍一个概念,那就是模型训练目标。神经网络是一个用在监督学习上的模型,所谓的监督学习就是我们要提前知道输入和输出。那么我们的模型

神经网络-全连接层(1)

神经网络-全连接层(1)

机器学习 2017-12-10 浏览: 查看评论

接下来聊一聊现在大热的神经网络。最近这几年深度学习发展十分迅速,感觉已经占据了整个机器学习的半壁江山。各大会议也是被深度学习占据,引领了一波潮流。深度学习中目前最火热的两大类是卷积神经网络(CNN)和递归神经网络(RNN),就从这两个模型开始聊起。 当然,这两个模型所涉及到概念

机器学习进阶笔记

机器学习进阶笔记

机器学习 2017-12-10 浏览: 查看评论

机器学习进阶笔记 机器学习进阶笔记之一 | TensorFlow安装与入门 机器学习进阶笔记之二 | 深入理解Neural Style 机器学习进阶笔记之三 | 深入理解Alexnet 机器学习进阶笔记之四 | 深入理解GoogLeNet 机器学习进阶笔记之五 | 深入理解VGG\Residual Network 机器学习进阶笔记之六

机器学习进阶笔记之六 | 深入理解Fast Neural Style

机器学习进阶笔记之六 | 深入理解Fast Neural Style

机器学习 2017-12-10 浏览: 查看评论

引言 TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程,

机器学习进阶笔记之五 | 深入理解VGG\Residual Network

机器学习进阶笔记之五 | 深入理解VGG\Residual Network

机器学习 2017-12-09 浏览: 查看评论

引言 TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程,

机器学习进阶笔记之四 | 深入理解GoogLeNet

机器学习进阶笔记之四 | 深入理解GoogLeNet

机器学习 2017-12-04 浏览: 查看评论

引言   TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程

机器学习进阶笔记之三 | 深入理解Alexnet

机器学习进阶笔记之三 | 深入理解Alexnet

机器学习 2017-12-04 浏览: 查看评论

引言   TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程

机器学习进阶笔记之二 | 深入理解Neural Style

机器学习进阶笔记之二 | 深入理解Neural Style

机器学习 2017-12-03 浏览: 查看评论

引言   TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程

机器学习进阶笔记之一 | TensorFlow安装与入门

机器学习进阶笔记之一 | TensorFlow安装与入门

机器学习 2017-12-02 浏览: 查看评论

引言   TensorFlow是Google基于DistBelief进行研发的第二代人工智能学习系统,被广泛用于语音识别或图像识别等多项机器深度学习领域。其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow代表着张量从图象的一端流动到另一端计算过程

浅谈知识图谱基础

浅谈知识图谱基础

机器学习 2017-11-29 浏览: 查看评论

  其实知识图谱这块内容在我自己做业务的时候也接触到了,当时公司一直也没一个很好的解决方案,原来我想找本专业的书籍去看,但是这方面的公开资料实在是有点少,所以就在知网找了几篇相关的论文看。   首先来说什么是语义网,语义网络是一张数据构成的网络,语义网络技术向用户提供的是

AI加速器自学组装指南(二)-Tensorflow软体架设

AI加速器自学组装指南(二)-Tensorflow软体架设

机器学习 2017-11-11 浏览: 查看评论

在上一篇谈完硬体组装基本架构后,这篇我们要谈的是Tensorflow软体架设,要安装软体,使用者当然要有Linux的安装概念与实作,因为这可是要用到终端机指令才行,而非如Windows安装那般一直按滑鼠点按即可。 AI- Tensorflow with GPU 安装纪录 OS: Ubuntu 16.04.03 LTS (Server Version)

浅谈推荐系统基础

浅谈推荐系统基础

机器学习 2017-11-07 浏览: 查看评论

  这篇文章的技术难度会低一些,主要是对推荐系统所涉及到的各部分内容进行介绍,以及给出一些推荐系统的常用算法,比起技术,产品色彩会强不少。参考了《长尾理论》、《推荐系统实践》以及大量相关博客内容。 什么是推荐系统   我之前写过一篇《长尾理论》精读,里面有这样的观点: 推

浅谈语音识别基础

浅谈语音识别基础

机器学习 2017-11-04 浏览: 查看评论

  承接前面的《浅谈机器学习基础》、《浅谈深度学习基础》和《浅谈自然语言处理基础》,主要参考了《解析深度学习:语音识别实践》以及其它相关博客和Wikipedia。 简介   其实自动语音识别(Automatic Speech Recognition,ASR)这个研究领域已经活跃了五十多年,但一直并没有真正成为一

人工智能加速器自学组装指南(一)──基本架构

人工智能加速器自学组装指南(一)──基本架构

机器学习 2017-11-04 浏览: 查看评论

随着人工智能议题越来越热门,越来越多人开始投入Python 或R 语言的学习,且透过各种强大的开源套件如Tensorflow、Keras 、Caffe、Torch、Scikit-learn,大幅降低了我们进入机器学习及深度学习的门槛。不少初心者想问,该使用怎样的硬件环境才能加速训练数据的时间?如果你或你的公司打算

浅谈机器学习基础(下)

浅谈机器学习基础(下)

机器学习 2017-10-11 浏览: 查看评论

利用回归预测数值型数据 线性回归   前面讲的都是监督学习中的分类,训练出可以判断样本类别的模型,而回归的目的是预测数值型的目标值,最直接的办法是依据输入写出一个目标值的计算公式,将自变量代入后就能根据函数得到因变量的预测值。   先讲最简单的回归方法:最小二乘法。   

 57    1 2 3 下一页 尾页