在线咨询
eetop公众号 创芯大讲堂 创芯人才网
切换到宽版

EETOP 创芯网论坛 (原名:电子顶级开发网)

手机号码,快捷登录

手机号码,快捷登录

找回密码

  登录   注册  

快捷导航
搜帖子
查看: 9885|回复: 23

[转贴] 11 行 Python 代码实现神经网络

[复制链接]
发表于 2017-4-30 08:19:57 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

x

如果你读懂了下面的文章,你会对神经网络有更深刻的认识,有任何问题,请多指教。


Very simple Neural Network

首先确定我们要实现的任务:


                               
登录/注册后可看大图


输出的为样本为 X 为 4*3,有 4 个样本 3 个属性,每一个样本对于这一个真实值 y,为 4*1 的向量,我们要根据 input 的值输出与 y 值损失最小的输出。


Two Layer Neural Network

首先考虑最简单的神经网络,如下图所示:


                               
登录/注册后可看大图


输入层有3个神经元(因为有3个属性),输出为一个值,w1,w2,w3为其权重。输出为:


                               
登录/注册后可看大图

这里的f为sigmoid函数:


                               
登录/注册后可看大图

一个重要的公式:


                               
登录/注册后可看大图

神经网络的优化过程是:

1. 前向传播求损失
2. 反向传播更新w

简单是实现过程如下所示:

import numpy as np

# sigmoid function

# deriv=ture 是求的是导数

def nonlin(x,deriv=False):

    if(deriv==True):

        return x*(1-x)

    return 1/(1+np.exp(-x))

# input dataset

X = np.array([  [0,0,1],

                [1,1,1],

                [1,0,1],

                [0,1,1] ])

# output dataset            

y = np.array([[0,1,1,0]]).T

# seed random numbers to make calculation

np.random.seed(1)

# initialize weights randomly with mean 0

syn0 = 2*np.random.random((3,1)) - 1

# 迭代次数

for iter in xrange(10000):

    # forward propagation

    # l0也就是输入层

    l0 = X

    l1 = nonlin(np.dot(l0,syn0))

    # how much did we miss?

    l1_error = y - l1

    # multiply how much we missed by the

    # slope of the sigmoid at the values in l1

    l1_delta = l1_error * nonlin(l1,True)

    # update weights

    syn0 += np.dot(l0.T,l1_delta)

print "Output After Training:"

print l1

注意这里整体计算了损失,X(4*3) dot w(3*1) = 4*1 为输出的 4 个值,所以
l1_error = y - l1 同样为一个 4*1 的向量。

重点理解:

   # slope of the sigmoid at the values in l1

   #nonlin(l1,True),这里是对sigmoid求导

   #前向计算,反向求导

   l1_delta = l1_error * nonlin(l1,True)  

  # update weights

   syn0 += np.dot(l0.T,l1_delta)

下面看一个单独的训练样本的情况,真实值y==1,训练出来的为0.99已经非常的接近于正确的值了,因此这时应非常小的改动syn0的值,因此:


                               
登录/注册后可看大图


                               
登录/注册后可看大图

运行输出结果为,可以看到其训练的不错:

Output After Training:
Output After Training:[[ 0.00966449]
[ 0.99211957]
[ 0.99358898]
[ 0.00786506]]123456123456


Three Layer Neural Network

我们知道,两层的神经网络即为一个小的感知机(参考:感知机到人工神经网络),它只能出来线性可分的数据,如果线性不可分,则其出来的效果较差,如下图所示的数据:


                               
登录/注册后可看大图

如果仍用上述的代码(2层的神经网络)则其结果为:

Output After Training:[[ 0.5]
[ 0.5]
[ 0.5]
[ 0.5]]1234512345

因为数据并不是线性可分的,因此它是一个非线性的问题,神经网络的强大之处就是其可以搭建更多的层来对非线性的问题进行处理。

下面我将搭建一个含有5个神经元的隐含层,其图形如下,(自己画的,略丑),这来要说下神经网络其实很简单,只要你把层次的结果想清楚。


                               
登录/注册后可看大图

要搞清楚w的维度:第一层到第二层的w为3*5,第二层到第三层的W为5*1,因此还是同样的两个步骤,前向计算误差,然后反向求导更新w。

完整的代码如下:

import numpy as np

def nonlin(x,deriv=False):

    if(deriv==True):

        return x*(1-x)

    return 1/(1+np.exp(-x))

X = np.array([[0,0,1],

            [0,1,1],

            [1,0,1],

            [1,1,1]])

y = np.array([[0],

            [1],

            [1],

            [0]])

np.random.seed(1)

# randomly initialize our weights with mean 0

syn0 = 2*np.random.random((3,5)) - 1

syn1 = 2*np.random.random((5,1)) - 1

for j in xrange(60000):

    # Feed forward through layers 0, 1, and 2

    l0 = X

    l1 = nonlin(np.dot(l0,syn0))

    l2 = nonlin(np.dot(l1,syn1))

    # how much did we miss the target value?

    l2_error = y - l2

    if (j% 10000) == 0:

        print "Error:" + str(np.mean(np.abs(l2_error)))

    # in what direction is the target value?

    # were we really sure? if so, don't change too much.

    l2_delta = l2_error*nonlin(l2,deriv=True)

    # how much did each l1 value contribute to the l2 error (according to the weights)?

    l1_error = l2_delta.dot(syn1.T)

    # in what direction is the target l1?

    # were we really sure? if so, don't change too much.

    l1_delta = l1_error * nonlin(l1,deriv=True)

    syn1 += l1.T.dot(l2_delta)

    syn0 += l0.T.dot(l1_delta)

print l2

运行的结果为:

Error:0.500628229093

Error:0.00899024507125

Error:0.0060486255435

Error:0.00482794013965

Error:0.00412270116481

Error:0.00365084766242

# 这一部分是最后的输出结果

[[ 0.00225305]
[ 0.99723356]
[ 0.99635205]
[ 0.00456238]]

如果上面的代码看懂了,那么你就可以自己搭建自己的神经网络了,无论他是多少层,或者每个层有多少个神经元,都能很轻松的完成。当然上面搭建的神经网络只是一个很简单的网络,同样还有许多的细节需要学习,比如说反向传回来的误差我们可以用随机梯度下降的方法去更新W,同时还可以加上偏置项b,还有学习率 α 等问题。

发表于 2017-4-30 21:32:31 | 显示全部楼层
学习学习~~~
发表于 2017-6-8 17:57:47 | 显示全部楼层
谢谢您的资料
发表于 2017-8-13 09:25:22 | 显示全部楼层
谢谢! 非常感兴趣
发表于 2017-8-13 16:59:38 | 显示全部楼层
谢谢分享!谢谢分享!
发表于 2017-8-15 21:46:03 | 显示全部楼层
最近正在学习这个,谢谢分享。
发表于 2017-8-25 08:54:41 | 显示全部楼层
直接看原文吧,排版要清晰得多:
A Neural Network in 11 lines of Python  
-----A bare bones neural network implementation to describe the inner workings of backpropagation
http://iamtrask.github.io/2015/07/12/basic-python-network/
发表于 2017-8-25 15:55:35 | 显示全部楼层
学习学习
发表于 2017-8-25 16:13:17 | 显示全部楼层
最近正在学习这个,谢谢分享。
发表于 2017-8-25 22:38:44 | 显示全部楼层
深度好文,值得认真读读
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐 上一条 /2 下一条

小黑屋| 关于我们| 联系我们| 在线咨询| 隐私声明| EETOP 创芯网
( 京ICP备:10050787号 京公网安备:11010502037710 )

GMT+8, 2024-4-26 18:35 , Processed in 0.042638 second(s), 8 queries , Gzip On, Redis On.

eetop公众号 创芯大讲堂 创芯人才网
快速回复 返回顶部 返回列表