评分及书评

4.8
8个评分
  • 用户头像
    给这本书评了
    5.0
    神经网络的接地气教学版

    最近在学人工智能,就跑来得到看看有没有神经网络的书籍。看这本书的时候,它的介绍是但凡你有初中的数学知识,就可以看懂。但有一说一哦,我觉得还是要对神经网络有一定的认识和接触,学起来会非常得心应手。我把这本书当作我学习的课外书,神经网络里面对图像分析比较适用的是卷积神经网络(CNN),也就是我们深度学习所需要的模型之一。本书的讲解,以及 Python 的编码在有一定应用基础的时候,它的叠加效应是非常无敌的。属于 1+1 大于 2 的功效。喜欢或者对于神经网络有好奇的朋友,我非常推荐看这本书。你会领略到神经网络以及深度学习的奥秘!大爱!

      转发
      评论
      用户头像
      给这本书评了
      5.0
      四小时就能读完、猴子也能上手的神经网络深度学习科普书籍

      因为本人最近急着学机器学习相关的系列知识以应付即将到来的研究生工作,我在得到手动筛选了大概上百本‌编程相关的书籍放入书架,以备学习。总的来说,具体流程如下 —— 看书名、看封面、看简介,觉得 OK 收进书架,收完一波,再慢慢一本本打开,把每一本上看个开头,至少把导论看完了,把这玩意究竟是什么搞清楚了,再去决定将不将这本书留在书架里。如果和现在的需求相关的,比如说,机器学习,我就把它置顶,放到显眼的地方慢慢学。这一本,就是我在这个筛选过程中,筛到整个人心花怒放,急不可待想把它全部看完,结果还真就完全看完,并且看完感受跟过完一个 30 讲专栏一样畅快的书。这本书不是教科书,它甚至也不同于一般的实战书,它是一本科普书。它为了让读者入门,扔掉种种复杂难懂的数学概念和编程知识,作者亲自,手把手,从 1+1=2,到一层层神经网络的建立,再到最后,只给读者留下一个问题 —— 如何零基础铸造一个可以用来识别手写数字的人工智能。然后,只要跟着一起做,你就会惊奇的发现,一个识别率高达 97% 的 AI,从一个小白手上,只需要不过 5 个小时,竟然就这么诞生了!并且,你记得住这一切是怎么发生的:你知道这个 AI 的黑匣子里,究竟装了些什么药;你能因为这本书,彻底的理解 “深度学习” 的上手路径。我甚至觉得,如果你能再用心背一下那些要背的指令,让你从零开始在整一次,你甚至会操作的如鸡蛋羹般顺滑。因为这一切过于容易理解,以至于你连问题也问不出几个出来。“入门神书,就是它了。” 好的地方说完了,坏的地方,就是聚焦入门所带来的一切问题了。读这本书,有点像听新东方老师讲英语,你会很爽,会觉得自己啥都会了,并且你也能复述老师的很多东西,可问题换一个形式,你就完全懵掉了 —— 毕竟,你只针对 “数字识别” 这样一个小问题,懂得一小串实践性的东西。这个实践路径从何而来?那可是如利维坦一般无边无尽,如克苏鲁一般招人疯狂的数学与计算机基础实践知识。你不懂这些,怎么可能找得到拓展的门道?而且,就算把这些基础知识放在一边,单靠这本书的知识,也还是懂的太少了。这就有点像是一个大厨教新手做菜,人家教了你他一个国宴,开水白菜,他完全懂了,甚至还会做这个菜了,还做的特好吃,但真叫这新手给家里人做饭,恐怕连蛋炒饭都得焦成煤炭。做菜嘛,也没啥基础知识要学,能上手就行,但新手哪怕是上手都上手的太少了,“懂得太少” 这个原罪,终究还是不能被这短短的 4 个小时解决。可无论如何,这本书作为入门书都过于优秀了。兴趣是最好的老师,而作者在这本书里所展现编写手法,让我觉得他有能力让大众对任何一个完全陌生的事物产生兴趣。因为这点,这本书拿 5 星评价,不过分。

        转发
        评论
        用户头像
        给这本书评了
        5.0
        深入浅出的讲解神经网络

        强烈推荐想学习神经网络并且零基础的朋友看这本书。作者的讲解循序渐进,没有障碍。对于像我这样的门外汉来说很实用。读起来也不会一脸懵逼,也不会犯困。

          转发
          评论
          用户头像
          给这本书评了
          5.0

          讲的深入浅出,小白也可以听得懂,看得懂

            转发
            评论
            用户头像
            给这本书评了
            5.0
            是一本适合神经网络入门的一本好书

            作者通过对比生物神经网络提出人工神经网络模型每一部分产生的原因:神经元模拟生物生物神经元,神经元后面的激活函数模拟生物神经元的抑制机制。生物神经元具有抑制机制的原因是尽量不会因为误差的输入影响输出。神经网络使用误差训练我们想要的模型。损失函数是神经网络连接权重的函数,优化损失函数的过程就是找到使当前误差最小对应神经网络中的连接权重。神经网络最终学习的内容是网络内的所有连接权重。神经网络需要训练的原因是神经网络的误差函数不能使用代数的方法直接求出误差最小值,所以使用梯度下降的方式求解误差最小值。每一个训练样本在方向传播的时候连接权重都朝误差最小的方向更新,最后的训练结果就是我们需要的结果。在实际编程的时候作者明确的解释了初始化训练样本和标签的原因:激活函数 sigmoid 的性质决定了输入的内容必须是大于 0,小于 1,输出层的内容也必须是大于 0,小于 1。理论和实践相结合的一本书,推荐!

              转发
              评论