
会员
深入浅出神经网络与深度学习
更新时间:2020-09-10 11:12:34 最新章节:附录 是否存在关于智能的简单算法
书籍简介
本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写Python代码来解决复杂的模式识别问题。
品牌:人邮图书
译者:朱小虎
上架时间:2020-08-17 00:00:00
出版社:人民邮电出版社
本书数字版权由人邮图书提供,并由其授权上海阅文信息技术有限公司制作发行
最新章节
(澳)迈克尔·尼尔森
最新上架
- 会员我们生活在一个由算法构筑的世界:这些基于数据的算法不仅掌控着社会的运转、筛选着我们的网络见闻,还构成了自动驾驶、智能家居、前沿医疗、智慧城市乃至元宇宙发展的根本。它们是人类步入智能化新纪元的关键驱动力。随着我们对数字技术的依赖日益加深,数学家和数据研究者得以透过它们窥探我们的日常生活。他们通过收集我们的购物记录、消费倾向、兴趣爱好和旅行路径等数据,试图解码我们的日常行为模式。但是,这些数据驱动的分计算机15.2万字
- 会员大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch2.0深度学习环境搭建计算机12.8万字
- 会员人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2计算机14万字
- 会员ChatGPT作为人工智能领域的一大进步,引起了热议,其强大功能的背后离不开大模型的支持。大模型指的是参数规模超过千万的机器学习模型,主要应用于语音识别、计算机视觉等领域。本书聚焦大模型,对大模型的技术场景和商业应用展开详细叙述。本书主要从典型应用ChatGPT入手,探寻其背后支撑大模型的魅力。首先,本书对大模型的基础概念、产业格局、带来的新型商业模式进行讲解,展现了大模型的发展现状和商业化潜力。计算机13.2万字
- 会员这是一本从工程化角度讲解大语言模型的核心技术、构建方法与前沿应用的著作。首先从语言模型的原理和大模型的基础构件入手,详细梳理了大模型技术的发展脉络,深入探讨了大模型预训练与对齐的方法;然后阐明了大模型训练中的算法设计、数据处理和分布式训练的核心原理,展示了这一系统性工程的复杂性与实现路径。除了基座模型的训练方案,本书还涵盖了大模型在各领域的落地应用方法,包括低参数量微调、知识融合、工具使用和自主智计算机12.1万字
同类书籍最近更新
- 会员人工智能技术正在彻底改变人类的认知,重建人机相互协作的关系。史无前例的自动驾驶正在重构我们头脑中的出行地图和人类生活图景,今天的人工智能技术也正在翻译、写作、绘画等人文和艺术领域进行大胆的尝试。我们真的知道什么是人工智能吗?人工智能9.4万字
- 会员《人工智能程序员面试笔试宝典》是一本讲解人工智能面试笔试的百科全书,在写法上,除了讲解常见的面试笔试知识点,还引入了相关示例和笔试题辅以说明,让读者能够更加容易理解。《人工智能程序员面试笔试宝典》将人工智能面试笔试过程中各类知识点一网打尽,在内容的广度上,通过各种渠道,搜集了近3年来知名IT企业针对人工智能岗位面试涉及的知识点,包括但不限于人工智能、计算机网络、操作系统、算法等,所选择的知识点均为人工智能13.5万字
- 会员本书深入讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的MNIST手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写Python代码来解决复杂的模式识别问题。人工智能13.1万字