万本电子书0元读

万本电子书0元读

顶部广告

自然语言处理与大语言模型原理详解电子书

资深算法工程师多年NLP与大语言模型实践经验总结以NLP核心任务为主线,系统梳理技术演脉络与应用全面展示从NLP词嵌到Transformer架构的完整技术演脉络围绕NLP的核心模型,详解其各类典型任务的实现原理与技术要从基本原理、数学推导和代码实践三个维度展讲解,知识体系完整详解多个NLP经典模型的原理与演化,并深探讨大语言模型的实际应用通过50个完整的Python代码实践案例,助力读者行高效实践本书五大特色:涵盖技术演的完整脉络:系统梳理从N-gram、词袋模型到Transformer架构的技术迭代,既包含词嵌、句法解析等传统方法,又详解BERT和GPT等大语言模型的预训练范式与自注意力机制,兼顾知识深度与体系完整性。详解分层递的知识架构:以词向量、依存句法分析为认知起,从循环神经网络和长短期记忆网络时序建模过渡到Transformer架构,最终延伸至RLHF对齐策略,从而构建符合认知规律的渐式学习路径。算法原理与代码实现并重:在理论推导中结合Python代码实践案例,同步提供数据预处理、子词切分、模型蒸馏等实践指南,从而强化从理论知识到应用落地的转化能力。聚焦大语言模型技术闭环:深剖析大语言模型的全生命周期,涵盖模型的预训练、微调、部署与对齐等关键技术环节,揭示ChatGPT等模型的实现逻辑。强化生成任务的技术纵深:详解自然语言生成技术,对比贪心搜索和集束搜索等解码策略,分析温度系数调控和重复惩罚等生成控制方法,并探讨幻觉生成的检测与治理方案。

售       价:¥

纸质售价:¥86.70购买纸书

0人正在读 | 0人评论 6.3

作       者:杨灵玑

出  版  社:清华大学出版社

出版时间:2025-08-01

字       数:30.6万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》全面、系统、深地介绍自然语言处理(NLP)的核心知识与实践方法,涵盖从传统模型到基于Transformer架构的大语言模型的完整知识体系。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》通过理论推导与Python代码实践相结合的方式,深解析词嵌、句法分析、序列建模等基础技术,并重探讨Transformer架构、预训练范式、生成控制与RLHF对齐等大语言模型的关键技术。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》结合多个Python实践案例与伦理问题,帮助读者掌握“基础理论→算法实现→应用落地”的NLP任务构建全栈能力。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》共12章,分为4篇。第1篇自然语言处理基础与词表示,介绍词袋模型、TF-IDF、Word2Vec和GloVe词嵌等NLP基础,以及神经网络基础、朴素贝叶斯在情感分类中的作用、N-gram语言建模等;第2篇语言结构与句法解析,介绍上下文无关语法、成分解析与依存句法分析等;第3篇序列建模与深度学习方法,深介绍循环神经网络、长短期记忆网络、门控循环单元、序列到序列模型、注意力机制与Transformer架构等;第4篇大语言模型与生成技术,介绍自然语言生成的解码过程、常见问题及其解决方案、评估指标、评价方法、伦理问题,以及大语言模型预处理与基于人类反馈的强化学习等。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》内容丰富,讲解深浅出,理论兼具实践,适合想系统、深学习自然语言处理和大语言模型的读者,也适合数据科学家、机器学习工程师和NLP研究员等大语言模型从业人员阅读,还可作为高等院校人工智能相关专业的教材或教学参考书,以及相关培训机构的教学用书。<br/>【推荐语】<br/>资深算法工程师多年NLP与大语言模型实践经验总结以NLP核心任务为主线,系统梳理技术演脉络与应用全面展示从NLP词嵌到Transformer架构的完整技术演脉络围绕NLP的核心模型,详解其各类典型任务的实现原理与技术要从基本原理、数学推导和代码实践三个维度展讲解,知识体系完整详解多个NLP经典模型的原理与演化,并深探讨大语言模型的实际应用通过50个完整的Python代码实践案例,助力读者行高效实践本书五大特色:涵盖技术演的完整脉络:系统梳理从N-gram、词袋模型到Transformer架构的技术迭代,既包含词嵌、句法解析等传统方法,又详解BERT和GPT等大语言模型的预训练范式与自注意力机制,兼顾知识深度与体系完整性。详解分层递的知识架构:以词向量、依存句法分析为认知起,从循环神经网络和长短期记忆网络时序建模过渡到Transformer架构,最终延伸至RLHF对齐策略,从而构建符合认知规律的渐式学习路径。算法原理与代码实现并重:在理论推导中结合Python代码实践案例,同步提供数据预处理、子词切分、模型蒸馏等实践指南,从而强化从理论知识到应用落地的转化能力。聚焦大语言模型技术闭环:深剖析大语言模型的全生命周期,涵盖模型的预训练、微调、部署与对齐等关键技术环节,揭示ChatGPT等模型的实现逻辑。强化生成任务的技术纵深:详解自然语言生成技术,对比贪心搜索和集束搜索等解码策略,分析温度系数调控和重复惩罚等生成控制方法,并探讨幻觉生成的检测与治理方案。<br/>【作者】<br/>杨灵玑,资深数据科学家。先后在跨国咨询公司和大型国际科技公司任职。在机器学习与深度学习领域具备深厚的理论基础与丰富的实战经验,尤其擅长自然语言处理的各种模型,并对计算机视觉有深研究。发表数篇论文,并为公司发了多款跨区域使用的AI工具。<br/>
目录展开

内容简介

作者简介

前言

本书特色

本书内容

读者对象

配套资源

售后支持

第1篇 自然语言处理基础与词表示

第1章 自然语言处理基础与词嵌入

1.1 自然语言处理概述

1.2 词袋模型

1.3 词向量和词嵌入

1.4 词嵌入方法

1.5 Word2Vec和GloVe比较

1.6 自然语言处理中的词向量评估方法

参考文献

第2章 神经网络基础

2.1 神经网络单元

2.2 前馈计算

2.3 最大间隔目标函数

2.4 反向传播

2.5 神经网络的算法实现

2.6 神经网络的激活函数

2.7 数据预处理

2.8 参数初始化

2.9 学习率

2.10 梯度下降优化算法

2.11 神经网络的验证及调整方法

参考文献

第3章 朴素贝叶斯在情感分类中的作用

3.1 文本分类的基本概念

3.2 朴素贝叶斯分类器

参考文献

第4章 语言建模任务和N-gram模型

4.1 语言建模简介

4.2 N-gram模型简介

4.3 N-gram模型的评价方法

4.4 N-gram模型的主要问题及其解决方法

参考文献

第2篇 语言结构与句法解析

第5章 上下文无关语法和成分解析

5.1 句法分析的意义

5.2 上下文无关语法

5.3 树库

5.4 语法等价性和范式

5.5 句法解析器和结构歧义

5.6 CKY解析

5.7 处理歧义:概率上下文无关文法

5.8 最佳优先概率解析

5.9 解析的评价方法

参考文献

第6章 依存句法分析

6.1 构成成分和依存结构的区别与联系

6.2 依存结构的基本概念

6.3 依存关系的确立

6.4 基于转移的依存句法分析

6.5 神经网络依存句法分析器

参考文献

第3篇 序列建模与深度学习方法

第7章 循环神经网络

7.1 神经概率语言模型简介

7.2 循环神经网络的原理、评估与优化策略

参考文献

第8章 长短期记忆网络与门控循环单元

8.1 长短期记忆网络

8.2 门控循环单元

参考文献

第9章 序列到序列模型

9.1 机器翻译概述

9.2 序列到序列模型的基本原理与实现

9.3 注意力机制

9.4 序列到序列模型的评估方法

参考文献

第10章 注意力机制与Transformer架构

10.1 注意力机制的基本原理、局限性与改进

10.2 Transformer的关键组件

10.3 Transformer的编码器与解码器结构

10.4 Transformer的应用场景

10.5 Transformer的应用成果、复杂度与发展趋势

参考文献

第4篇 大语言模型与生成技术

第11章 自然语言生成

11.1 自然语言生成的不同任务类型

11.2 自然语言生成的基础

11.3 自然语言生成的解码过程

11.4 解码遇到的问题及其解决方案

11.5 自然语言生成的训练过程

11.6 评估指标

11.7 自然语言生成的评价方法

11.8 自然语言生成的伦理问题

参考文献

第12章 大语言模型预处理与基于人类反馈的强化学习

12.1 子词模型

12.2 整体模型训练

12.3 编码器的预训练方法

12.4 编码器-解码器的预训练方法

12.5 解码器的预训练方法

12.6 大语言模型的优化:提示工程与基于人类反馈的强化学习

参考文献

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部