万本电子书0元读

万本电子书0元读

顶部广告

预训练语言模型:方法、实践与应用电子书

基础知识:全面、系统介绍预训练语言模型的相关知识; 预训练语言模型:介绍具有代表性的预训练语言模型的原理和机制; 实践与应用:介绍知识库问答系统、基于自然语言处理任务应用研究、大模型训练实战等具体应用。

售       价:¥44.67

纸质售价:¥55.10购买纸书

2人正在读 | 0人评论 6.7

促       销:满额减每满100减50详情>

作       者:徐双双 编著

出  版  社:人民邮电出版社有限公司

出版时间:2025-02-01

字       数:20.1万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用,旨在从应用的角度加深读者对预训练语言模型理论的理解,便于读者在实践中提高技能,达到理论和实践的统一。 本书适合计算机相关专业的学生,以及其他对预训练语言模型感兴趣的读者阅读。<br/>【推荐语】<br/>基础知识:全面、系统介绍预训练语言模型的相关知识; 预训练语言模型:介绍具有代表性的预训练语言模型的原理和机制; 实践与应用:介绍知识库问答系统、基于自然语言处理任务应用研究、大模型训练实战等具体应用。<br/>【作者】<br/>自然语言处理工程师,在机器学习、深度学习和自然语言处理领域有十余年的算法研发经验,曾在一线大厂阿里巴巴、京东等担任过资深算法工程师和算法经理等职,现在在世界500强公司担任自然语言处理团队负责人,负责过金融和医疗领域的知识图谱、智能问答系统、文本生成系统等企业级核心项目。<br/>
目录展开

内 容 提 要

前 言

资源与支持

第一部分 基础知识

第1章 自然语言处理介绍

1.1 什么是自然语言处理

1.2 自然语言处理的发展历史

1.3 自然语言的特性

1.3.1 歧义性

1.3.2 主观性

1.3.3 创造性

1.3.4 社会性

1.4 自然语言处理的研究领域

1.5 自然语言处理的常规任务

1.5.1 机器翻译

1.5.2 信息抽取

1.6 自然语言处理的常用工具

1.6.1 常用工具

1.6.2 PyTorch介绍

第2章 神经网络预备知识

2.1 神经网络核心概念

2.1.1 导数和梯度

2.1.2 链式法则

2.1.3 损失函数

2.1.4 前向传播与反向传播

2.1.5 激活函数

2.2 神经网络主要类型

2.2.1 全连接神经网络

2.2.2 卷积神经网络

2.2.3 循环神经网络

2.2.4 长短期记忆网络

2.2.5 自编码器

2.2.6 生成对抗网络

第3章 预训练语言模型基础知识

3.1 什么是预训练

3.2 文本表示方法的分类

3.3 词袋型文本表示方法

3.3.1 独热编码

3.3.2 词袋模型

3.3.3 N-gram

3.3.4 TF-IDF

3.4 主题型文本表示方法

3.4.1 LSA

3.4.2 LDA

3.5 固定型词向量文本表示方法

3.5.1 Word2Vec

3.5.2 GloVe

3.5.3 FastText

3.6 动态型词向量文本表示方法

3.6.1 ELMo

3.6.2 ELMo实现

第二部分 预训练语言模型

第4章 注意力机制和Transformer模型

4.1 注意力机制简介

4.1.1 什么是注意力机制

4.1.2 自注意力机制

4.1.3 多头注意力机制

4.2 Transformer模型

4.2.1 编码器部分

4.2.2 解码器部分

4.2.3 模型示例

第5章 BERT和变种BERT

5.1 BERT

5.1.1 BERT模型结构

5.1.2 BERT输入表示

5.1.3 BERT预训练

5.1.4 BERT微调训练

5.1.5 模型示例

5.2 变种BERT

5.2.1 ALBERT

5.2.2 XLNet

5.2.3 RoBERTa

5.2.4 ELECTRA

5.2.5 ERNIE

第6章 GPT和提示工程

6.1 GPT系列

6.1.1 GPT-1

6.1.2 GPT-2

6.1.3 GPT-3

6.1.4 InstructGPT和ChatGPT

6.1.5 GPT-4

6.2 Prompt

6.2.1 什么是提示工程

6.2.2 构建提示模板的方法

6.2.3 提示工程常用技术

6.2.4 提示词应用示例

第三部分 实践与应用

第7章 基于LangChain和ChatGLM-6B的知识库问答系统

7.1 核心组件

7.1.1 LangChain

7.1.2 ChatGLM-6B

7.2 构建流程

7.2.1 本地知识库构建

7.2.2 基于知识库的问答系统构建

7.3 趋势与挑战

7.3.1 发展趋势

7.3.2 面临的挑战

第8章 基于大型语言模型的自然语言处理任务应用研究

8.1 文本分类任务

8.1.1 任务描述

8.1.2 提示词设计

8.1.3 实现与测试

8.2 信息抽取任务

8.2.1 任务描述

8.2.2 提示词设计

8.2.3 实现与测试

8.3 文本匹配任务

8.3.1 任务描述

8.3.2 提示词设计

8.3.3 实现与测试

第9章 大模型训练实战

9.1 预训练阶段

9.1.1 数据准备

9.1.2 数据处理

9.1.3 词表扩充

9.1.4 模型预训练

9.1.5 模型效果评测

9.2 指令微调阶段

9.2.1 指令微调

9.2.2 数据集准备

9.2.3 指令微调模板

9.3 奖励模型

9.3.1 直接打分

9.3.2 排序打分

9.4 RLHF微调

9.4.1 流程介绍

9.4.2 具体实现

9.5 大模型评测

9.5.1 评测内容

9.5.2 评测方法

9.5.3 评测挑战

累计评论(0条)0个书友正在讨论这本书 发表评论

写感想,找到知心书友,还会获得奖励哦!

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部