暂无商品咨询信息 [发表商品咨询]
在人工智能时代,大模型正以前所未有的速度渗透到人们生活的方方面面。它们能写文案、编代码、聊天、生成图像……对于大多数没有技术背景的读者来说,这些“看得见”的能力背后,究竟隐藏怎样的底层逻辑与技术路径?本书正是为了解答这一问题而编写的。全书通过图解与通俗易懂的语言,帮助读者真正“看懂”AI模型的工作原理与发展历程。本书不堆砌公式,不假设读者有算法背景,引领读者穿越语言与智能的技术迷雾,构建对大模型的系统性理解。
本书面向的是希望理解、掌握并应用大语言模型(如ChatGPT、GPT-4、Claude、DeepSeek等)的人群,只要是希望能跟上AI时代的步伐,无论读者是否具备算法背景,本书都能提供有益的帮助。
贺夏龙,哈尔滨工业大学计算机专业毕业,中国计算机学会(CCF)高级会员,拥有10年以上互联网工作经验,负责过亿级DAU的推荐系统建设,具备从0到1构建推荐系统、用户画像系统、内容理解系统等能力,主攻用户画像、NLP算法方向。
自序
第1篇 认识NLP
第1章 什么是NLP:机器学舌,语出惊人 002
1.1 人类语言之谜:奇迹背后的复杂性 003
1.2 NLP的核心概念:让机器听得懂,讲得出 009
1.3 基础语言学:为机器打下语言的“地基” 017
第2章 NLP的发展历程与应用 029
2.1 技术的春秋:从规则到大模型的进化史 030
2.2 NLP的日常应用:机器如何“说人话” 034
2.3 科技与语言的奇妙相遇 049
第2篇 技术深度剖析
第3章 大模型时代之前的NLP技术变迁 052
3.1 初探NLP技术:规则驱动时代,机器“死记硬背” 053
3.2 统计方法的崛起:从“数词”到“算语境” 057
3.3 机器学习的引入:让机器学会“听话办事” 064
3.4 深度学习的变革:让机器“理解”语言 070
3.5 从“简单机械”到“智能语言” 078
第4章 编解码、注意力机制与Transformer的革命 080
4.1 编解码器简介:信息如何传递 081
4.2 注意力机制的灵感:如何精准捕捉关键信息 087
4.3 Transformer的突破:高效并行的架构设计 097
4.4 图解Transformer:结构与权重的可视化 102
4.5 Transformer的演进 115
第5章 从BERT到GPT、DeepSeek系列——大模型的崛起 117
5.1 BERT的核心理念:双向编码,左右开弓 118
5.2 GPT的进化之路:从萌新到“聊天王者” 127
5.3 ChatGPT的秘密:强化学习让AI更“懂你” 135
5.4 DeepSeek崛起:中国力量在大模型领域的贡献 150
第6章 如何训练大模型——从数据到超级计算机 164
6.1 大模型的“三驾马车”:数据、算力与算法 165
6.2 大模型训练的“全流程揭秘” 174
6.3 硬件与成本:训练大模型的平衡考量 181
6.4 借助平台,训练不必从零开始 186
第3篇 应用与未来
第7章 提示工程:写给大模型的魔法咒语 196
7.1 提示词是什么:让大模型听懂人话的“语言咒术” 197
7.2 如何写出好提示:构造有效提示词的黄金法则 202
7.3 提示工程的实战技法:从单轮提示到多轮协同 211
7.4 实用案例+评估方法:编写、调试、评估三步走 219
7.5 工具与挑战:从写提示到管提示的全流程 229
第8章 大模型API与Agent应用——让智能更贴近业务 240
8.1 大模型API的“开箱体验” 241
8.2 用案例打开“智能魔法”的新大门 247
8.3 低代码平台x大模型:双剑合璧的时代来了 257
8.4 Agent平台:从大模型到智能体的新玩法 263
第9章 大模型的局限与挑战——AI世界的“不完美”清单 275
9.1 大模型的短板:看似万能,其实也有软肋 276
9.2 伦理与社会问题:AI的“灰色地带” 283
9.3 面向未来:模型的强化与趋势 288
后记 299
| 基本信息 | |
|---|---|
| 出版社 | 中国水利水电出版社 |
| ISBN | 9787522639734 |
| 条码 | 9787522639734 |
| 编者 | 贺夏龙 著 著 |
| 译者 | -- |
| 出版年月 | 2026-02-01 00:00:00.0 |
| 开本 | 16开 |
| 装帧 | 平装 |
| 页数 | 298 |
| 字数 | 344000 |
| 版次 | 1 |
| 印次 | 1 |
| 纸张 | |
暂无商品评论信息 [发表商品评论]
暂无商品咨询信息 [发表商品咨询]