热门搜索: 中考 高考 考试 开卷17
服务电话 024-23945002/96192
 

大模型核心原理与应用极简入门

编号:
wx1204302277
销售价:
¥67.83
(市场价: ¥79.80)
赠送积分:
68
数量:
   
商品介绍

在人工智能时代,大模型正以前所未有的速度渗透到人们生活的方方面面。它们能写文案、编代码、聊天、生成图像……对于大多数没有技术背景的读者来说,这些“看得见”的能力背后,究竟隐藏怎样的底层逻辑与技术路径?本书正是为了解答这一问题而编写的。全书通过图解与通俗易懂的语言,帮助读者真正“看懂”AI模型的工作原理与发展历程。本书不堆砌公式,不假设读者有算法背景,引领读者穿越语言与智能的技术迷雾,构建对大模型的系统性理解。

本书面向的是希望理解、掌握并应用大语言模型(如ChatGPT、GPT-4、Claude、DeepSeek等)的人群,只要是希望能跟上AI时代的步伐,无论读者是否具备算法背景,本书都能提供有益的帮助。

贺夏龙,哈尔滨工业大学计算机专业毕业,中国计算机学会(CCF)高级会员,拥有10年以上互联网工作经验,负责过亿级DAU的推荐系统建设,具备从0到1构建推荐系统、用户画像系统、内容理解系统等能力,主攻用户画像、NLP算法方向。

自序



第1篇 认识NLP

第1章 什么是NLP:机器学舌,语出惊人 002

1.1 人类语言之谜:奇迹背后的复杂性 003

1.2 NLP的核心概念:让机器听得懂,讲得出 009

1.3 基础语言学:为机器打下语言的“地基” 017

第2章 NLP的发展历程与应用 029

2.1 技术的春秋:从规则到大模型的进化史 030

2.2 NLP的日常应用:机器如何“说人话” 034

2.3 科技与语言的奇妙相遇 049



第2篇 技术深度剖析

第3章 大模型时代之前的NLP技术变迁 052

3.1 初探NLP技术:规则驱动时代,机器“死记硬背” 053

3.2 统计方法的崛起:从“数词”到“算语境” 057

3.3 机器学习的引入:让机器学会“听话办事” 064

3.4 深度学习的变革:让机器“理解”语言 070

3.5 从“简单机械”到“智能语言” 078

第4章 编解码、注意力机制与Transformer的革命 080

4.1 编解码器简介:信息如何传递 081

4.2 注意力机制的灵感:如何精准捕捉关键信息 087

4.3 Transformer的突破:高效并行的架构设计 097

4.4 图解Transformer:结构与权重的可视化 102

4.5 Transformer的演进 115

第5章 从BERT到GPT、DeepSeek系列——大模型的崛起 117

5.1 BERT的核心理念:双向编码,左右开弓 118

5.2 GPT的进化之路:从萌新到“聊天王者” 127

5.3 ChatGPT的秘密:强化学习让AI更“懂你” 135

5.4 DeepSeek崛起:中国力量在大模型领域的贡献 150

第6章 如何训练大模型——从数据到超级计算机 164

6.1 大模型的“三驾马车”:数据、算力与算法 165

6.2 大模型训练的“全流程揭秘” 174

6.3 硬件与成本:训练大模型的平衡考量 181

6.4 借助平台,训练不必从零开始 186



第3篇 应用与未来

第7章 提示工程:写给大模型的魔法咒语 196

7.1 提示词是什么:让大模型听懂人话的“语言咒术” 197

7.2 如何写出好提示:构造有效提示词的黄金法则 202

7.3 提示工程的实战技法:从单轮提示到多轮协同 211

7.4 实用案例+评估方法:编写、调试、评估三步走 219

7.5 工具与挑战:从写提示到管提示的全流程 229

第8章 大模型API与Agent应用——让智能更贴近业务 240

8.1 大模型API的“开箱体验” 241

8.2 用案例打开“智能魔法”的新大门 247

8.3 低代码平台x大模型:双剑合璧的时代来了 257

8.4 Agent平台:从大模型到智能体的新玩法 263

第9章 大模型的局限与挑战——AI世界的“不完美”清单 275

9.1 大模型的短板:看似万能,其实也有软肋 276

9.2 伦理与社会问题:AI的“灰色地带” 283

9.3 面向未来:模型的强化与趋势 288



后记 299

商品参数
基本信息
出版社 中国水利水电出版社
ISBN 9787522639734
条码 9787522639734
编者 贺夏龙 著 著
译者 --
出版年月 2026-02-01 00:00:00.0
开本 16开
装帧 平装
页数 298
字数 344000
版次 1
印次 1
纸张
商品评论

暂无商品评论信息 [发表商品评论]

商品咨询

暂无商品咨询信息 [发表商品咨询]