Skip to content

Commit 0f95757

Browse files
committed
docs:修正专栏名称
1 parent 5b31465 commit 0f95757

16 files changed

+389
-171
lines changed

docs/.vuepress/config.js

Lines changed: 14 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@ module.exports = {
1717
"/": {
1818
lang: "zh-CN",
1919
title: "编程严选网",
20-
description: "Java、大数据、AI应用开发求职必备技能:计算机基础,大厂设计模式、DDD以及各大中台和业务系统设计真实案例...软件工程师的一站式终身学习网站!"
20+
description: "Java、大数据、AI应用开发求职必备技能:计算机基础,设计模式、DDD及各大中台和业务系统设计真实案例...软件开发的一站式终身学习网站!"
2121
}
2222
},
2323
head: [
@@ -640,15 +640,15 @@ module.exports = {
640640
},
641641
{
642642
text: 'LLM应用开发',
643-
link: '/md/AI/00-为什么要学习大模型'
643+
link: '/md/AI/AI 大模型企业应用实战'
644644
},
645645
{
646646
text: 'LangChain',
647-
link: '/md/AI/01-LangChain的Hello World项目'
647+
link: '/md/AI/00-introduction-to-langchain'
648648
},
649649
{
650650
text: 'RAG',
651-
link: '/md/AI/00-“消灭”LLM幻觉的利器 - RAG介绍'
651+
link: '/md/AI/00-rag-introduction-tool-to-eliminate-llm-hallucinations'
652652
},
653653
{
654654
text: 'Agent',
@@ -1380,12 +1380,13 @@ module.exports = {
13801380
collapsable: false,
13811381
sidebarDepth: 0,
13821382
children: [
1383+
"AI 大模型企业应用实战",
13831384
"00-为什么要学习大模型",
13841385
"01-大语言模型发展",
13851386
"02-domestic-and-international-llm-multi-model-strong-applications",
1386-
"03-为啥LLM还没能完全替代你?",
1387-
"04-产业拆解",
1388-
"05-应用级开发者 AI 时代破局点",
1387+
"03-large-language-model-flaws",
1388+
"04-ai-ecosystem-industry-analysis",
1389+
"05-ai-era-turning-point-for-app-developers",
13891390
"06-智能体项目案例",
13901391
]
13911392
},
@@ -1394,8 +1395,8 @@ module.exports = {
13941395
collapsable: false,
13951396
sidebarDepth: 0,
13961397
children: [
1397-
"00-初识LangChain",
1398-
"01-LangChain的Hello World项目",
1398+
"00-introduction-to-langchain",
1399+
"01-langchain-hello-world-project",
13991400
"02-LangChain实战:用prompts模板调教LLM的输入出",
14001401
"03-示例选择器",
14011402
"04-LLMs和Chat Models",
@@ -1408,10 +1409,11 @@ module.exports = {
14081409
collapsable: false,
14091410
sidebarDepth: 0,
14101411
children: [
1411-
"00-“消灭”LLM幻觉的利器 - RAG介绍",
1412+
"00-rag-introduction-tool-to-eliminate-llm-hallucinations",
14121413
"01-RAG应用框架和解析器",
14131414
"02-相似性检索的关键 - Embedding",
1414-
"03-RAG的核心 -结果召回和重排序",
1415+
"03-core-of-rag-result-retrieval-and-reordering",
1416+
"04-prompt-helping-llm-understand-knowledge",
14151417
]
14161418
},
14171419
{
@@ -1421,7 +1423,7 @@ module.exports = {
14211423
children: [
14221424
"01-what-are-agents",
14231425
"02-how-langchain-agents-are-implemented",
1424-
"zero-shot-learning-definition-examples-comparison",
1426+
"what-is-zero-shot-one-shot-few-shot-learning",
14251427
"04-how-to-add-memory-in-langchain-agents",
14261428
"05-how-to-enable-memory-sharing-between-agent-and-tool",
14271429
"06-how-to-use-langchain-built-in-tools",

docs/.vuepress/theme/components/Home.vue

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -4,11 +4,11 @@
44
:aria-labelledby="data.heroText !== null ? 'main-title' : null"
55
>
66
<header class="hero">
7-
<img
7+
<!-- <img
88
v-if="data.heroImage"
99
:src="$withBase(data.heroImage)"
1010
:alt="data.heroAlt || 'hero'"
11-
>
11+
> -->
1212

1313
<h1
1414
v-if="data.heroText !== null"

docs/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
---
22
home: true
3-
heroImage: /images/system/logo.jpg
3+
# heroImage: /images/system/logo.jpg
44
actionLinks:
55
- link: /md/other/guide-to-reading.md
66
text: 开始阅读 →
File renamed without changes.
File renamed without changes.
File renamed without changes.
File renamed without changes.
File renamed without changes.
Lines changed: 133 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,133 @@
1+
# 04-AI产业拆解
2+
3+
## 1 行业全景图
4+
5+
6+
7+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/05/b1d2fac151a37ffed573b572e7adb984.png)
8+
9+
## 2 结构拆解AI GC
10+
11+
生成式AI这个产业。分成上中下游三大块。
12+
13+
### 2.1 上游基础层
14+
15+
主要包括:
16+
17+
- 算力:包括AI芯片和云服务等,例如像英伟达、AMD以及华为等厂商提供的算力基础设施。大型模型基于Transformer架构,对算力的需求很大。
18+
- 数据:新时代的石油,分为基础数据服务、数据集和向量数据库。
19+
- 算法:算法基础包括TensorFlow、PyTorch等著名算法框架,以及百度、阿里、腾讯等公司提供的AI开发平台。
20+
21+
这是AI的基础,也是过去AI研究的重点。
22+
23+
### 2.2 中游-AIGC大模型层和工具层
24+
25+
大模型层分为:
26+
27+
- 通用模型:如OpenAI、腾讯的宏源、百度的1000万等,
28+
- 行业模型,根据具体行业或业务进行微调或二次训练。工具层包括AI Agent,其中包括像OutGPT这样的工具,以及模型平台和模型服务等
29+
30+
### 2.3 下游应用层
31+
32+
包括:
33+
34+
- 内容消费:在各种平台上生成内容,如抖音、快手等
35+
- 创作工具:提供基于AI的工具,如MID Generate
36+
- 企业服务:根据行业提供各种应用,如微软、亚马逊等
37+
38+
产业中,我们的位置是在AI GC工具层,即AI Agent层,作为中间件,承上启下。应用开发者的位置可能更多在中游和下游,发挥着重要作用。
39+
40+
## 3 名词解释
41+
42+
当然,可以按以下类别对这些概念进行细分解释:
43+
44+
### 3.1 模型与架构
45+
46+
1. **LLM** (大型语言模型):具有大量参数,能处理复杂语言任务的模型。
47+
2. **chatGPT**:一种用于生成对话的自然语言处理模型。
48+
3. **RWKV**:结合RNN和Transformer优点的神经网络架构。
49+
4. **CNN** (卷积神经网络):一种擅长处理图像数据的神经网络。
50+
5. **RNN** (循环神经网络):处理序列数据的神经网络。
51+
6. **stable diffusion**:一种用于生成图像的扩散模型。
52+
7. **DALL·E**:OpenAI开发的生成图像的模型。
53+
8. **RAG** (检索增强生成):结合检索和生成的模型。
54+
9. **AIGC** (人工智能生成内容):指利用AI生成文本、图像等内容的技术。
55+
56+
### 3.2 技术与方法
57+
58+
1. **多模态**:处理多种不同类型数据的模型。支持多种形态的模型,如文字、图像、音频等
59+
60+
2. **自监督学习**:利用数据本身结构进行训练的方法。
61+
62+
3. **预训练**:在大规模数据上训练模型,以获得初始参数。
63+
64+
4. **Few-shot**:使用少量样本进行训练和推理的能力。
65+
66+
5. **One-shot**:使用单个样本进行训练和推理的能力。
67+
68+
6. **Zero-shot**:无需样本也能进行推理的能力。
69+
70+
7. **Temperature**:控制生成模型输出多样性的参数。
71+
72+
8. **RLHF** (基于人类反馈的强化学习):通过人类反馈优化AI行为的方法。
73+
74+
9. **Fine-tunes**:在预训练模型基础上,进行特定任务的微调。
75+
76+
10. **向量搜索**:通过向量化表示进行高效搜索的方法。
77+
78+
11. **向量数据库**:存储和检索向量化数据的数据库。
79+
80+
12. **NLP** (自然语言处理):处理和生成自然语言的技术。
81+
82+
13. **CV** (计算机视觉):理解和生成图像和视频的技术。
83+
84+
14. **分析式AI**:侧重于分析和理解数据的AI。
85+
86+
15. **知识图谱**:以图结构表示知识及其关系的数据结构。
87+
88+
16. **过拟合**:模型过度拟合训练数据而无法泛化到新数据的现象。
89+
90+
17. **AI推理**:AI对数据进行推断和决策的过程。
91+
92+
18. **生成对抗网络**:通过两个网络的对抗来提高生成结果质量的方法。一种神经网络类型,用于生成真实的图像。(Generative Adversarial Networks, GANs)是一种由 Ian Goodfellow 等人在 2014 年提出的深度学习模型。GANs 通过两个网络(生成器和判别器)相互对抗的方式来提高生成结果的质量。这两个网络的具体角色和对抗机制如下:
93+
94+
1. **生成器(Generator)**:生成器接受一个随机噪声向量作为输入,并生成伪造的数据(例如图像)。它的目标是生成尽可能真实的数据,以便欺骗判别器。
95+
96+
2. **判别器(Discriminator)**:判别器接受真实数据和生成器生成的伪造数据,并试图区分两者。判别器的目标是尽可能准确地识别出哪些数据是真实的,哪些是伪造的。
97+
98+
在训练过程中,生成器和判别器会交替优化自己的参数:
99+
100+
- 生成器的目标是生成越来越真实的伪造数据,以使判别器难以区分真假数据。
101+
- 判别器的目标是提高其区分能力,准确判断数据的真假。
102+
103+
这种对抗机制形成了一个零和游戏,最终生成器会生成出非常逼真的数据,使得判别器难以辨别其真假。
104+
105+
综上,生成对抗网络是一种通过两个网络的对抗来提高生成结果质量的方法,也是一种用于生成真实图像的神经网络类型。
106+
107+
19. **元学习**:学习如何学习的方法,提高模型在新任务上的适应能力。
108+
109+
20. **并行训练**:同时训练多个模型或在多台设备上训练单个模型的方法。
110+
111+
### 3.3 平台与工具
112+
113+
1. **HuggingFace**:提供自然语言处理模型和工具的公司。
114+
2. **openAI**:开发和研究人工智能的机构。
115+
3. **Azure**:微软的云计算服务平台。
116+
4. **Heygan**:一种AI生成模型(可能是特定应用的名称)。
117+
5. **Copilot**:编程助手工具,帮助开发者编写代码。
118+
6. **midjourney**:AI驱动的艺术创作平台。
119+
7. **D-ID**:用于生成和处理数字身份的技术。
120+
121+
### 3.4 概念与其他
122+
123+
1. **具身智能**:具有物理存在并能与环境互动的人工智能。
124+
2. **AGI** (人工通用智能):具有通用认知能力的AI。
125+
3. **AI-Agents**:自主行动并完成任务的人工智能代理。使用AI代替人类执行任务的智能体
126+
4. **RPM**:每分钟旋转数(Rotations Per Minute),这里可能表示模型的训练速度。
127+
5. **知知识幻觉**:模型生成的看似合理但错误的知识。
128+
6. **咒语**:特定输入词汇或短语,用来触发模型生成特定输出。
129+
7. **哼唱**:AI生成的音乐或音频。
130+
8. **CDN** (内容分发网络):用于加速网络内容传输。
131+
9. **上下文**:模型生成内容时参考的前后文信息。
132+
10. **炼丹**:指模型训练和调优过程的比喻。
133+
11. **炼炉**:可能是某种训练或计算环境的比喻。
Lines changed: 43 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,43 @@
1+
# 04-prompt-helping-llm-understand-knowledge
2+
3+
## 1 Prompt
4+
5+
Prompt 可理解为指导AI模型生成特定类型、主题或格式内容的文本。
6+
7+
NLP中,Prompt 通常由一个问题或任务描述组成,如“给我写一篇有关RAG的文章”,这句话就是Prompt。
8+
9+
Prompt赋予LLM小样本甚至零样本学习的能力:
10+
11+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/60bb50c2370bb664ea272352fad4e56e.png)
12+
13+
LLM能力本质上说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果:
14+
15+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/8e94dc98956c285ea6e6ac9a57c95071.png)
16+
17+
无具体指令,模型只会续写。输出结果可能出人意料或远高于任务要求:
18+
19+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/995fc47ef64b133f33318ded8ba2dc1b.png)
20+
21+
告知模型去完善句子,因此输出结果和最初输入完全符合。Prompt Engineering就是探讨如何设计最佳Prompt,用于指导LLM高效完成某项任务。
22+
23+
## 2 Prompt的进阶技巧CoT
24+
25+
Chain of Thought,让模型输出更多的上下文与思考过程,提升模型输出下一个token的准确率。
26+
27+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/9c554a0a731db1e07f157385fd341391.png)
28+
29+
## 3 优化Prompt,提升模型推理能力和问答准确率
30+
31+
### 3.1 分布式引导提问
32+
33+
把解决问题的思路分成多步,引导模型分步执行
34+
35+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/24e6ddc90f71dc3959b4cabbc3ee8db2.png)
36+
37+
### 3.2 Prompt代码化
38+
39+
LLM通常都会有代码数据,prompt代码化进一步提升模型的推理能力。
40+
41+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/3ada22decb2aac3c0bab807d409debb7.png)
42+
43+
![](https://my-img.javaedge.com.cn/javaedge-blog/2024/06/da958107c238696309a1cc17f9ff564a.png)

0 commit comments

Comments
 (0)