AIGC随笔
Last Update:
复习内容:生成对抗网络(GAN)、基于变换器(Transformer)架构、搭建GPT、BERT、变分自编码器(Variational Autoencoder, VAE)、
成为AIGC(人工智能生成内容)产品经理的学习路径通常包括以下几个方面:
基础知识:
- 产品管理基础:学习产品生命周期、市场调研、用户需求分析、MVP(最小可行产品)开发等。
- AI与机器学习基础:了解机器学习、深度学习、自然语言处理(NLP)等基础概念,可以通过在线课程或书籍学习。
行业知识:
- AIGC的应用领域:研究AIGC在内容创作、游戏、广告、社交媒体等领域的应用案例。
- 技术趋势:关注AI技术的最新发展,例如生成对抗网络(GAN)、变换器(Transformer)模型等。
技能提升:
- 数据分析:掌握基本的数据分析技能,能够使用工具如Excel、SQL、Python等进行数据处理和分析。
- 用户体验设计:了解用户体验(UX)设计的原则,能够与设计团队合作,创造用户友好的产品。
项目经验:
- 实践项目:参与AIGC相关的项目,实习或个人项目都是很好的选择,可以帮助你理解产品开发的实际流程。
- 跨团队合作:与技术团队、市场团队、用户研究团队等进行合作,了解不同角色在产品开发中的作用。
社交与网络:
- 行业交流:加入相关的行业组织或在线社区,参加会议、研讨会,与行业内的专家和同行交流,获取最新信息。
持续学习:
- 关注资源:定期阅读行业博客、白皮书、研究论文,跟踪AIGC的最新动态和趋势。
下面是对生成对抗网络(GAN)和变换器(Transformer)模型的简要介绍:
生成对抗网络(GAN)
基本概念:
- GAN是一种深度学习模型,由两部分组成:生成器(Generator)和判别器(Discriminator)。
- 生成器负责生成新的数据样本,而判别器则判断样本是真实的还是生成的。
工作原理:
- 生成器接受随机噪声(通常是一个随机向量)作为输入,并生成数据(如图像)。
- 判别器接受真实数据和生成的数据,输出一个概率值,表示输入数据是来自真实分布的可能性。
- 训练过程中,生成器和判别器相互对抗:生成器希望生成能欺骗判别器的数据,而判别器则希望能准确区分真实数据和生成数据。
- 训练目标是使生成器生成的数据越来越真实,同时提高判别器的判断能力。
应用:
- GAN在图像生成、图像修复、超分辨率成像等领域有广泛应用。
变换器(Transformer)
基本概念:
- Transformer是一种用于处理序列数据的模型,最初用于自然语言处理(NLP),但也可以应用于其他领域,如计算机视觉。
- 其核心特点是自注意力机制(Self-Attention),能够捕捉输入序列中元素之间的关系。
工作原理:
- Transformer由编码器(Encoder)和解码器(Decoder)两部分组成。编码器将输入序列转换为上下文表示,而解码器根据上下文生成输出序列。
- 自注意力机制允许模型在处理序列时,考虑到序列中每个词与其他词的关系,从而提高了长距离依赖的建模能力。
- 通过多层堆叠的编码器和解码器,Transformer能够捕捉复杂的模式。
应用:
- Transformer在机器翻译、文本生成、问答系统等NLP任务中表现出色。此外,经过调整后,Transformer也在图像生成和其他任务中取得了良好效果(如Vision Transformer)。
这两种模型都是当前深度学习领域的重要技术,各自具有独特的优势和应用场景。希望这些介绍对你有所帮助!如果你有更具体的问题或需要深入的解释,请随时问我。
用简单的语言来解释大语言模型、神经网络和数学模型,并理清它们之间的关系和区别。
1. 数学模型
- 定义:数学模型是使用数学语言来描述现实世界中某种现象或系统的工具。它可以是方程、公式或不等式。
- 例子:用方程描述物体的运动、经济学中的供需模型等。
- 作用:帮助理解、预测和分析现象。
2. 神经网络
- 定义:神经网络是一种数学模型,受人类大脑神经元结构启发,旨在通过层次化的方式处理和学习数据。
- 结构:由输入层、隐藏层和输出层组成,每层包含多个“神经元”,这些神经元之间通过连接权重相互作用。
- 例子:图像识别、语音识别等。
- 作用:通过训练来学习数据中的模式,从而进行预测或分类。
3. 大语言模型(LLM)
- 定义:大语言模型是特定类型的神经网络,专门用于处理和生成自然语言文本。它通常具有非常大的规模,包含亿万到千亿个参数。
- 结构:基于变换器(Transformer)架构,能够理解和生成语言的上下文。
- 例子:GPT、BERT等。
- 作用:能够进行文本生成、翻译、问答等多种语言任务。
它们之间的关系
- 数学模型是最广泛的概念,可以包括各种形式的模型(如方程、函数等),神经网络就是其中的一种。
- 神经网络是特定类型的数学模型,利用层次结构和非线性激活函数来学习复杂的数据模式。
- 大语言模型是神经网络中的一个具体应用,通常基于变换器架构,专注于处理和生成自然语言。
总结
- 数学模型 > 神经网络 > 大语言模型
数学模型是广义的,神经网络是特定的类型,而大语言模型是神经网络的一个具体应用。这些模型在数据处理和预测中逐层深入,逐步实现更复杂的功能。
机器学习是人工智能的一个分支,旨在使计算机能够通过经验自动学习和改进。下面是机器学习的基本原理和主要技术能力的概述:
机器学习原理
数据驱动:
- 机器学习依赖大量的数据,通过分析数据中的模式和结构进行学习。数据通常分为训练集、验证集和测试集。
模型:
- 机器学习使用数学模型来表示输入与输出之间的关系。模型通过学习数据中的特征来进行预测或分类。
训练过程:
- 监督学习:模型在有标签的数据上进行训练,目标是学习输入与输出之间的映射关系。例如,给定图像及其对应标签,模型学习识别图像内容。
- 无监督学习:模型在没有标签的数据上进行训练,目标是发现数据中的潜在结构或模式,例如聚类和降维。
- 强化学习:通过与环境交互学习,模型根据获得的奖励或惩罚调整行为,目标是最大化长期奖励。
损失函数:
- 在训练过程中,模型通过损失函数评估预测值与真实值之间的差距,优化算法(如梯度下降)用于调整模型参数以最小化损失。
评估和验证:
- 使用不同的数据集(如测试集)评估模型性能,常见指标包括准确率、精确率、召回率和F1-score等。
机器学习的技术能力
分类:
- 将输入数据分为不同类别,如垃圾邮件检测、图像分类等。
回归:
- 预测连续数值,如房价预测、销售额预测等。
聚类:
- 无监督学习方法,将数据分组,使得同一组内的样本相似度较高,而不同组之间的相似度较低,如客户细分。
降维:
- 减少数据的维度,保留最重要的信息,用于数据可视化和噪声去除,如主成分分析(PCA)。
生成模型:
- 生成新数据样本,如生成对抗网络(GAN)和变分自编码器(VAE),用于图像、文本等生成任务。
序列建模:
- 处理时间序列数据或序列数据,如自然语言处理中的文本生成和翻译,常用的模型有RNN、LSTM和Transformer。
应用场景
机器学习在各个领域有广泛应用,包括:
- 金融:风险评估、欺诈检测、交易算法。
- 医疗:疾病预测、医学图像分析。
- 营销:推荐系统、用户行为分析。
- 自动驾驶:环境感知、路径规划。
通过理解机器学习的原理和技术能力,可以更好地应用这些技术解决实际问题。
变分自编码器(Variational Autoencoder, VAE)是一种生成模型,结合了自编码器和变分推断的思想。它能够从潜在空间中生成新的样本,同时学习数据的分布。以下是VAE的详细介绍:
1. 基本概念
自编码器:自编码器是一种无监督学习模型,由编码器和解码器两部分组成。编码器将输入数据压缩为潜在空间的表示,解码器则从潜在表示重建输入数据。
变分推断:变分推断是一种通过优化近似推断分布来进行贝叶斯推断的方法。VAE利用这种思想来学习潜在变量的分布。
2. VAE的结构
编码器(Inference Network):
- 将输入数据 ( x ) 映射到潜在空间中的分布。具体来说,编码器输出潜在变量 ( z ) 的均值 ( \mu ) 和方差 ( \sigma^2 ),表示为 ( q(z|x) )。
潜在空间:
- VAE假设潜在变量 ( z ) 服从某个分布,通常选择标准正态分布 ( N(0, I) ) 作为先验分布 ( p(z) )。
解码器(Generative Network):
- 从潜在变量 ( z ) 中重建输入数据,表示为 ( p(x|z) )。
3. 训练过程
VAE的目标是最大化边际似然 ( p(x) ),即输入数据的生成概率。由于直接计算 ( p(x) ) 是困难的,VAE通过变分推断使用以下目标函数进行优化:
- 变分下界(ELBO):
[
\mathcal{L}(x; \theta, \phi) = \mathbb{E}{q(z|x)}[\log p(x|z)] - D{KL}(q(z|x) | p(z))
]
- 第一项是重构损失,表示给定潜在变量 ( z ) 重建输入数据的能力。
- 第二项是Kullback-Leibler散度(KL散度),用于衡量近似后验 ( q(z|x) ) 与先验分布 ( p(z) ) 之间的差异。
4. 优化算法
使用反向传播和随机梯度下降(SGD)等优化算法来优化损失函数,更新编码器和解码器的参数。
5. 应用场景
- 生成任务:VAE可以生成与训练数据相似的新样本,如图像、文本等。
- 数据缺失填充:通过学习数据的潜在结构,可以填补缺失数据。
- 异常检测:通过重构损失,可以检测与训练数据分布显著不同的样本。
6. 优势与不足
优势:
- VAE能够学习数据的潜在分布,并从中生成新样本。
- 它在处理高维数据(如图像)时表现良好。
不足:
- 生成的样本可能较模糊,特别是在复杂数据上。
- VAE可能会遇到“模糊性”问题,导致生成的样本缺乏细节。
总结
变分自编码器(VAE)是一种强大的生成模型,能够学习数据的潜在结构并生成新的数据样本。通过结合自编码器的特性与变分推断的框架,VAE在多个领域的应用中展现了其潜力。
神经网络和机器学习之间的关系密切,神经网络是机器学习的一种重要方法。下面详细阐述它们的关系以及如何互相配合和迭代。
神经网络与机器学习的关系
分类关系:
- 机器学习是一个广泛的领域,包含了多种算法和模型,旨在让计算机从数据中学习并进行预测或决策。它包括监督学习、无监督学习、强化学习等。
- 神经网络是机器学习的一种具体实现,属于深度学习的范畴。它模拟人脑神经元的结构和功能,能够处理复杂的数据模式和特征。
模型复杂性:
- 神经网络特别适合处理高维数据(如图像、文本和声音),能够学习复杂的非线性关系。相较于传统的机器学习算法(如线性回归、决策树),神经网络具有更强的表达能力。
如何互相配合和迭代
模型选择:
- 在机器学习的任务中,可以根据数据的特性和任务的复杂性选择使用神经网络或其他算法。例如,对于简单的分类任务,可能使用逻辑回归;而对于图像识别或自然语言处理等复杂任务,则更倾向于使用神经网络。
特征工程:
- 在传统机器学习中,特征工程是一个关键步骤,通过手动选择和构造特征来提高模型性能。神经网络通过其层次结构能够自动提取特征,减少了对手动特征工程的依赖。
- 但是,结合这两者的力量,使用机器学习的方法对数据进行初步处理和特征提取,再将结果输入神经网络,可以提升性能。
集成学习:
- 在某些场景中,可以将神经网络与传统机器学习模型结合,形成集成学习。例如,使用多个模型(如决策树、支持向量机和神经网络)的预测结果进行加权平均,从而提高整体性能。
迭代优化:
- 机器学习和神经网络的迭代优化过程通常是交替进行的。可以通过实验不同的模型结构、超参数调整和训练策略,不断迭代,寻找最佳解决方案。
- 在此过程中,可以结合传统机器学习方法(如交叉验证、网格搜索)来优化神经网络的超参数,提高模型的泛化能力。
反馈机制:
- 在生产环境中,机器学习模型(包括神经网络)需要不断更新。通过收集新数据和模型性能反馈,可以迭代优化模型,确保其适应新的数据分布和任务需求。
总结
神经网络是机器学习的一个重要组成部分,二者相辅相成。在实际应用中,可以根据任务需求选择合适的方法,并通过特征工程、集成学习和迭代优化等策略,将它们结合起来,提升模型的性能和适应性。通过不断的反馈和优化,可以实现更高效的学习过程。
还有许多其他重要的模型值得关注和学习。以下是一些当前热门的深度学习模型:
卷积神经网络(CNN):CNN在图像分类、目标检测、人脸识别等领域有着广泛的应用。它通过卷积核进行局部特征的学习,并通过多层卷积和池化操作提取抽象特征。
循环神经网络(RNN):RNN适用于处理序列数据,如文本、语音和时间序列等。它的循环结构允许对序列中的每个元素进行逐一处理,捕捉时间依赖关系。
长短期记忆网络(LSTM):LSTM是RNN的一种改进形式,通过引入记忆单元来解决梯度消失问题,提高了长期依赖学习能力5。
变分自编码器(VAEs):VAEs在生成逼真的数据分布方面表现出色,通过对输入数据进行概率建模来进行数据生成。
物理信息机器学习(Physics-Informed Machine Learning):结合物理先验和数据,提高了机器学习模型的泛化能力和可解释性,适用于科学和工程领域1。
扩散模型(Diffusion Model):基于物理信息的深度生成模型,能够在各种任务中生成高质量的样本。
自回归模型:如GPT-3,在文本生成任务中展示了强大的能力
一、什么是 BERT?
BERT 利用基于 Transformer 的神经网络来理解和生成类似人类的语言。BERT 采用仅编码器的架构。在原始 Transformer 架构中,既有编码器模块,也有解码器模块。在 BERT 中使用仅编码器架构的决定表明主要强调理解输入序列而不是生成输出序列。
1、BERT 的双向方法
传统语言模型按顺序处理文本,从左到右或从右到左。这种方法将模型的感知限制在目标词之前的直接上下文中。BERT 使用双向方法(B 就是 Bidirectional(双向)),同时考虑句子中单词的左右上下文,而不是按顺序分析文本,BERT 同时查看句子中的所有单词。
2、预训练和微调
BERT 模型经历了两个步骤:
对大量未标记的文本进行预训练,以学习上下文嵌入。
对标记数据进行微调,以执行特定的 NLP 任务。
二、BERT 的工作原理
BERT 旨在生成语言模型,因此仅使用编码器机制。将 token 序列输入到 Transformer 编码器。这些 token 首先嵌入到向量中,然后在神经网络中处理。输出是一系列向量,每个向量对应一个输入 token,提供上下文化表示。
在训练语言模型时,定义预测目标是一项挑战。许多模型会预测序列中的下一个单词,这是一种定向方法,可能会限制上下文学习。BERT 通过两种创新的训练策略解决了这一挑战:
掩码语言模型 (Masked Language Model,MLM)
预测下一句 (Next Sentence Prediction,NSP)
简单来说,
掩码单词:在 BERT 从句子中学习之前,它会隐藏一些单词(约 15%)并用特殊符号替换它们,例如 [MASK]。
猜测隐藏的单词:BERT 的工作是通过查看周围的单词来找出这些隐藏的单词是什么。这就像一场猜测某些单词缺失的游戏,BERT 会尝试填补空白。
BERT 如何学习:
BERT 在其学习系统之上添加了一个特殊层来做出这些猜测。然后,它会检查其猜测与实际隐藏的单词有多接近
它通过将猜测转换为概率来实现这一点,说“我认为这个单词是 X,我对此非常确定。”
4 特别关注隐藏的单词
BERT 在训练期间的主要重点是正确获取这些隐藏的单词。它不太关心预测未隐藏的单词。
这是因为真正的挑战是找出缺失的部分,这种策略有助于 BERT 真正理解单词的含义和上下文。
从技术角度来说,
BERT 在编码器的输出之上添加了一个分类层。这一层对于预测掩码词至关重要。
分类层的输出向量与嵌入矩阵相乘,将它们转换为词汇维度。此步骤有助于将预测的表示与词汇空间对齐。
使用 SoftMax 激活函数计算词汇表中每个单词的概率。此步骤为每个掩码位置生成整个词汇表的概率分布。
训练期间使用的损失函数仅考虑掩码值的预测。该模型因其预测与掩码词的实际值之间的偏差而受到惩罚。
该模型的收敛速度比定向模型慢。这是因为在训练期间,BERT 只关心预测掩码值,而忽略非掩码词的预测。通过这种策略实现的增强的环境意识弥补了较慢的收敛速度。
(Softmax函数 是一种常用于多类分类问题的激活函数。它将输入的实向量转换为概率分布,使得每个元素的值在0到1之间,并且所有元素的总和为11。
主要作用
概率分布:Softmax函数将输入的实向量转换为概率分布,这意味着输出的每个值都可以解释为某个类别的概率。这在多类分类任务中尤为重要,因为它可以帮助模型确定每个类别的可能性1。
归一化:Softmax函数对输入进行归一化处理,使得输出的总和为1。这有助于标准化每个神经元的输出,确保输出值在0到1之间2。
多分类任务:Softmax函数特别适用于多分类任务的输出层。它可以处理超过两个类标签的情况,并将其转换为概率分布,从而帮助模型进行分类决策2。
公式
Softmax函数的公式如下: [ \text{Softmax}(x_i) = \frac{e^{x_i}}{\sum_{j} e^{x_j}} ] 其中,( x_i ) 是输入向量中的第 ( i ) 个元素,( e ) 是自然对数的底1。)
2. NSP
BERT 预测第二句是否与第一句相连。这是通过使用分类层将 [CLS] 标记的输出转换为 2×1 形状的向量,然后使用 SoftMax 计算第二句是否跟在第一句后面的概率来实现的。
BERT 预测第二句是否与第一句相连。这是通过使用分类层将 [CLS] 标记的输出转换为 2×1 形状的向量,然后使用 SoftMax 计算第二句是否跟在第一句后面的概率来实现的。
在训练过程中,BERT 学习理解句子对之间的关系,预测第二句是否跟在原始文档中的第一句后面。
50% 的输入对将第二句作为原始文档中的后续句子,而另外 50% 的输入对具有随机选择的句子。
为了帮助模型区分连接和断开的句子对。在进入模型之前对输入进行处理:
在第一句的开头插入 [CLS] token,并在每个句子的末尾添加 [SEP] 标记。
在每个 token 中添加表示句子 A 或句子 B 的句子嵌入。
位置嵌入指示每个 token 在序列中的位置。
BERT 预测第二句是否与第一句相连。这是通过使用分类层将 [CLS] token 的输出转换为 2×1 形状的向量来实现的,然后使用 SoftMax 计算第二句是否跟在第一句后面的概率。
为什么要一起训练 MLM 和 NSP?
在 BERT 模型的训练过程中,MLM 和 NSP 一起训练。该模型旨在最小化 MLM 和 NSP 的组合损失函数,从而形成一个强大的语言模型,增强了理解句子内上下文和句子间关系的能力。
推荐系统构建:
构建实时化推荐生态
构建大型实时AI推荐引擎,本质是推动数据、算法、工程三大体系的深度协同与持续进化:
- 数据层:流式处理能力是基础,目标是将原始数据实时转化为驱动推荐的高价值特征(DataasFeatures)。
- 算法层:在线学习与离线批量训练、强化学习结合,赋予模型持续自优化能力,紧贴业务动态。
- 工程层:熔断、弹性伸缩、混合部署等架构设计,在追求极致实时性的同时,构筑坚如磐石的系统稳定性。
用于评估模型的性能:
GLUE:
MultiNLI:
nyu-mll/multi_nli ·Hugging Face 的数据集
SQuAD:
深度解析NLP问答系统:Deepset SQUAD与SQuAD v2评估实践-百度开发者中心
一、AI时代产品经理面临的四大核心挑战1. 从技术确定性到不确定性的转变
传统产品开发遵循明确的输入输出框架,而AI产品特别是大模型应用具有显著的不确定性特征。一个提示词可能产生完全不同的输出结果,这对产品设计提出了全新要求。产品经理需要建立”概率思维”,能够评估和管理这种不确定性,将其控制在用户可接受的预期范围内。
跨领域协作复杂度激增
AI产品的开发涉及数据科学、算法工程、用户体验设计、伦理法律等多个专业领域。例如,开发一个智能客服系统需要协调NLP工程师、对话设计师、合规专家等不同背景的团队成员。产品经理必须具备跨界沟通能力,能够理解各领域的专业语言,并在技术可行性与用户体验之间找到平衡点。- 产品边界与功能定义的重新思考
AI技术特别是生成式AI的能力边界不断扩展,使得传统产品功能划分方式不再适用。产品经理需要从”客户要完成的工作”(Jobs to be done)角度重新定义产品,而非局限于特定功能。例如,Notion AI不仅优化了文档编辑体验,更重新定义了知识工作流程。- 开发流程与评估体系的革新
传统产品开发中的”设计-开发-测试”线性流程在AI时代面临挑战。产品经理需要掌握快速原型开发能力,通过Prompt工程快速验证AI能力边界,并建立全新的评估指标体系。例如,对生成式AI产品,除了传统可用性指标外,还需评估输出质量稳定性、多样性等新维度。
二、AI产品经理的五大转型策略1. 技术理解与商业洞察的平衡
AI产品经理不需要成为算法专家,但必须掌握技术基本原理和能力边界。关键学习内容包括:
大模型的核心能力与局限
常见AI技术栈(如LangChain等工具链)
数据需求与训练流程
伦理风险与合规要求
同时保持对行业趋势的敏锐洞察,定期分析竞品技术路线和商业模式。 - 采用敏捷开发与持续迭代方法论
AI产品开发应遵循”小步快跑”原则:
快速推出最小可行产品(MVP)验证核心价值
建立用户反馈闭环系统
基于数据持续优化模型和体验
典型案例:ChatGPT从3.5到4.0版本的迭代过程中,持续优化了响应质量、多模态能力和定制化水平。 - 构建跨学科协作框架
建立高效的跨团队协作机制:
与技术团队:共同定义评估指标和测试用例
与设计团队:共创AI原生交互范式
与法务团队:提前规划合规路径
与用户社区:建立共创生态
推荐工具:使用Notion或类似平台搭建跨领域知识库,确保信息透明共享。 - 用户研究与体验设计的范式升级
AI产品需要全新的用户研究方法:
开展”AI可用性测试”,观察用户与系统的自然互动
设计”容错体验”,优雅处理AI的不确定性输出
开发”协同创作”模式,平衡自动化与用户控制权
优秀案例:Midjourney通过Discord社区实现了创作者间的相互学习和激发,形成了独特的共创文化。 - 建立负责任AI的产品框架
将伦理考量融入产品全生命周期:
公平性:监控算法偏见
透明性:提供解释机制
隐私保护:实施数据治理
社会影响:评估长期后果
实用工具:微软的负责任AI清单提供了系统化的检查框架。
三、未来展望:AI与产品经理的共生进化
到2026年,Gartner预测75%的企业将把AI纳入产品开发流程。产品经理的角色将向三个方向分化:
AI策略产品经理:制定企业级AI产品路线图
AI体验设计师:打造人机协同的最佳体验
AI伦理架构师:确保技术应用的负责任性
成功的关键在于保持”终身学习”心态,将AI视为增强能力的伙伴而非威胁。产品经理需要发展机器无法替代的人类优势:同理心、创造力、战略思维和伦理判断。
行动指南:从今天开始的转型步骤
技能评估:用1周时间完成AI能力自测,识别知识缺口
实践学习:选择1个AI工具(如ChatGPT API)进行深度探索
项目实践:在现有工作中引入1个AI增强的工作流程
社群连接:加入至少1个AI产品经理专业社区
思维转变:每月进行1次”AI如何改变我的产品领域”的专题思考
- 开发流程与评估体系的革新
- 产品边界与功能定义的重新思考
开源框架:
EvalScope自动化评测
三大项功能:自动化评测、可视化报告、归因分析
还有AGI-Eval评测社区、openCompass司南、Chatbot Arena| openLM.ai,FlagEval天秤评测、C-Eval、GAIA基准测试
面试问答:
Q3. 目前AI Agent产品有哪几种设计模式?分别有什么特点?
A3:吴恩达教授在红杉资本AI Ascent的分享中提到反思(reflection)、工具使用(Tool use)、规划(Planning)、多智能体协作(Multiagent collaboration)四种AI Agent设计模式。
- 反思(Reflection):指的是AI代理在执行任务时能够自我评估和调整其行为的能力。通过反思,AI可以学习从经验中获得教训,从而在未来的决策中做出更好的选择。
- 工具使用(Tool Use):这涉及到AI代理能够识别、选择和使用不同的工具或资源来完成特定的任务。例如,一个机器人可能会使用不同的工具来修理设备或完成建筑任务。
- 规划(Planning):这是指AI代理能够制定和执行长期或复杂的计划。规划能力使AI能够预见未来的需求和挑战,并提前做出相应的安排。
- 多智能体协作(Multiagent Collaboration):这涉及到多个AI代理能够协同工作,共同完成更复杂的任务。这种协作可以提高效率和效果,尤其是在需要不同技能和资源的情况下。
Q4. AI Agent平台,一般有哪些功能模块?
A4:基于LLM的chatbot0-1搭建,包括:【智能体创建】、【智能体配置】、【智能体调试】、【智能体发布】功能;以及【智能体商城】功能,支持用户从平台中挑选其感兴趣的智能体进行应用和体验;以及多智能体协作功能。
关于【智能体配置】功能,包括智能体『基本信息配置』(名称、头像、简介、LLM模型选择与参数配置(工作技能和工作内容&流程描述、温度值等)、『智能体复杂配置』(工作流配置、插件配置、知识库配置等);
- 在【LLM】选择和配置上,平台一般均会提供【自家LLM】和【三方LLM】,供用户挑选;在LLM配置上,一般支持配置LLM的温度值、系统提示词、TOPK等参数;
- 在【工作流】配置功能中,Agent平台,基本上均实现了“画布式”可视化配置方式,用户可通过拖拽节点组件{LLM、插件、数据库、会话、变量等}来完成工作流配置。
- 在【插件】选择上,平台支持用户从平台整合好的【预置插件商城】中选择,也支持用户【自定义插件】。
- 在【知识库】配置功能中,一般的Agent平台,均支持导入外部文档资料(如pdf、excel、word等),功能丰富一些的Agent平台不仅支持离线导入文档,还支持“连接数据库”(如语聚AI,支持连接飞书文档,需提前定义好API相关配置)
三、国内外AI Agent产品盘点

3.2 21款 国内AI Agent构建平台盘点

AI产品经理总结大纲:
AI产品经理的竞品分析:
传统的产品调研:功能+表表格,总结差别。产品设计意图,实践方式
AI的产品调研:
1.前台看体验和设计意图
不是看产品有没有这个功能,而是看通过AI怎么实现。
这个功能为什么重要。
例如:NotionAI和Jasper,都能生成文章,差别在NotionAI是无感启动,本质靠的是Prompt上下文拼接能力+多轮的语境记忆。
而Jasper,主打营销场景。预设品牌调性和内容风格。选择模版,自动给出结构。底层是靠场景的微调+Prompt模板库
调研方法:需要上手操作记录路径。分析触发机制。甚至观察loading时长。
底层是分析出到底解决了那部分用户的什么问题。
具体路径怎么设计,prompt怎么组织,反馈怎么迭代
2.中台看模型
模型、数据是差距点
调查看是调用OpenAI接口还是自己训练的模型。有没有加RAG?有没有LoRA做微调?有没有做数据闭环?
可以抓包看看API调用的参数,是不是带温度的数据
※推理方法:测同一个Prompt,在多个产品上的效果,观察差多少,就可以反推出背后用的模型的类型
有些产品表面是智能问答,但推理发现不是大模型干的,而是传统的检索的方式
就可以分析到竞品的模型选型,推理的策略,数据结构,可控能力
3.底层看商业
例如:AI写作工具。
分析它的盈利模式,赚钱的逻辑。是靠卖Saas订阅?还是API调用?还是Toc做效率工具?还是ToB做内容生产?
根据盈利方式的不一样,后续的推理链路就不同。
例如:比如OpenAI是API型产品,成本敏感,必须依靠提示词优化+模型压缩,去降推成本
如Jasper是Saas+模板场景型的产品。关键点就是转化率+续费
要在垂直场景体验足够好
AI产品经理的PRD
1.了解PRD规范
2.把问题定义清楚
3.有没有能力让算法落地成产品
一、项目背景:
作用:定义问题。
用一段话说明我们现在在解决什么具体的业务问题。之前我们靠什么方式解决,为什么现在值得用AI试
如:
一.1.现在要解决什么问题:
当前客服系统主要依赖于规则引擎,覆盖率是百分之多少,剩余百分之多少依赖人工。
一.2.之前靠什么方式解决/痛点:
在哪些场景之下,比如说退款改签售后,这些高频的复杂场景之下,规则系统的问题是什么。维护成本高,响应不及时,这会导致用户的满意度下降
一.3.为什么现在值得AI做?:
所以为了提升这些指标,并且降低人力成本,那当前的大模型方案,他的优势是什么,能够多大程度,解决什么场景的问题
二、项目目标:
这是算法落地的基础。
1.业务目标:要提升什么指标?转化率?自助率?满意度?
如:讲FAQ类的问题自动应答率提升到85%,保持满意度不低于当前的某个指标。
2.技术约束:数据够不够?能不能跑在线?延迟是多少?冷启动能不能接受?
如:不涉及订单相关的问题处理,优先覆盖标准可枚举类问题
3.边界判断:明确先不解决什么,只做哪一类的能力。
如:模型的部署延迟要求是3s,如超时自动切换成规则兜底
三、需求内容:
PRD核心部分。不是回答要不要做AI,要把整条链路,从输入到输出,从数据到反馈,清晰写下来。
1.数据从哪里来:用用户提的问题?还是现有的文档?还是人工标注?
如:智能客服情况下,只选高频出现的问题+人工客服的标准回答
2.把信息喂给模型:是直接拼成Prompt?还是先做检索,检索要不要做摘要?
提前设计逻辑。怎么选内容,怎么拼接上下文,有没有超长被截断 的风险?
3.大模型出来的答案能不能直接用?
不能用怎么办?策略是什么?有没有兜底?有没有设置信任分数阈值?万一答错了用户能不能是别别出来?能不能切换成规则?
四、实验设计:
不能说放10%流量测试一下。一定要先定义好成功的标准是?分流的机制怎么做?,放量怎么安排,出问题怎么识别?怎么回退?
什么是微调?
面试官可以通过你对微调的深度,去看你所做的AI产品和业务场景结合的深度。
微调 深度=(AI(结合)业务场景)的 深度
理解什么是微调:
(个人理解总结公式)
1.选型通用大模型:GPT → 拿公司具体数据进行训练 =懂需求(变成我们这个领域的专家)
举例:
做一个AI电商客服:
先让模型理解我们的业务,如:用户问怎么退货?
通用模型回答:市面平台政策是怎么样的,你可以根据情况进行退货
(套路公式化)
微调后模型回答:我们公司的政策支持7天无理由退款、已发货仅退款….用户可以按照我们以下步骤进行退货。下面是直达链接与细节策略
(更具体更细节,更智能)
产品经理与算法工程师职能分工:
产品经理:提出问题和标准的人
算法工程师:是解决问题的人
产品:建立模型评测标准:判断什么场景需要AI解决、指标如何反馈。
算法:怎么训模型:训练框架选型、调整参数、显卡资源
※微调指标四步:
一、清晰的目标:(明确指标)
例:退货相关的:FAQ的命中率从70%提升到85%,客户与机器人的平均对话轮次从4轮优化到2轮
从而得出FAQ命中率指标:85%,对话轮次指标:2轮等
二、高质量数据:(查、洗、标、批)
如何获得高质量数据?
例:自己获取或者配合相关人员,
1.提取获取历史的客服对话里面提取高频场景。(查:查高频场景)
2.挑选脏情绪化表达的脏数据进行清洗。(洗:清洗脏数据)
3.设计标注的规则:表明正确回复应该怎么去做(标:简历标注规则)
4.整理成数据需求,提出给标注组的同学(或数据分析岗),让其批量化产出这样质量的数据。(批:批量生成高质量数据)
三、选择策略:
了解微调路径信息
例:
全参数微调:(理解能力强,训练资源,时间等成本高)
需要模型特别强的理解能力:把整个模型的参数全部打开,重新训练。
如:多轮的复杂对话,个性化的服务
QLoRA:(修改少量参数,成本低,轻量化)
只训练一小部分参数,训练成本低,轻量化部署。适合中型业务或者快速迭代的业务
如:咨询项目训练,一周时间让FAQ命中率提升17%
提示词微调:
Prompt工程
四、上线验证
结果反馈:
灰度上线的机制
AB实验
对比分析问题
是否达成目标,问题背后的原因
然后推动解决
AI产品经理跟算法协作:
1.标准怎么定义
怎么基于业务场景,定义出模型的理想态?明确清楚模型的评估指标。模型不是精度越高越好
如:智能问答系统。假设准确率高,但响应慢就会导致用户流失
如:推荐系统。假设点击率涨了,但转化率掉了,业务就会不满意
拆解业务目标背后的算法策略:
产品理想态和评估标准设计:
与算法讨论。确定主要指标,其他指标的容忍度?优先精准还是覆盖?优先保证稳定性还是最大化的探索空间?
2.数据怎么准备
数据准备与特征设计
决定模型效果的很大程度,不是选择什么模型,更多是用了什么数据。
所以要熟悉业务数据,确定哪些字段对模型有价值。哪些是噪音。明确标签的标准。
是否需要主观的标注?标注人员是否理解场景?
是否要额外的去补充外部的数据?是否需要把用户群体分层?
把数据和业务结合拆解清楚,是数据准备与特征设计的重要一步
模型后续的起点也高很多
3.上线后怎么优化?
上线前:
推动上线前的实验,怎么分实验组对照组,要看什么?怎么判断实验有效?
上线后:
盯着效果波动,进行记录,是否冷热启动的问题?数据的漂移?用户行为发生的变化?
基于真实数据去定位问题,推动算法协调算法,一起去解决
优化策略
FAQ命中率指智能客服系统通过FAQ链接层快速匹配用户问题并返回准确答案的比例。优化命中率需结合FAQ链接层与RAG(Retrieval-Augmented Generation)机制,通过以下方式实现:
优化策略
构建四层知识结构:采用“主题-子主题-问题-答案”体系,将高频问题归类至FAQ层,复杂问题通过RAG检索。 1
扩展问法覆盖:通过高扩展问(20-30条/知识点)提升模型泛化能力,覆盖口语化、工具化等变体,命中率可达80-85%。 2
多源同步策略:通过API接口或ETL同步机制整合多源知识,确保知识库统一性和时效性。 1
兜底策略:当RAG无法匹配时,自动引导至FAQ层或人工介入,避免“抱歉,我不知道”的尴尬。
遇到问题。优化检查
- 纯RAG模式:因检索效率低、数据不干净等问题,可能导致30%的回答失败率。 3
- 忽视数据质量:训练数据偏差或噪声干扰会降低模型泛化能力,需通过数据清洗和扩展问法优化。
AI入职条件:
1.基于模型的边界能力
能否基于模型的能力边界找到适合的应用场景。
如:理解LLM、Agent的核心原理,能够结合业务场景系统规划Agent应用场景,有完整的闭环实践经验。
如:AI文档问答系统。可以用RAG接企业知识库
基于模型的理解去分析产品的可行性和收益
判断场景价值:
1.这个知识库核心解决什么场景的问题?
2.该场景里面的问题有哪些?
3.分类可解决与不可解决的问题。
知识库什么类型?:
结构化or非结构化?
有没有上下文强依赖?
用了AI成本高不高相对之前的方案,提升效果如何?
※2.能否驱动模型去基于场景做迭代
最容易暴露我们的能力深度
如:只知道RAG的架构,有检索有生成,先召回后生成
问:基于场景,文档怎么做chunk?向量库怎么选?Prompt怎么拼的?上线后怎么兜底?
要知道:数据怎么拿,要不要清洗,怎么标注,模型怎么选,通用大模型还是微调小模型。
Prompt怎么设计,要不要加规则兜底?整个系统接到那个业务场景里?稳定性能不能保证。有问题怎么回溯?指标怎么评估?上线后怎么判断成败?
3.设计好实验,验证方案
测评:定义所在场景下功能的测评标准和方法,迭代评测指标,分析并且确定后续方向
如:电商的推荐项目。怎么判断方案有效果?转化率提升了?对照组怎么设计?实验期多长?点击率or转化率?有没有波动分析?局部有限不等于全局有效。
落地的AI产品经理具备:
1.设计可执行的方案
2.清楚实验流程
3.设定清晰边界
4.推动数据组拉指标
国家新一代人工智能标准框架:

接下来的学习计划:
先看完
先复现前面所有的代码,可以速度过,
复现部署chaGPT,chatglm
然后学习Coze,再去看八股文,再看招聘信息
文档著者:GT / github:morniakr.git.io