Langfuse实战入门到精通:搭建Agent监控系统,收藏这篇就够了!

张开发
2026/4/9 10:22:15 15 分钟阅读

分享文章

Langfuse实战入门到精通:搭建Agent监控系统,收藏这篇就够了!
导语你的AI Agent正在黑盒运行吗深夜11点产品经理急匆匆地找到你“我们的智能客服机器人今天出问题了用户反馈说回答完全不对但我不知道哪里出了错。你能帮我看看吗”你打开日志发现海量的LLM调用记录但根本无从下手• ❌不知道哪次对话出了问题• ❌看不清楚Agent的执行路径• ❌无法追踪Prompt的演变历史• ❌Token消耗暴增却找不到原因• ❌用户投诉却无法复现问题这就是没有可观测性的AI Agent系统的真实写照。今天我将带你从零开始使用Langfuse搭建一套企业级的AI Agent可观测系统让你的LLM应用彻底告别黑盒时代AI Agent可观测性架构一、为什么AI Agent需要可观测性1.1 AI应用的独特挑战与传统应用不同AI Agent系统面临着独特的工程挑战 不确定性问题同样的输入可能产生完全不同的输出。LLM的非确定性使得调试变得极其困难。 多维度监控需求Agentic AI可观测性是一个多维度的概念它不仅包括传统应用监控中的指标还需要特别关注AI特有的行为特征。你需要监控• Token消耗与成本• 响应时间与延迟• Prompt质量与效果• 模型选择与切换• 工具调用成功率• 用户满意度评分 复杂的执行链路在Agent系统中我们需要监控从用户输入到最终输出的完整链路包括• RAG检索过程• 多轮对话历史• 工具调用链• 决策分支逻辑 成本失控风险没有合适的可观测性调试AI工作流就像盲飞——只能看到结果看不到过程。一个死循环的Agent可能在几小时内消耗掉你一个月的API预算1.2 真实案例某电商公司的教训让我分享一个真实案例某头部电商公司上线了智能客服Agent首月表现良好。但第二个月突然出现•API成本暴增300%•用户满意度下降40%•平均响应时间从2秒增加到8秒由于缺乏可观测性团队花了2周时间才定位到问题一个新上线的促销功能导致Agent陷入了无限循环的工具调用。如果有Langfuse这样的追踪工具能够在几分钟内发现问题所在。二、Langfuse是什么为什么选择它2.1 Langfuse的核心定位Langfuse是一个专为LLM应用设计的可观测性与评估平台也是当前最成熟的开源LLMOps解决方案之一。它将以下能力整合在一个统一平台中• ✅可观测性Observability完整的Trace追踪• ✅提示词管理Prompt Management版本控制与A/B测试• ✅效果评估Evaluation自动化评分与人工标注• ✅数据集管理Datasets回归测试与基准测试• ✅成本分析Cost Analytics细粒度的成本追踪2.2 为什么选择Langfuse 开源优先Langfuse采用开源模式你可以• 完全自托管数据完全掌控• 使用云服务快速上手• 无供应商锁定风险 开箱即用的集成支持主流LLM框架• LangChain / LangGraph• LlamaIndex• OpenAI SDK• Anthropic SDK• 自定义集成 企业级功能• 团队协作与权限管理• 多项目支持• API访问与数据导出• 自定义指标与Dashboard 中文支持完善Langfuse提供完整的中文文档和界面支持对中文团队极其友好。2.3 Langfuse vs 其他方案特性LangfuseArize PhoenixHelicone开源✅ 完全开源✅ 开源❌ 闭源自托管✅ 支持✅ 支持❌ 不支持评估功能✅ 强大⚠️ 基础⚠️ 基础Prompt管理✅ 完整❌ 无⚠️ 有限中文文档✅ 完善⚠️ 一般❌ 无三、快速部署5分钟搭建Langfuse环境3.1 环境准备确保你的系统满足以下要求• Docker 20.10• Docker Compose 2.0• 4GB 内存• 10GB 磁盘空间3.2 方案一Docker Compose快速部署推荐开发环境步骤1创建项目目录mkdir langfuse-democd langfuse-demo步骤2创建docker-compose.ymlversion: 3.8services: langfuse: image: langfuse/langfuse:latest ports: - 3000:3000 environment: - DATABASE_URLpostgresql://postgres:postgrespostgres:5432/postgres - NEXTAUTH_SECRETmy-secret-key-change-in-production - SALTmysalt - NEXTAUTH_URLhttp://localhost:3000 - TELEMETRY_ENABLEDfalse depends_on: postgres: condition: service_healthy postgres: image: postgres:15-alpine environment: - POSTGRES_USERpostgres - POSTGRES_PASSWORDpostgres - POSTGRES_DBpostgres volumes: - postgres_data:/var/lib/postgresql/data healthcheck: test: [CMD-SHELL, pg_isready -U postgres] interval: 5s timeout: 5s retries: 5volumes: postgres_data:步骤3启动服务docker-compose up -d步骤4访问界面打开浏览器访问http://localhost:3000首次访问会提示你创建管理员账号。Langfuse部署界面3.3 方案二Langfuse Cloud推荐生产环境如果你不想自己维护基础设施可以使用Langfuse Cloud步骤1注册账号访问 langfuse.com 注册免费账号步骤2创建项目登录后创建新项目获取API密钥•LANGFUSE_PUBLIC_KEY•LANGFUSE_SECRET_KEY•LANGFUSE_HOST(云服务为 https://cloud.langfuse.com)步骤3配置环境变量export LANGFUSE_PUBLIC_KEYpk-lf-xxxxxxxxxxxxxexport LANGFUSE_SECRET_KEYsk-lf-xxxxxxxxxxxxxexport LANGFUSE_HOSThttps://cloud.langfuse.com3.4 方案三Kubernetes部署企业级对于大规模生产环境推荐使用Helm部署# 添加Helm仓库helm repo add langfuse https://langfuse.github.io/langfuse-helm# 安装Langfusehelm install langfuse langfuse/langfuse \ --namespace langfuse \ --create-namespace \ -f values.yaml四、核心功能详解从Trace到Evaluation4.1 Trace追踪看见每一次LLM调用什么是TraceTrace是Langfuse的核心概念它记录了从用户请求到最终响应的完整执行链路。在传统监控体系下我们往往只能看到应用层的日志而在Langfuse的体系中每一次LLM调用、检索、工具调用乃至最终响应都会被完整追踪。Trace的层级结构Trace (追踪)├── Span (跨度) - 表示一个操作单元│ ├── Generation (生成) - LLM调用│ ├── Event (事件) - 自定义事件│ └── Span (嵌套跨度)└── Score (评分) - 质量评估4.2 实战Python集成示例安装SDKpip install langfuse基础集成from langfuse import Langfusefrom langfuse.decorators import observe, langfuse_context# 初始化langfuse Langfuse( public_keypk-lf-xxxxxxxxxxxxx, secret_keysk-lf-xxxxxxxxxxxxx, hosthttps://cloud.langfuse.com)# 方法1使用装饰器推荐observe()def chat_with_user(user_input: str) - str: 智能对话函数 # 添加自定义元数据 langfuse_context.update_current_trace( name用户对话, user_iduser_123, session_idsession_456, metadata{ environment: production, version: 1.0.0 } ) # 调用LLM response call_llm(user_input) # 记录评分 langfuse.score( trace_idlangfuse_context.get_current_trace_id(), nameuser-feedback, value1.0, # 1.0表示好评0.0表示差评 comment用户明确满意 ) return response# 方法2手动创建Tracedef manual_trace_example(): trace langfuse.trace( namecustomer-support-agent, user_iduser_789, metadata{channel: web} ) # 创建Span span trace.span( nameretrieve-knowledge, metadata{database: faq_db} ) # RAG检索 context retrieve_documents(如何退货) span.end(outputcontext) # LLM生成 generation trace.generation( namegenerate-response, modelgpt-4, promptbuild_prompt(如何退货, context), model_parameters{temperature: 0.7} ) response generate_response(prompt) generation.end(outputresponse) return response4.3 LangChain集成最常用from langfuse import Langfusefrom langfuse.langchain import CallbackHandlerfrom langchain.chat_models import ChatOpenAIfrom langchain.prompts import ChatPromptTemplate# 创建Langfuse Callback Handlerlangfuse_handler CallbackHandler( public_keypk-lf-xxxxxxxxxxxxx, secret_keysk-lf-xxxxxxxxxxxxx, hosthttps://cloud.langfuse.com)# 构建LangChain链prompt ChatPromptTemplate.from_messages([ (system, 你是一个专业的客服助手请用友好的语气回答问题), (human, {input})])model ChatOpenAI(modelgpt-4, temperature0.7)chain prompt | model# 执行时传入callbackresponse chain.invoke( {input: 如何申请退款}, config{callbacks: [langfuse_handler]})print(response.content)效果执行后你可以在Langfuse Dashboard中看到• 完整的Prompt和Response• Token消耗统计• 响应时间• 模型参数4.4 LlamaIndex集成from langfuse import Langfusefrom langfuse.llama_index import LlamaIndexCallbackHandlerfrom llama_index.core import Settings, VectorStoreIndex, SimpleDirectoryReader# 创建Handlerlangfuse_handler LlamaIndexCallbackHandler( public_keypk-lf-xxxxxxxxxxxxx, secret_keysk-lf-xxxxxxxxxxxxx, hosthttps://cloud.langfuse.com)# 配置LlamaIndexSettings.callback_handlers [langfuse_handler]# 构建RAG系统documents SimpleDirectoryReader(./data).load_data()index VectorStoreIndex.from_documents(documents)query_engine index.as_query_engine()# 查询response query_engine.query(公司产品有哪些)4.5 Evaluation评估系统为什么需要评估可观测性不仅要知道发生了什么还要知道表现如何。Langfuse提供了强大的评估功能。评估类型人工标注Human Annotation自动化评分Automated Scoring基于LLM的评估LLM-as-a-Judge实战示例# 1. 人工标注评分langfuse.score( trace_idtrace_id, namehuman-feedback, value1.0, # 1.0 好评, 0.0 差评 comment回答准确且友好)# 2. 自动化评分 - 基于规则def calculate_relevance_score(prompt, response): 计算响应相关性 # 这里可以是你的业务逻辑 if len(response) 10: return 0.0 return 0.8langfuse.score( trace_idtrace_id, namerelevance-score, valuecalculate_relevance_score(prompt, response))# 3. LLM-as-a-Judgefrom langchain.evaluation import load_evaluatorfrom langchain.chat_models import ChatOpenAIevaluator load_evaluator( labeled_score_string, criteria{ helpfulness: 回答是否有帮助, accuracy: 信息是否准确, conciseness: 回答是否简洁 }, llmChatOpenAI(modelgpt-4))eval_result evaluator.evaluate_strings( predictionresponse, inputprompt)langfuse.score( trace_idtrace_id, namellm-judge-helpfulness, valueeval_result[score] / 10.0 # 归一化到0-1)4.6 Prompt管理与版本控制问题场景你的团队有10个不同的Prompt版本如何• 追踪哪个版本效果最好• 快速回滚到历史版本• 团队协作修改PromptLangfuse解决方案from langfuse import Langfuselangfuse Langfuse()# 创建Promptlangfuse.create_prompt( namecustomer-support-v1, prompt你是一个专业的客服助手。 请遵循以下原则1. 语气友好专业2. 回答简洁明了3. 提供具体可执行的建议用户问题{{question}}, labels[production])# 使用Promptprompt langfuse.get_prompt(customer-support-v1)formatted prompt.compile(question如何退货)# 调用LLMresponse call_llm(formatted)# A/B测试创建新版本langfuse.create_prompt( namecustomer-support-v2, prompt你是一个资深客服专家拥有10年行业经验。你的特点是- 耐心细致- 善于换位思考- 能提供超出预期的建议用户问题{{question}}, labels[experiment])在Dashboard中对比版本效果Langfuse会自动统计不同版本的• 平均评分• 用户满意度• Token消耗• 响应时间4.7 Dataset数据集管理用途• 回归测试确保新版本不会破坏现有功能• 基准测试对比不同模型/参数配置• 持续改进积累高质量测试用例创建数据集from langfuse import Langfuselangfuse Langfuse()# 创建数据集dataset langfuse.create_dataset( namecustomer-support-test-cases, description客服系统标准测试集)# 添加测试用例test_cases [ { input: 如何申请退款, expected_output: 请在订单详情页点击申请退款按钮..., metadata: {category: refund, difficulty: easy} }, { input: 产品保修期多久, expected_output: 我们的产品提供12个月质保..., metadata: {category: warranty, difficulty: easy} }]for case in test_cases: langfuse.create_dataset_item( dataset_namecustomer-support-test-cases, inputcase[input], expected_outputcase[expected_output], metadatacase[metadata] )运行回归测试from langfuse import Langfuselangfuse Langfuse()# 获取数据集dataset langfuse.get_dataset(customer-support-test-cases)# 运行测试for item in dataset.items: # 执行你的应用 actual_output my_agent.run(item.input) # 评估结果 score evaluate_response(item.expected_output, actual_output) # 记录到Langfuse langfuse.score( trace_iditem.trace_id, nameregression-test, valuescore )五、实战演练构建智能客服监控系统5.1 场景描述让我们通过一个完整的案例展示Langfuse的强大功能。需求• 监控智能客服Agent的每一次对话• 追踪RAG检索过程• 评估回答质量• 识别问题对话并告警• 分析成本与性能5.2 系统架构用户请求 ↓API Gateway ↓智能客服Agent (LangChain Langfuse) ├── RAG检索 (记录检索文档) ├── LLM生成 (记录Prompt/Response) ├── 工具调用 (记录调用参数) └── 质量评估 (自动评分) ↓Langfuse Dashboard (实时监控)5.3 完整代码实现import osfrom typing import List, Dictfrom langfuse import Langfusefrom langfuse.decorators import observe, langfuse_contextfrom langchain.chat_models import ChatOpenAIfrom langchain.prompts import ChatPromptTemplatefrom langchain.retrievers import WikipediaRetrieverfrom pydantic import BaseModel# 初始化Langfuselangfuse Langfuse( public_keyos.getenv(LANGFUSE_PUBLIC_KEY), secret_keyos.getenv(LANGFUSE_SECRET_KEY), hostos.getenv(LANGFUSE_HOST, https://cloud.langfuse.com))class CustomerSupportAgent: 智能客服Agent def __init__(self): self.llm ChatOpenAI(modelgpt-4, temperature0.7) self.retriever WikipediaRetriever(top_k_results3) observe() async def handle_query( self, user_id: str, query: str, session_id: str None ) - Dict: 处理用户查询 # 更新Trace元数据 langfuse_context.update_current_trace( namecustomer-support-query, user_iduser_id, session_idsession_id, metadata{ query_type: general, channel: web, priority: normal } ) # 步骤1检索知识 context await self._retrieve_knowledge(query) # 步骤2生成回答 response await self._generate_response(query, context) # 步骤3质量评估 quality_score await self._evaluate_quality(query, response) # 步骤4记录评分 langfuse.score( trace_idlangfuse_context.get_current_trace_id(), namequality-score, valuequality_score ) # 步骤5问题检测与告警 if quality_score 0.6: await self._trigger_alert(query, response, quality_score) return { response: response, quality_score: quality_score, context_used: context } observe(nameretrieve-knowledge) async def _retrieve_knowledge(self, query: str) - str: 检索相关知识 docs self.retriever.get_relevant_documents(query) context \n\n.join([doc.page_content for doc in docs[:3]]) return context observe(namegenerate-response) async def _generate_response(self, query: str, context: str) - str: 生成回答 prompt ChatPromptTemplate.from_messages([ (system, 你是专业的客服助手。 基于以下背景信息回答问题{context}如果背景信息不足以回答问题请诚实告知用户。), (human, {query}) ]) chain prompt | self.llm response chain.invoke({ context: context, query: query }) return response.content observe(nameevaluate-quality) async def _evaluate_quality(self, query: str, response: str) - float: 评估回答质量 # 这里可以使用LLM-as-a-judge或其他评估方法 # 简化示例基于响应长度和相关性关键词 quality_indicators [ len(response) 50, any(word in response.lower() for word in [请, 建议, 可以]), not any(word in response.lower() for word in [不知道, 无法回答]) ] score sum(quality_indicators) / len(quality_indicators) return score observe(nametrigger-alert) async def _trigger_alert(self, query: str, response: str, score: float): 触发告警 # 实际场景中可以发送邮件/Slack消息 print(f⚠️ 低质量回答告警:) print(f查询: {query}) print(f响应: {response[:100]}...) print(f评分: {score})# 使用示例async def main(): agent CustomerSupportAgent() result await agent.handle_query( user_iduser_12345, query如何重置密码, session_idsession_abc ) print(f回答: {result[response]}) print(f质量评分: {result[quality_score]})# 运行import asyncioasyncio.run(main())5.4 监控DashboardLangfuse自定义Dashboard在Langfuse Dashboard中你可以看到1. 总览指标• 总Trace数3574• 总Token消耗20925• 平均响应时间2.3s• 平均质量评分0.852. 趋势分析• 每日请求量趋势• 成本变化趋势• 质量评分趋势3. 问题识别• 低评分对话列表• 高成本对话• 超时对话4. 详细Trace点击任意Trace可以看到• 完整的执行链路• 每个步骤的耗时• Token消耗明细• 输入输出内容六、高级应用自定义Dashboard与性能优化6.1 构建自定义监控指标Langfuse提供强大的API你可以构建自定义的监控面板。示例成本分析Dashboardfrom langfuse import Langfuseimport pandas as pdimport matplotlib.pyplot as pltlangfuse Langfuse()# 获取所有Tracestraces langfuse.fetch_traces(limit1000)# 分析成本cost_data []for trace in traces: cost_data.append({ date: trace.timestamp.date(), total_cost: trace.usage.total_cost, model: trace.metadata.get(model, unknown), user_id: trace.user_id })df pd.DataFrame(cost_data)# 按日期聚合daily_cost df.groupby(date)[total_cost].sum()# 可视化plt.figure(figsize(12, 6))plt.plot(daily_cost.index, daily_cost.values)plt.title(每日LLM API成本)plt.xlabel(日期)plt.ylabel(成本 ($))plt.xticks(rotation45)plt.tight_layout()plt.savefig(daily_cost.png)6.2 性能优化技巧1. 异步批量上传from langfuse import Langfuselangfuse Langfuse( # 批量上传配置 flush_at10, # 每10条记录上传一次 flush_interval1 # 或每1秒上传一次)2. 采样策略对于高流量应用可以采样记录import randomdef should_sample(sample_rate: float 0.1) - bool: 10%采样率 return random.random() sample_rateif should_sample(): # 记录到Langfuse trace langfuse.trace(...)3. 敏感信息过滤from langfuse.decorators import langfuse_contextdef sanitize_input(text: str) - str: 过滤敏感信息 # 实现你的过滤逻辑 return text.replace(password, ***)observe()def process_query(query: str): # 过滤后再记录 safe_query sanitize_input(query) langfuse_context.update_current_trace( inputsafe_query )6.3 告警系统集成集成PagerDuty/Slackimport requestsclass AlertManager: def __init__(self, langfuse: Langfuse, slack_webhook: str): self.langfuse langfuse self.slack_webhook slack_webhook def check_and_alert(self): 检查指标并触发告警 # 获取最近1小时的Traces traces self.langfuse.fetch_traces( from_timestampdatetime.now() - timedelta(hours1) ) # 计算平均质量评分 scores [t.scores for t in traces if t.scores] avg_score sum(scores) / len(scores) if scores else 1.0 # 触发告警 if avg_score 0.7: self.send_slack_alert(f⚠️ 质量评分过低: {avg_score:.2f}) # 检查成本 total_cost sum(t.usage.total_cost for t in traces) if total_cost 100: # 1小时成本超过100美元 self.send_slack_alert(f 成本异常: ${total_cost:.2f}) def send_slack_alert(self, message: str): 发送Slack通知 requests.post( self.slack_webhook, json{text: message} )# 定时任务from apscheduler.schedulers.background import BackgroundSchedulerscheduler BackgroundScheduler()alert_manager AlertManager(langfuse, https://hooks.slack.com/...)scheduler.add_job( alert_manager.check_and_alert, interval, minutes15)scheduler.start()七、生产环境最佳实践7.1 部署架构建议开发环境• Docker Compose单机部署• 本地数据库• 关闭Telemetry测试环境• 独立的Langfuse实例• 完整的测试数据集• 启用所有评估功能生产环境• Kubernetes集群部署• 高可用PostgreSQL• Redis缓存• 负载均衡• 定期备份7.2 数据安全与合规1. 数据加密# docker-compose.ymlenvironment: - ENCRYPTION_KEYyour-32-character-secret-key-here - NEXTAUTH_SECRETanother-secret-key2. 访问控制• 使用SSO集成OAuth/SAML• 基于角色的权限管理• API密钥轮换策略3. 数据保留策略-- 设置数据保留90天DELETE FROM traces WHERE timestamp NOW() - INTERVAL 90 days;7.3 性能调优数据库优化-- 创建索引CREATE INDEX idx_trace_timestamp ON traces(timestamp);CREATE INDEX idx_trace_user_id ON traces(user_id);CREATE INDEX idx_trace_session_id ON traces(session_id);-- 分区表大规模场景CREATE TABLE traces_2024_q1 PARTITION OF traces FOR VALUES FROM (2024-01-01) TO (2024-04-01);应用层优化# 连接池配置langfuse Langfuse( request_timeout30, # 超时时间 max_retries3, # 重试次数 debugFalse # 生产环境关闭debug)7.4 监控Langfuse自身健康检查import requestsdef check_langfuse_health(): response requests.get(http://localhost:3000/api/health) if response.status_code ! 200: send_alert(Langfuse服务异常)关键指标• API响应时间 200ms• 数据摄入延迟 5s• 数据库连接数 80%• 磁盘使用率 70%八、成本分析与ROI计算8.1 Langfuse部署成本自托管方案月资源规格成本应用服务器4核8G$50PostgreSQL8核16G$100存储100GB SSD$20合计$170/月云服务方案• Free Tier免费最多1000 traces/月• Pro$29/月最多10,000 traces• Enterprise定制无限traces8.2 ROI计算案例某SaaS公司月活10万用户实施前• 月LLM成本$10,000• 问题排查时间10小时/次 × 5次/月 50小时• 工程师成本小时5,000•总成本$15,000/月实施Langfuse后• 月LLM成本$7,000优化30%• 问题排查时间1小时/次 × 5次/月 5小时• 工程师成本小时500• Langfuse成本$200/月•总成本$7,700/月月度节省7,700 $7,300年度ROI(2,400) / $2,400 3550%8.3 隐性收益除了直接成本节省还有• ✅ 用户满意度提升• ✅ 产品迭代速度加快• ✅ 团队效率提升• ✅ 风险降低避免成本失控九、常见问题FAQQ1: Langfuse会影响应用性能吗A:影响极小。Langfuse采用异步批量上传对主流程的影响通常 10ms。建议使用异步SDK和合理的批量配置。Q2: 数据隐私如何保障A:• 自托管数据完全在你的基础设施• 云服务支持数据加密和GDPR合规• 可以过滤敏感字段后再上传Q3: 支持哪些LLM模型A:支持所有主流模型• OpenAI (GPT-3.5/4/4o)• Anthropic (Claude)• Google (Gemini)• 开源模型通过自定义集成Q4: 如何处理高并发场景A:• 使用消息队列缓冲Kafka/RabbitMQ• 水平扩展Langfuse实例• 启用数据采样• 优化数据库索引Q5: 能否与现有监控系统集成A:可以。Langfuse提供• REST API• Webhook• 数据导出功能• 支持Grafana等可视化工具十、总结与展望10.1 核心要点回顾通过本文你已经学习了✅为什么需要可观测性AI Agent的不确定性要求完整的监控体系✅Langfuse的核心功能Trace追踪、Prompt管理、评估系统、数据集管理✅快速部署5分钟搭建开发环境云服务即开即用✅实战集成LangChain、LlamaIndex等主流框架✅生产实践性能优化、安全合规、成本控制学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章