- Published on
LLM
All Posts
- cpp (154)
- Windows (79)
- Linux (58)
- Go (54)
- Qt (52)
- AI (37)
- Web (35)
LLM (30)
- Python (21)
- Database (19)
- Node.js (17)
- Javascript (17)
- Agent (15)
- Tools (14)
- Mobile (12)
- MQ (12)
- Anthropic (12)
- Design (11)
- MCP (11)
- Tips (10)
- MongoDB (9)
- Shell (8)
- Life (6)
- React (6)
- Boost (6)
- LangChain (6)
- RAG (5)
- Tutorial (5)
- Claude (4)
- 教程 (4)
- favorites (3)
- Product (3)
- Prompt (3)
- 大模型 (3)
- Tool Use (3)
- Others (2)
- Cursor (2)
- AI编程 (2)
- OpenAI (2)
- Docker (2)
- 人工智能 (2)
- LangGraph (2)
- 异步编程 (2)
- NextJS (2)
- Supabase (2)
- GitHub (2)
- 认证 (2)
- ChatGPT (1)
- AI开发 (1)
- Java (1)
- Bug (1)
- others (1)
- Mac (1)
- Tool (1)
- IDE (1)
- 部署 (1)
- 大语言模型 (1)
- API (1)
- Responses API (1)
- Web搜索 (1)
- 协议 (1)
- tools (1)
- SEO (1)
- 博客 (1)
- 营销 (1)
- Vercel (1)
- 微调 (1)
- WSL2 (1)
- Infrastructure (1)
- Postmortem (1)
- Reliability (1)
- RL (1)
- Tracing (1)
- Observability (1)
- Training (1)
- SDK (1)
- 开发工具 (1)
- 最佳实践 (1)
- Security (1)
- Sandboxing (1)
- Claude Code (1)
- Code Execution (1)
- Retrieval (1)
- Evals (1)
- 评估 (1)
- Context Engineering (1)
- Long-Running (1)
- Claude Agent SDK (1)
- Agent Skills (1)
- FastAPI (1)
- Uvicorn (1)
- multiprocessing (1)
- asyncio (1)
- Memory Management (1)
- Memory (1)
- vLLM (1)
- vLLM Stack (1)
- PyTorch (1)
- CUDA (1)
- Multi-Agent (1)
- Research (1)
- Published on
从工程视角拆解 Ubuntu + CUDA + PyTorch + vLLM + Python 的完整推理栈,讲清每一层干什么、数据模型长什么样、以及一次推理请求如何在各层之间流动。- Published on
- Published on
本文深入剖析LangChain框架中短时内存与长时内存的设计原理、实现机制、应用场景,并结合LangGraph的持久化能力,为构建复杂、可扩展的AI代理提供最佳实践。- Published on
Anthropic 分享了与客户合作构建 LLM Agent 的经验,介绍了从简单可组合模式到自主 Agent 的最佳实践,包括工作流模式、构建块和实际应用案例。- Published on
- Published on
- Published on
- Published on
本文介绍了如何使用DeepSeek AI模型和MCP框架构建一个多功能代理系统,包括天气查询、Shell命令执行和时间信息获取等功能的实践经验。- Published on
Andrew Ng分享了他对何时应该以及何时不应该使用微调技术的见解,基于他在多家公司的观察。- Published on
DeepSeek在2025年3月24日发布了V3-0324版本,这次更新带来了显著的性能提升。新版本在推理能力、编程能力和中文语言处理方面都有重大突破,特别是在MMLU-Pro、GPQA等基准测试中取得了优异成绩。该模型采用MIT开源许可,包含约685亿参数,并支持高达128K的上下文长度,在AI领域树立了新的标杆。- Published on
总结在AI驱动开发过程中的经验和最佳实践,包括如何更好地利用AI助手进行开发。- Published on
如何通过包含输入/输出数据集的功能测试,以系统化方法评估提示,使复杂人工智能任务的提示工程更加可靠。- Published on
本文提供了跟踪大语言模型(LLM)最新发展和趋势的全面资源导航,包括研究论文、技术博客、行业动态、社区讨论和开发工具等。帮助读者在快速发展的AI时代保持信息更新,紧跟前沿技术潮流,不错过LLM领域的关键进展。- Published on
这份指南提供了使用AI代码编辑器Cursor的实用技巧,帮助你更高效地构建应用程序,无论你是初学者还是有经验的开发者。- Published on
AI工具不仅改变了工程师的工作方式,还使更多人能够构建应用和网站。本文深入探讨了三类主要AI编程工具:通用AI聊天机器人、AI集成IDE助手和基于Web的应用生成器,分析它们的优缺点及实际应用案例,展示它们如何推动开发者生产力的新浪潮。- Published on
本文提供全面的提示工程指南,从基础概念到高级策略,帮助读者掌握与AI大模型有效沟通的技巧,提高对话效率和结果质量。- Published on
- Published on
本文探讨了大型语言模型(LLMs)的一个关键缺陷:缺乏对自身能力的认知。这使得它们在执行自己并不理解的任务时过于自信,造成比幻觉问题更严重的实用性困境。- Published on
用新手快递员来举例,如何向小白解释监督学习和强化学习。- Published on
- Published on
- Published on
- Published on
本文通过约100行代码复现了LangChain的核心功能,展示了如何利用LLM(如GPT)和工具(如搜索引擎、计算器)构建智能对话界面。作者详细介绍了从问题解析、工具调用到结果反馈的实现过程,并探讨了其背后的提示设计与推理机制。尽管简单,该实现已能处理多轮对话和复杂查询,但也揭示了当前技术的局限性。- Published on
- Published on
本文比较了LangChain和LlamaIndex两个框架在构建LLM应用程序时的表现,通过四个任务:连接本地LLM、构建RAG系统、结合两者及转换为代理人,帮助读者选择适合的框架。- Published on
- Published on
本文介绍了穆罕默德・本・扎耶德人工智能大学 VILA Lab 的一项研究,提出了26条具体的提示工程准则,旨在提升大语言模型(LLM)的性能,无需额外训练即可提高50%以上的效果。这些准则涵盖了回答内容控制、任务分解、用户交互等多个方面,帮助用户更有效地与大模型互动并获得高质量的回答。研究引起了广泛关注,并提供了详细的指南和示例。- Published on
本文介绍了几种高级的Prompt编写技巧,包括CRISPE框架、Zero-Shot、Few-Shots、COT(思维链)、SC(自我一致性)、TOT(树状推理)和Step-Back。通过一个英文翻译成中文的任务示例,展示了不同Prompt模式对大语言模型输出结果的影响,并总结了每种模式的效果。文章还解释了Google在Gemini大模型评测中使用不同Prompt模式的原因,指出其在不同指标上采用不同的提示策略以优化表现。- Published on
本文总结了RAG系统的7种常见问题及解决方案,涵盖内容幻觉、答案遗漏、整合限制等,并提供了优化策略,如元数据过滤、模型微调和知识库优化,提升系统性能。