大模型技术全景:开源模型、商业应用与实战教程详解
本文系统梳理了大模型技术全栈内容,详细介绍了主流开源模型(Llama系列、ChatGLM、Qwen等)和商业模型(ChatGPT、文心大模型、通义千问等)的特点与应用场景。针对实际使用需求,提供了完整的本地运行方案(Ollama、Transformers等)、服务器部署指南(vLLM、SGLang)、模型微调方法(Axolotl、Llama-Factory)以及应用开发平台(Dify、LangChain)的实战教程。同时包含大模型测试题库和技术参考资料,为开发者和研究者提供全面技术参考。
大模型是人工智能的最重要的核心技术之一,基于大模型,人们开发了非常多的应用。本文主要介绍了大模型相关的开源模型、商业模型、使用教程、本地运行、服务器部署、模型训练、模型微调、Web UI和应用开发平台,并提供了一些题库用于大模型的测试。
开源模型
商业模型
使用教程
大模型解禁技术(abliteration)简介、模型及相关文档
Model Context Protocol (MCP) 协议官网、简介和开发教程
Agent to Agent(A2A)协议官网、简介和开发教程
本地运行
服务器部署
模型训练
模型微调
Web UI
应用开发平台
测试题目
参考资料
一文搞懂大模型Prompt Engineering(提示工程):https://zhuanlan.zhihu.com/p/681824432
提示工程指南:https://www.promptingguide.ai/zh
Awesome AI:https://github.com/runningcheese/Awesome-AI
Awesome ChatGPT Prompts:https://prompts.chat/
最后更新于4月前
本文由人工编写,AI优化,转载请注明原文地址: 大模型完全指南:开源与商业模型、本地部署、微调实战
推荐阅读
评论 (2)
发表评论
昵称:加载中...
月光女孩2025-12-04 12:52:32
这篇指南太全面了!正好在选型开源模型,Llama 3和Qwen的对比部分很有帮助。想请教一下,对于个人开发者,从零微调一个模型的最低硬件配置大概是什么?感谢作者整理!
超腾开源2025-12-04 19:33:30
对于个人开发者微调模型,最低硬件配置需求取决于模型规模、微调方法、数据集大小和优化策略。小模型在8bit量化后,只需要4–8 GB显存,可以使用GTX 1660 Ti 6GB显卡进行微调。