Deep Search Lighting 是一个轻量级的、纯Web搜索的解决方案,为大型语言模型(LLM)设计,用于解决传统Web搜索方案的局限性,例如搜索结果质量不高、反射效果不佳、对模型要求高以及小模型难以使用工具等问题。

传统大语言模型网页搜索方案存在以下问题:

• 搜索结果质量与反思效果有限

• 依赖高性能模型和付费搜索引擎

• 小模型难以适配工具调用模式

• 不同规模模型的上下文理解稳定性不足

Deep Search Lighting带来的创新点:

• 无框架设计,无技术栈限制

• 兼容免费 API,保持查询质量

• 深度参数可调,平衡速度与结果

• 内置反思机制,支持模型自我评估

• 适配全尺寸模型,包括轻量级模型

多引擎聚合搜索

✅ 百度(免费)

✅ DuckDuckGo(免费,需 VPN)

✅ Bocha(需 API 密钥)

✅ Tavily(需注册密钥)

智能化能力

• 反思策略与可控评估机制

• 支持自定义 LLM 模型管道

• 兼容 OpenAI 风格 API

• 纯模型源码,易于集成

• 内置 MCP 服务端支持

Deep Search Lighting快速上手

环境搭建

# 创建虚拟环境
conda create -n deepsearch_lightning python==3.11
conda activate deepsearch_lightning

# 安装依赖
pip install -r requirements.txt

# 可选:安装 LangChain 支持
pip install -r requirements_langchain.txt

配置

1、将 .env.examples 重命名为 .env

2、填写模型信息(当前支持 OpenAI 风格 API)

3、百度搜索默认启用,其他引擎按需配置

运行

1、测试用例:python test_demo.py

2、Streamlit 演示:streamlit run streamlit_app.py

3、启动 MCP 服务端:

python mcp_server.py 
python langgraph_mcp_client.py