[]
API Service(模型服务)是指通过标准化接口(如 API)对外提供大语言模型(LLM)能力的服务形态。它将底层的模型推理、资源调度、负载均衡等复杂流程封装在云端或本地服务器,用户只需通过网络请求即可远程调用模型,实现文本生成、对话、问答等智能应用。
模型服务的核心作用在于将强大的 AI 能力以服务化方式输出,便于各类应用系统集成和扩展。开发者无需关心模型的训练、部署和运维细节,只需关注业务逻辑和接口调用,大幅降低了 AI 应用的开发门槛。
除了云厂商的模型服务外,许多企业和开发者也会选择在本地部署模型(如 Ollama、vllm 等),以满足数据安全、合规性或定制化需求。这类本地模型服务通常通过 HTTP 接口或 OpenAI 兼容接口对外提供推理能力,支持与云端服务一致的调用方式。通过配置本地服务的 API Host 地址,平台即可无缝接入本地模型,实现数据不出本地、灵活可控的 AI 应用场景。
API Host/Endpoint 是访问大语言模型服务的网络地址,通常以 URL 形式提供(例如 https://api.openai.com/v1/)。它是客户端(如应用程序或网站)与云端或本地模型交互的入口点。用户通过向该地址发送 HTTP 请求(如 POST 请求),附带必要的参数和认证信息(如 API Key),即可调用模型功能并接收响应。Endpoint 的设计遵循 RESTful 规范,可能包含版本号(如/v1/)和具体功能路径(如/chat/)。
在活字格低代码平台中,可在 AI 配置中的 API Host/Endpoint 中指定平台应将请求发送到哪个云端或本地模型服务。尤其注意:该地址必须为 OpenAI 兼容地址,即其接口规范、路径结构、认证方式等需与 OpenAI 官方 API 保持一致,否则可能导致模型调用失败。
多模型支持:活字格支持配置多个 LLM 服务,每个服务都需指定独立的 API Host。开发者可根据业务需求灵活切换不同厂商或自建模型的 OpenAI 兼容接口地址。
配置入口:在设计器和运行时 AI 配置界面,用户需填写 API Host 以完成 LLM 服务的接入。该地址与 API Key、Model Name 等参数共同决定了实际调用的模型实例。
安全与隔离:平台不会默认将数据发送到任何外部服务,只有在用户明确配置 API Host 后,相关请求才会发出。建议企业用户优先选择合规、可信的模型服务地址,或部署私有化模型以保障数据安全。
典型场景:如需接入 OpenAI、DeepSeek、阿里云、字节、智谱和百度等不同厂商的 LLM,只需在配置中填写对应的 API Host 地址,即可实现无缝切换和多环境适配。
注意事项:
API Host 必须与 API Key、Model Name 等参数配套使用,填写错误会导致模型调用失败。
若企业有特殊合规要求,可将 API Host 指向自建的 LLM 网关,实现流量管控和日志审计。