协同聊天(Co.Chat (Beta))
POST
https://api.cohere.ai/v1/chat 聊天端点允许用户与 Cohere 的大型语言模型(LLM)进行对话。用户可以使用 conversation_id
参数作为持久对话的一部分发送消息,或者也可以使用 chat_history
参数传入自己的对话历史记录。此端点还具有诸如连接器和文档等额外参数,可通过外部知识丰富对话。我们称之为“检索增强生成”,简称“RAG”。如果您有任何问题或需要支持,我们随时准备提供帮助!请联系您的 Cohere 合作伙伴以启用此 API 的访问。
请求参数
用户和模型之间先前消息的列表,旨在为模型提供用于响应用户的对话上下文message
。
接受一个字符串。 用户发送给模型的聊天消息。
默认为command
. 模型的标识符,可以是现有 Cohere 模型之一,也可以是微调的自定义模型的完整 ID 。 兼容的 Cohere 模型包括command
实验command-light
模型command-nightly
和command-light-nightly
变体模型。阅读有关Cohere 模型的更多信息。
默认为false
. 当 时true
,响应将是 JSON 事件流。最终事件将包含完整的响应,并且将event_type
具有"stream-end"
。 流式传输对于在生成响应时逐段呈现响应内容的用户界面非常有利。
指定后,默认的 Cohere 前导码将替换为提供的前导码。
的替代品chat_history
。可以通过提供对话的标识符来恢复之前的对话。模型的响应内容message
和响应将作为此对话的一部分存储。 如果具有此 ID 的对话尚不存在,则会创建一个新对话。
在指定时和AUTO
所有其他情况下默认为。connectors``OFF
规定如何构造提示。 设置为“AUTO”时,将删除和prompt_truncation
中的一些元素,以尝试构建适合模型上下文长度限制的提示。chat_history``documents
设置为“OFF”时prompt_truncation
,不会删除任何元素。如果输入的总和超过模型的上下文长度限制,TooManyTokens
将返回错误。
布尔类型,默认为 false。 当设置为 true 时,响应中只会包含生成的搜索查询词列表,不会进行实际搜索,也不会生成对用户消息的回复。
模型可用来丰富其回复 (RAG) 的相关文档列表。
默认为"accurate"
. 通过允许用户指定他们想要"accurate"
结果还是"fast"
结果,规定作为 RAG 流程的一部分生成引文所采取的方法。
默认为0.3
一个非负浮点数,用于调整生成的随机程度。较低的温度意味着较少的随机生成,较高的温度意味着更多的随机生成。
{
"chat_history": [
{
"role": "USER",
"message": "Who discovered gravity?"
},
{
"role": "CHATBOT",
"message": "The man who is widely credited with discovering gravity is Sir Isaac Newton"
}
],
"message": "What year was he born?",
"connectors": [
{
"id": "web-search"
}
]
}
示例代码
返回响应
{
"text": "string",
"generation_id": "3fa85f64-5717-4562-b3fc-2c963f66afa6",
"citations": [
{
"start": 0,
"end": 0,
"text": "string",
"document_ids": [
"string"
]
}
],
"documents": [
{
"id": "string",
"additionalProp": "string"
}
],
"search_queries": [
{
"text": "string",
"generation_id": "3fa85f64-5717-4562-b3fc-2c963f66afa6"
}
],
"search_results": [
{
"search_query": {
"role": "CHATBOT",
"message": "string",
"user_name": "string"
},
"connector": {
"id": "string",
"options": {}
},
"document_ids": [
"string"
]
}
]
}