SentenceTransformersSimilarityRanker
使用此组件根据文档与查询的相似度对文档进行排名。SentenceTransformersSimilarityRanker 是一个强大的、基于模型的 Ranker,它使用交叉编码器模型来生成文档和查询的嵌入。
| pipeline 中的最常见位置 | 在查询管道中,在返回文档列表的组件(例如 Retriever)之后 |
| 必需的初始化变量 | "token"(仅适用于私有模型):Hugging Face API 令牌。可以设置为HF_API_TOKEN 或HF_TOKEN 环境变量设置。 |
| 强制运行变量 | “documents”:文档列表 “query”: 查询字符串 |
| 输出变量 | “documents”:文档列表 |
| API 参考 | Rankers (排序器) |
| GitHub 链接 | https://github.com/deepset-ai/haystack/blob/main/haystack/components/rankers/sentence_transformers_similarity.py |
概述
SentenceTransformersSimilarityRanker 根据文档与查询的相似度对文档进行排名。它使用 Hugging Face Hub 的预训练交叉编码器模型来嵌入查询和文档。然后,它比较这些嵌入以确定它们的相似度。结果是一个按排名顺序排列的Document 对象列表,与查询最相似的文档排在前面。
SentenceTransformersSimilarityRanker 最适合用于查询管道,例如检索增强生成(RAG)管道或文档搜索管道,以确保检索到的文档按相关性排序。您可以在检索器(例如InMemoryEmbeddingRetriever)之后使用它来改进搜索结果。在与检索器一起使用SentenceTransformersSimilarityRanker 时,可以考虑设置检索器的top_k 设置为较小的值。这样,Ranker 需要处理的文档就会更少,这有助于加快管道的处理速度。
默认情况下,此组件使用cross-encoder/ms-marco-MiniLM-L-6-v2 模型,但它是灵活的。您可以修改 Ranker 初始化时的model 参数来切换到不同的模型。有关不同初始化设置的详细信息,请查看此组件的 API 参考。
您可以设置device 参数以在 CPU 或 GPU 上使用 HF 模型。
此外,您还可以使用backend 参数为 Sentence Transformers 模式选择要使用的后端torch(默认),onnx,或openvino.
授权
该组件默认使用HF_API_TOKEN 环境变量。否则,您可以在初始化时通过 Secret 传递 Hugging Face API 令牌。token:
ranker = SentenceTransformersSimilarityRanker(token=Secret.from_token("<your-api-key>"))
用法
单独使用
您可以使用SentenceTransformersSimilarityRanker 在管道之外使用,以根据您的查询对文档进行排序。
此示例使用SentenceTransformersSimilarityRanker 对两个简单文档进行排名。要运行 Ranker,请传递一个查询,提供文档,并在top_k 参数中设置要返回的文档数量。
from haystack import Document
from haystack.components.rankers import SentenceTransformersSimilarityRanker
ranker = SentenceTransformersSimilarityRanker()
docs = [Document(content="Paris"), Document(content="Berlin")]
query = "City in Germany"
ranker.warm_up()
result = ranker.run(query=query, documents=docs)
docs = result["documents"]
print(docs[0].content)
在 pipeline 中
SentenceTransformersSimilarityRanker 在查询管道中使用检索器后效率最高。
以下是一个管道的示例,该管道使用InMemoryDocumentStore 基于关键字搜索(使用InMemoryBM25Retriever)设置要排名的文档数量。然后,它使用SentenceTransformersSimilarityRanker 根据检索到的文档与查询的相似度对它们进行排名。该管道使用 Ranker 的默认设置。
from haystack import Document, Pipeline
from haystack.document_stores.in_memory import InMemoryDocumentStore
from haystack.components.retrievers.in_memory import InMemoryBM25Retriever
from haystack.components.rankers import SentenceTransformersSimilarityRanker
docs = [Document(content="Paris is in France"),
Document(content="Berlin is in Germany"),
Document(content="Lyon is in France")]
document_store = InMemoryDocumentStore()
document_store.write_documents(docs)
retriever = InMemoryBM25Retriever(document_store = document_store)
ranker = SentenceTransformersSimilarityRanker()
ranker.warm_up()
document_ranker_pipeline = Pipeline()
document_ranker_pipeline.add_component(instance=retriever, name="retriever")
document_ranker_pipeline.add_component(instance=ranker, name="ranker")
document_ranker_pipeline.connect("retriever.documents", "ranker.documents")
query = "Cities in France"
document_ranker_pipeline.run(data={"retriever": {"query": query, "top_k": 3},
"ranker": {"query": query, "top_k": 2}})
Ranker top_k
在上面的示例中,检索器和 Ranker 的
top_k值不同。检索器的top_k指定了它返回的文档数量。然后,Ranker 对这些文档进行排序。您可以为 Ranker 设置相同或更小的
top_k值。Ranker 的top_k是它返回的文档数量(如果它是管道中的最后一个组件)或转发到下一个组件的数量。在上面的管道示例中,Ranker 是最后一个组件,因此运行管道时获得的输出是前两个文档,如 Ranker 的top_k.调整
top_k值可以帮助您优化性能。在这种情况下,检索器较小的top_k值意味着 Ranker 需要处理的文档更少,这可以加快管道的运行速度。
更新于 5 个月前
