查询向量
Milvus 支持在集合或分区中查询向量。
在集合中查询向量
创建搜索参数 DSL。搜索参数 DSL 是一个 JSON 字符串,在 Python SDK 中以字典来表示。
# This DSL searches for topk `entities` that are
# closest to vectors[:1] searched by `IVF_FLAT` index with `nprobe = 10` and `metric_type = L2`,
# AND field "A" in [1, 2, 5],
# AND field "B" greater than 1 less than 100
>>> dsl = {
... "bool": {
... "must":[
... {
... "term": {"A": [1, 2, 5]}
... },
... {
... "range": {"B": {"GT": 1, "LT": 100}}
... },
... {
... "vector": {
... "Vec": {"topk": 10, "query": vectors[:1], "metric_type": "L2", "params": {"nprobe": 10}}
... }
... }
... ]
... }
... }
top_k
指的是向量空间中距离目标向量最近的 k 个向量。top_k
的范围为:[1, 16384]。- 对于不同的索引类型,搜索所需参数也有区别。所有的搜索参数都必须赋值。详细信息请参考 Milvus 索引类型。
进行搜索:
>>> client.search('test01', dsl)
你也可以指定搜索结果中返回指定列的值,此处我们获取字段
B
的值:>>> client.search('test01', dsl, fields=["B"])
在分区中查询向量
>>> client.search('test01', dsl, partition_tags=['tag01'])
如果你不指定 partition_tags
, Milvus 会在整个集合中搜索。
常见问题
为什么 Milvus 查询召回率一直不理想? 在调用 SDK 进行向量搜索时,可以增大函数中 nprobe
参数的值。值越大,结果越精确,但耗时也越久。详见 如何设置 Milvus 客户端参数。 Milvus 是否支持 “边插入边查询” ? 支持。 对集合分区的查询是否会受到集合大小的影响,尤其在集合数据量高达一亿数据量时? 不会。如果你在搜索时指定了分区,Milvus 只会在相应分区进行搜索。 如果只是搜索集合中的部分分区,整个集合的数据会全部加载到内存吗? 不会,只加载指定的分区里的数据。 各个数据段的检索是并行处理的吗?
一般而言,Milvus 对单个数据段内的查询是并行的,多个数据段的处理根据发行版本略有不同。
假设一个集合存在多个数据段,当查询请求到达时:
- CPU 版 Milvus 会对数据段读取任务和段内查询任务进行流水线处理。
- GPU 版 Milvus 会在 CPU 版的基础上,将多个数据段分配给各个 GPU 处理。
可参阅文章:Milvus 开源向量搜索引擎 ANNS。
批量搜索时,用多线程的收益大吗? 多线程查询,如果是小批量(nq
< 64)的话,后台会合并查询请求。如果是大批量查询的话,就不会有什么优势。 为什么搜索的速度非常慢? 请首先检查 milvus.yaml 的 cache.cache_size
参数是否大于集合中的数据量。 创建索引立即查询,为什么内存会突然增长? 这是因为 Milvus 在进行搜索时会将新生成的索引文件加载到内存,由于加载的索引文件和用于生成索引文件的原始向量文件总和小于 cache.cache_size
的上限,原始向量数据暂未被系统从内存释放。 为什么重启 Milvus 服务端之后,第一次搜索时间非常长? 重启后第一次搜索时,会将数据从磁盘加载到内存,所以这个时间会比较长。可以在 milvus.yaml 中开启 preload_collection
,在内存允许的情况下尽可能多地加载集合。这样在每次重启服务端之后,数据都会先载入到内存中,可以解决第一次搜索耗时很长的问题。或者在查询前,调用方法 load_collection()
将该集合加载到内存。