-- run 10,000 of these queries
UPDATE mytable SET myflag = 1 WHERE id = [each_id]
或者将更新组合成批量查询,如下所示:
-- run 100 of these queries, where the IN () list contains about 100 elements
UPDATE mytable SET myflag = 1 WHERE id IN (3, 4, 5, 9, 99, ... 7887 )
100个IN()项目的100个查询怎么样?
解决方法:
都不是.在Postgresql中我会改为:
WITH x AS (
SELECT unnest('{1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20
,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40
,41,42,43,44,45,46,47,48,49,50,51,52,53,54,55,56,57,58,59,60
,61,62,63,64,65,66,67,68,69,70,71,72,73,74,75,76,77,78,79,80
,81,82,83,84,85,86,87,88,89,90,91,92,93,94,95,96,97,98,99,100
}'::int[]) AS id
)
UPDATE mytable t
SET myflag = 1
FROM x
WHERE t.id = x.id;
我在我的例子中添加了很多ID,以提供10000个ID很多的视觉线索.问题中提出的两个想法是:
>必须解析列表并将10000个语句放在一起并将它们发送到服务器,这可能需要比UPDATE本身更长的时间.
>必须在mytable中搜索匹配id的每个id的10000个项目的列表(数组).不能使用标准索引.这将非常缓慢.性能随着mytable的大小而降低.
mytable.id上的索引是所有提出的替代需求,其表现优于两个变体.
CTE解析数组一次(子查询也可以工作 – MysqL没有CTE) – 而unnest()
则相当快.在一个语句中完成所有操作可以使10000个语句超过一个数量级.如果这些语句在单个事务中运行,则添加另一个数量级.如果您应该使用单个会话,请添加另一个.
极少数例外情况适用于在写入负载较重的情况下具有锁定问正如已建议的那样只是基准. EXPLAIN ANALYZE是你在Postgresql中的朋友.
如果操作变得越来越大,并且大多数表都被更新和/或你的磁盘空间或内存不足,那么将操作分成几个逻辑块可能仍然是一个好主意 – 只是没有太多,找到甜蜜的点.主要是让HOT updates回收表从之前的UPDATE运行中膨胀.考虑this related question.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。