J'essaie d'améliorer les performances de la requête ci-dessous. Peu importe comment j'écris la requête (sous-requête dans la clause FROM, sous-requête dans la clause WHERE) postgres insiste pour exécuter toutes les ~ 570K lignes via la fonction coûteuse ST_DWITHIN même s'il n'y a que 60 lignes où county = 24. Comment puis-je faire filtrer les postgres sur comté = 24 AVANT de parcourir la fonction postgis qui me semble beaucoup plus rapide et beaucoup plus efficace? 700 ms n'est pas trop préoccupant, mais à mesure que ce tableau atteint 10M +, je suis préoccupé par les performances.
À noter également, p.id est une clé primaire, p.zipcode est un index fk, z.county est un index fk et p.geom a un index GiST.
Requete:
EXPLAIN ANALYZE
SELECT count(p.id)
FROM point AS p
LEFT JOIN zipcode AS z
ON p.zipcode = z.zipcode
WHERE z.county = 24
AND ST_DWithin(
p.geom,
ST_SetSRID(ST_Point(-121.479756008715,38.563236291512),4269),
16090.0,
false
)
EXPLIQUEZ L'ANALYSE:
Aggregate (cost=250851.91..250851.92 rows=1 width=4) (actual time=724.007..724.007 rows=1 loops=1)
-> Hash Join (cost=152.05..250851.34 rows=228 width=4) (actual time=0.359..723.996 rows=51 loops=1)
Hash Cond: ((p.zipcode)::text = (z.zipcode)::text)
-> Seq Scan on point p (cost=0.00..250669.12 rows=7437 width=10) (actual time=0.258..723.867 rows=63 loops=1)
Filter: (((geom)::geography && '0101000020AD10000063DF8B52B45E5EC070FB752018484340'::geography) AND ('0101000020AD10000063DF8B52B45E5EC070FB752018484340'::geography && _st_expand((geom)::geography, 16090::double precision)) AND _st_dwithin((g (...)
Rows Removed by Filter: 557731
-> Hash (cost=151.38..151.38 rows=54 width=6) (actual time=0.095..0.095 rows=54 loops=1)
Buckets: 1024 Batches: 1 Memory Usage: 3kB
-> Bitmap Heap Scan on zipcode z (cost=4.70..151.38 rows=54 width=6) (actual time=0.023..0.079 rows=54 loops=1)
Recheck Cond: (county = 24)
Heap Blocks: exact=39
-> Bitmap Index Scan on fki_zipcode_county_foreign_key (cost=0.00..4.68 rows=54 width=0) (actual time=0.016..0.016 rows=54 loops=1)
Index Cond: (county = 24)
Planning time: 0.504 ms
Execution time: 724.064 ms
point
lignes où county = 24 dans une nouvelle table, la requête ne prend que 0,453 ms par rapport à 724, il y a donc certainement une grande différence.count(*)
comme une question de style. Siid
c'est un pkid comme vous le dites, c'est ceNOT NULL
qui signifie qu'ils sont les mêmes. Saufcount(id)
a l'inconvénient que vous devez poser cette question siid
est annulable.Réponses:
Vous pouvez voir le problème avec le nombre de lignes attendu et réel. Le planificateur pense qu'il y a 7 437 lignes, mais il n'y en a que 63. Les statistiques sont fausses. Chose intéressante aussi, il n'utilise pas de recherche d'index (index) de boîte englobante avec laquelle
DWithin
vous pouvez coller le résultat\d point
. Quelle version de PostGIS et PostgreSQL?Essayez de courir
ANALYZE point
. Obtenez-vous le même plan lorsque vous déplacez la condition vers le haut?la source
En remarque, il y a une chance raisonnable que ce comportement soit modifié dans PostGIS 2.3.0 si vous voulez l'appeler bogue.
À partir des documents sur PostgreSQL
Le coût par défaut était donc de 1 (très bon marché).
D_Within
l'utilisation d'un indice GIST est très bon marché. Mais, cela a été porté à 100 (par procuration de l'interne_ST_DWithin
).Je ne suis pas moi-même un grand fan de la méthode CTE. Les CTE sont une barrière d'optimisation. Donc, faire cela de cette façon élimine une certaine possibilité d'optimisation future. Si les paramètres par défaut de saner le corrigent, je préfère mettre à niveau. À la fin de la journée, nous devons faire le travail et cette méthode fonctionne clairement pour vous.
la source
Grâce à l'indice de John Powell, j'ai révisé la requête pour mettre la condition limitante du comté dans une requête avec / CTE et cette performance améliorée un peu à 222 ms contre 700. Encore loin des 0,74 ms que j'obtiens lorsque les données sont dans leur propre table. Je ne sais toujours pas pourquoi le planificateur ne limite pas l'ensemble de données avant d'exécuter une fonction postgis coûteuse, et je devrai essayer avec de plus grands ensembles de données lorsque je les aurai, mais cela semble être une solution à cette situation unique pour l'instant.
la source
Vous devez créer un index sur
zipcode(county, zipcode)
, qui devrait vous donner un scan d'index uniquement sur z.Vous pouvez également vouloir expérimenter avec l'
btree_gist
extension en créant unpoint(zipcode, geom)
index oupoint(geom, zipcode)
et unzipcode(zipcode, county)
index.la source