Quels outils fournis par PostGIS [topologie] peuvent être utilisés pour garantir la qualité des données?

9

J'apprends des techniques pour assurer la qualité des données SIG. Googler autour, j'ai trouvé quelques articles sur la théorie et les meilleures pratiques ( ici et ici ), et quelques courtes présentations sur le sujet à l'aide des outils ESRI ( ici et ici )

Par exemple, les concepts de «tolérance» et de «précision» sont définis globalement dans ArcGIS (je ne le savais pas), et je pense qu'Oracle gère globalement le concept de «tolérance» également. D'un autre côté, pour autant que je sache, PostGIS n'expose pas le modèle de précision défini par l'utilisateur pris en charge par GEOS, et utilise simplement la pleine précision des nombres à virgule flottante.

Donc, ma question est: quels outils fournis par PostGIS [topologie] peuvent être utilisés pour l'assurance de la qualité des données? Quelqu'un at-il l'expérience de ce sujet? Ou peut-être que je sélectionne juste le mauvais outil pour cela.

Jorge Arévalo
la source
Salut. J'ai changé le titre de ce fil pour la vraie question que vous posez dans le texte parce que je pense que c'est une question plus appropriée à laquelle on peut répondre objectivement.
underdark

Réponses:

2

Pour les décalages vectoriels, vous pouvez mettre en mémoire tampon dans un rayon, tout ce qui reste aurait besoin d'une assurance qualité manuelle. La qualité a tendance à avoir un élément manuel à moins que vous ne testiez que la régression. L'adresse pointe la même opération. Raster recherche les différences de valeurs entre les données versionnées regroupées, de même avec les mathématiques, de toute manière suffisante pour une vue d'ensemble légère. Idéal en combinaison avec les scripts et les métadonnées des ensembles de données hébergés sur postgresql avec des déclencheurs ou Oracle.

lewis
la source