J'apprends des techniques pour assurer la qualité des données SIG. Googler autour, j'ai trouvé quelques articles sur la théorie et les meilleures pratiques ( ici et ici ), et quelques courtes présentations sur le sujet à l'aide des outils ESRI ( ici et ici )
Par exemple, les concepts de «tolérance» et de «précision» sont définis globalement dans ArcGIS (je ne le savais pas), et je pense qu'Oracle gère globalement le concept de «tolérance» également. D'un autre côté, pour autant que je sache, PostGIS n'expose pas le modèle de précision défini par l'utilisateur pris en charge par GEOS, et utilise simplement la pleine précision des nombres à virgule flottante.
Donc, ma question est: quels outils fournis par PostGIS [topologie] peuvent être utilisés pour l'assurance de la qualité des données? Quelqu'un at-il l'expérience de ce sujet? Ou peut-être que je sélectionne juste le mauvais outil pour cela.
la source
Réponses:
Pour les décalages vectoriels, vous pouvez mettre en mémoire tampon dans un rayon, tout ce qui reste aurait besoin d'une assurance qualité manuelle. La qualité a tendance à avoir un élément manuel à moins que vous ne testiez que la régression. L'adresse pointe la même opération. Raster recherche les différences de valeurs entre les données versionnées regroupées, de même avec les mathématiques, de toute manière suffisante pour une vue d'ensemble légère. Idéal en combinaison avec les scripts et les métadonnées des ensembles de données hébergés sur postgresql avec des déclencheurs ou Oracle.
la source