J'ai cherché des algorithmes de détection de marqueurs à utiliser avec une application basée sur Kinect, et la majorité du travail que j'ai pu trouver est évidemment axée sur la détection de fonctionnalités dans des images `` normales ''.
Cependant, le matériel kinect fournit (essentiellement, une fois que vous avez ajusté) une valeur de profondeur de 11 bits par pixel.
Cette image de profondeur contient également divers artefacts visuels provenant des ombres projetées autour des bords des objets (voir par exemple la forte bordure noire dans cette vidéo http://www.youtube.com/watch?v=-q8rRk8Iqww&feature=related ).
Alors que certaines techniques traditionnelles de vision industrielle (par exemple la détection des bords) fonctionnent bien avec cela, d'autres non, et il semble qu'il y ait peu d'informations sur le net en discutant.
À titre d'exemple simple, l'utilisation de la valeur de profondeur rend trivial la détection de l'orientation d'un bloc marqueur une fois que vous l'avez localisé.
Alors, quelqu'un a-t-il vu des discussions / documents / etc. qui couvrent le traitement d'une image en profondeur pour la détection des fonctionnalités?
Quelqu'un peut-il recommander un bon algorithme pour détecter les marqueurs de "profondeur" (en fait des blocs d'origami au lieu de marqueurs noir et blanc imprimés)?
Ce que j'ai fait jusqu'à présent est une expérimentation adhoc utilisant l'opencv pour traiter les images, mais ce n'est pas assez stable ou assez rapide.
Si vous créez un lien vers un produit commercial de vision industrielle sans aucune sorte d'essai, veuillez indiquer dans votre réponse pourquoi vous pensez qu'il est approprié.
la source
Réponses:
Mon descripteur de fonctionnalité 2.5D / 3D préféré pour l'enregistrement et la reconnaissance est l' image de rotation (papier original + plus de détails dans la thèse de doctorat et le logiciel disponibles auprès de la CMU).
D'autres avancées récentes (toutes consultables en ligne pour les algorithmes appropriés) incluent: 3D-Sift, Histogramme d'entités ponctuelles rapides, Entités radiales alignées normales (NARF), Descripteurs du noyau de profondeur. Les méthodes plus anciennes utilisaient simplement des propriétés de surface telles que la courbure et les bords pour identifier les taches de région.
Quel est le meilleur? Dépend de ce que vous voulez trouver, de l'invariance du point de vue, de l'encombrement supplémentaire, etc.
la source
Vous avez tous les bons mots clés, je suis surpris que vous n'ayez vraiment trouvé aucun article connexe lors de la recherche de matériel.
Heureusement, j'ai accès à la bibliothèque numérique IEEE Xplore. Je n'ai besoin d'aucun de ces algorithmes particuliers auparavant, mais cela semble très intéressant, alors voici quelques résultats d'une recherche rapide qui pourraient être pertinents (ne les jugez pas par leurs titres, regardez leurs résumés):
Malheureusement, je ne pense pas que vous puissiez accéder gratuitement à ces documents, du moins pas via la bibliothèque IEEE Xplore. Si vous n'y avez pas accès, vous pouvez probablement vous débrouiller avec Google scholar , et il existe des bases de données papier gratuites (j'ai utilisé la base de données Mendeley lorsque je n'avais pas encore accès à l'IEEE). De plus, le simple fait de googler des parties du résumé ou des parties aléatoires du document donne parfois des résultats (vous pouvez tomber sur une version pré-publiée presque terminée de l'article).
Les requêtes de recherche je trouvais les documents mentionnés sont: l' image 3D , l' image en profondeur , kinect . Vous souhaiterez peut-être également lancer le traitement lors de la recherche des deux premières requêtes.
J'espère que cela aide certains! Je suis désolé de ne plus pouvoir entrer dans le sujet, cela semble vraiment intéressant.
la source