Quelqu'un ici a-t-il utilisé le calcul scientifique en double précision avec des GPU de nouvelle génération (par exemple K20) via Python? Je sais que cette technologie évolue rapidement, mais quelle est la meilleure façon de le faire actuellement? Le GPU est hors de portée des bibliothèques...