J'ai écouté un discours d'un panel composé de deux scientifiques chinois influents: Wang Gang et Yu Kai et d'autres.
Interrogé sur le plus gros goulot d'étranglement du développement de l'intelligence artificielle dans un avenir proche (3 à 5 ans), Yu Kai, qui a une formation dans l'industrie du matériel, a déclaré que le matériel serait le problème essentiel et que nous devrions payer la plupart des notre attention à cela. Il nous a donné deux exemples:
- Au tout début du développement de l'ordinateur, nous comparons nos machines par ses puces;
- L'intelligence artificielle qui est très populaire ces années serait presque impossible si elle n'était pas autorisée par le GPU de Nvidia.
Les algorithmes fondamentaux existaient déjà dans les années 1980 et 1990, mais l'intelligence artificielle a traversé 3 hivers AI et n'était pas empirique jusqu'à ce que nous puissions former des modèles avec des méga serveurs boostés par GPU.
Ensuite, le Dr Wang a commenté ses opinions selon lesquelles nous devrions également développer des systèmes logiciels, car nous ne pouvons pas construire une voiture automatique même si nous avons combiné tous les GPU et tous les calculs du monde.
Puis, comme d'habitude, mon esprit s'est éloigné et j'ai commencé à penser que si ceux qui pouvaient utiliser des superordinateurs dans les années 1980 et 1990 utilisaient les algorithmes de réseau neuronal alors en place et les formaient avec des tonnes de données scientifiques? Certaines personnes à ce moment-là peuvent évidemment tenter de construire les systèmes d'IA que nous construisons maintenant. Mais pourquoi l'IA est-elle devenue un sujet brûlant et est-elle devenue empirique des décennies plus tard? S'agit-il uniquement de matériel, de logiciels et de données?
la source
Réponses:
Il y a beaucoup de facteurs pour l'essor de l'industrie de l'IA. Ce que beaucoup de gens manquent cependant, c'est que le boom a principalement été dans la partie Machine Learning de l'IA. Cela peut être attribué à diverses raisons simples ainsi qu'à leurs comparaisons antérieures:
Un autre aspect important est que tout le monde a aujourd'hui accès à des ordinateurs puissants. Ainsi, n'importe qui peut construire de nouveaux modèles ML, réentraîner des modèles préexistants, modifier des modèles, etc. Cela n'était tout à fait pas possible auparavant,
Tous ces facteurs ont conduit à une énorme augmentation de l'intérêt pour le ML et ont provoqué le boom que nous voyons aujourd'hui. Consultez également cette question sur la façon dont nous allons au-delà des processeurs numériques.
la source
Les GPU étaient idéaux pour le boom de l'IA
L'IA est étudiée depuis longtemps. Près d'un demi-siècle. Cependant, c'était toute l'exploration du fonctionnement et de l'apparence des algorithmes. Lorsque NV a vu que l'IA était sur le point de se généraliser, ils ont regardé leurs GPU et se sont rendu compte que l'énorme puissance de traitement parallèle, avec une relative facilité de programmation, était idéale pour l'époque à venir. Beaucoup d'autres personnes l'ont également compris.
GPGPU est un concept d'utilisation du traitement parallèle GPU pour les tâches générales. Vous pouvez accélérer les graphiques ou rendre votre algorithme utliser des milliers de cœurs disponibles sur GPU. Cela fait du GPU une cible impressionnante pour toutes sortes de cas d'utilisation, y compris l'IA. Étant donné qu'ils sont déjà disponibles et ne sont pas trop difficiles à programmer, son choix idéal pour accélérer les algorithmes d'IA.
la source