Qui a une chance contre Google dans la course à l'IA? [fermé]

9

Chez Google I / O, le Google Duplex vient de sortir et lance maintenant une nouvelle voiture publique autonome, Waymo. Je ne peux penser à aucun géant technologique capable de rivaliser avec Google AI autre qu'Amazon. Je pense que d'autres sociétés vont s'associer comme Nvidia, Intel, AMD, etc. Apple semble faire défaut.

Utilisateur moyen légèrement plus élevé
la source

Réponses:

13

Presque tout "gamin dans un garage" pour ainsi dire. Personne ne sait encore comment construire l'IA et une percée majeure pourrait venir de n'importe où. Cela pourrait faire tomber Google de leur perchoir assez facilement.

crime mental
la source
7

N'oubliez pas les nombreuses entreprises chinoises qui investissent massivement dans l'IA.
Non seulement les 3 plus grands (Tencent, Alibaba, Baidu) mais bien d'autres (JD.com, Sina, ...) ainsi que les startups (SenseTime, iCarbonX) sont très actives, dans tous les secteurs de l'IA.

Ils ont quelques avantages pour l'avenir:

  • un marché intérieur immense et en croissance
  • disponibilité de grandes quantités de données associées à des réglementations plus souples en matière de confidentialité des données
  • un fort soutien du gouvernement (sous la forme du plan stratégique de l'IA 2030); combien de pays peuvent même planifier quelque chose de plus de 5 ans?
Mashimo
la source
4

C'est de la pure spéculation de ma part, mais je pense aussi qu'Amazon uniquement, parce que Bezos est un ingénieur / fondateur, se soucie de la part de marché et de l'utilité plutôt que des bénéfices, comprend presque certainement les implications des validations récentes de l'intelligence artificielle étroite et étroite et investira suffisamment pour donner à Google une course pour leur argent.

(Cela tient en partie au succès de Bezos en tant qu'entrepreneur, ce qui est en partie un facteur de sa flexibilité.)

Je ne vois tout simplement pas que cela se produise ailleurs, sans ce type de leadership et de contrôle. Google, en revanche, est et a toujours été une «société d'algorithmes» avant tout, de sorte qu'ils sont en tête presque par défaut.

DukeZhou
la source
3

Je suppose que vous parlez de la race Strong AI ou AGI? Question intéressante, étant donné l'investissement de Google dans la technologie, il semble difficile d'imaginer qu'ils abandonnent le trône à ce stade.

Cependant, il y a certainement des concurrents. Certains qui me viennent à l'esprit sont Amazon, OpenAI, Baidu. Ces entreprises disposent toutes de ressources importantes et disposent d'équipes dédiées à la résolution du problème de l'IA forte.

Un DarkDarkhorse dans la course serait une équipe comme OpenCog / SingularityNet. Ils essaient de construire une IA forte alimentée par la blockchain (Ben Goertzel). Avec suffisamment de calcul et d'ingéniosité, une personne ou une petite équipe pourrait le faire elle-même.

hisairnessag3
la source
3

À mon avis, les plus grandes menaces seraient Nvidia en raison de leur emprise serrée sur le marché des GPU; il leur sera relativement plus facile de rattraper les idées innovantes.

Baidu est à l'horizon bien que leurs recherches à ce stade semblent être spécifiques à un domaine, la PNL pour être précis.

Simbarashe Timothy Motsi
la source
3

Si nous parlons d'IA étroite, les grandes entreprises ont un avantage évident, comme vous le dites. De plus, parce qu'ils ont la capacité d'acheter de petites entreprises exigeantes.

Si nous parlons de l'IA générale, les chances sont égales, la muse apparaîtra quand elle veut à la personne qu'elle veut.

pasaba por aqui
la source
1

Je suis surpris que personne n'ait mentionné IBM. Ils ont d'abord construit DeepBlue et battu le grand maître d'échecs le mieux classé. Puis ils ont écrasé les champions de Jeopardy. Maintenant, ils commercialisent les variantes de Watson.

42-
la source
1

Google peut sembler avoir un fort avantage sur sa concurrence dans l'IA étroite en raison de son acquisition d'autres sociétés d'IA telles que la dynamique de Boston. Google possède également des ensembles de données extrêmement volumineux qui peuvent être analysés par ordinateur pour révéler des modèles, des tendances et des associations, en particulier concernant le comportement humain et les interactions, qui sont utiles comme données de formation lors de la création d'AGI. Cependant, la réalisation de l'objectif d'une AGI est beaucoup plus complexe en termes de quantité de recherche à effectuer, quelle que soit la quantité de données dont vous disposez.

À mon avis, une société de recherche dédiée comme openAI, qui travaille sans but lucratif, peut certainement influencer AGI de manière positive et être un très fort concurrent de Google.

D'un autre côté, la Chine injecte actuellement des milliards et des milliards de dollars dans l'IA, car la Chine est loin derrière le reste du monde dans la course à l'IA. Cependant, ils emploient maintenant des milliers et des milliers des esprits les plus grands et les plus innovants du monde et paient la facture dans le but de gagner plus d'élan dans ce domaine, de suivre le rythme du reste du monde.

La Chine a essentiellement de très bonnes chances de remporter la course à l'IA simplement en raison de la somme d'argent en subventions qu'elle distribue aux chercheurs et aux start-ups de l'IA.

PandaSurge
la source
1

Qui a une chance contre Google dans la course à l'IA?

Le Google TPU est une puce de taille GPU développée pour l'apprentissage en profondeur, c'est un processeur matriciel spécialisé pour les charges de travail des réseaux de neurones.

"Les pods Cloud TPU v3 de dernière génération (plus de 1 000 puces TPU individuelles) sont refroidis par liquide pour des performances maximales, et chacun fournit plus de 100 pétaFLOP de puissance de calcul. En termes d'opérations mathématiques brutes par seconde, un Cloud TPU v3 Le pod est comparable à un des 5 meilleurs supercalculateurs du monde (bien qu'il fonctionne avec une précision numérique inférieure). ".

TPU Google montés sur un re

Les Cerebras puce TSMC plaquette de taille est un énorme dé 46,225mm² qui consume 15kW et paquets 400.000 noyaux, il est dit à offrir les performances d'une ferme d'un millier de processeurs graphiques Nvidia qui peut prendre des mois pour assembler tout en exigeant seulement 2-3% de son espace et puissance.

"L' appareil Cerebras contient 84 tuiles dans une matrice 7x12. Chacun comprend environ 4 800 cœurs adaptés à l'algèbre linéaire clairsemée de l'IA avec 48 Koctets SRAM chacun (un total de 18 Go), leur seule source de mémoire.

  • Bande passante mémoire de 9 pétaoctets / s
  • Bande passante de 100 pétabits / s
  • Optimisation native pour la rareté (pour éviter de multiplier par zéro)
  • Compatibilité logicielle avec les cadres AI standard tels que TensorFlow et PyTorch
  • Cerebras dit qu'il travaille actuellement avec de grands clients pour évaluer le silicium précoce et qu'il espère expédier des serveurs de production en utilisant son WSE d'ici la mi-2020 ".

À titre de comparaison, le Nvidia Tesla V100 mesure 815 mm² avec 21,1 milliards de transistors, tandis que la puce Cerabras mesure 46 225 mm² avec 1,2 billion de transistors, soit 50 fois plus.

Comparaison de la taille de la puce

Oui, c'est une puce; ils ne coupent pas la tranche.

Rob
la source