La recrudescence de l'AIGC a enflammé le grand modèle, ainsi que l'ensemble de la piste des puces AI. Cependant, celui qui en a le plus profité est Nvidia, qui détient des puces AI hautes performances. En tant que matériel nécessaire à la formation de l'IA, les puces haut de gamme de Nvidia sont instantanément populaires, et même "une carte est difficile à trouver".
Cette semaine, le "Financial Times" britannique a rapporté qu'afin d'assurer la victoire dans la "Guerre des 100 modèles", les géants de l'Internet représentés par Baidu, Tencent, Alibaba et ByteDance ont passé une commande importante de 5 milliards de dollars auprès de Nvidia en un souffle. , pour concourir pour les puces AI hautes performances. En fait, non seulement les entreprises chinoises, mais aussi OpenAI étrangères, Google, META, Amazon, etc., toutes les entreprises engagées dans l'IA générative s'appuient fortement sur les puces AI de Nvidia pour la formation.
Selon les statistiques, à l'heure actuelle, Nvidia occupe 80% à 95% du marché mondial des puces informatiques AI. Le monopole absolu du marché a apporté d'énormes avantages à Nvidia. Depuis le début de 2023, l'action Nvidia a augmenté de 170 %. En seulement une semaine après la publication par Nvidia de son rapport financier du premier trimestre 2023, le cours de son action a grimpé de plus de 25 %. À la fin du mois de mai, le cours de l'action de Nvidia a atteint un niveau record de 419,38 USD et **est devenu la première société de puces au monde avec une valeur marchande de plus de 1 000 milliards de dollars américains. **
Défiant Nvidia, cette licorne a levé 100 millions de dollars supplémentaires
Là où il y a un monopole, il y aura des challengers. Tenstorrent, une start-up canadienne de puces IA, est une entreprise de pointe qui ose défier les géants.
Puce AI de Tenstorrent (photo de tomshardware.com)
Reuters a récemment rapporté que Tenstorrent avait réussi à lever 100 millions de dollars auprès de fonds d'investissement de Hyundai Motor Group et de Samsung. Les fonds seront utilisés pour les dépenses et les investissements de l'équipe de recherche et développement, tels que le développement de puces d'intelligence artificielle (Chiplets) et la formulation de sa feuille de route logicielle d'apprentissage automatique.
Ce cycle de financement est le septième cycle de financement de Tenstorrent à ce jour. Contrairement au passé, la source de ce cycle de financement ne provient pas d'institutions de capital-risque traditionnelles, mais d'acteurs tels que Hyundai et Samsung.
Le financement de ce cycle est divisé en trois tranches : 30 millions de dollars de Hyundai Motor Group, 20 millions de dollars de Kia Motors et 50 millions de dollars de Samsung Catalyst Fund et d'autres investisseurs, dont Fidelity Ventures, Eclipse Ventures, Epiq Capital et Maverick Capital et al.
Avant cette ronde de financement, Tenstorrent avait levé 234,5 millions de dollars et était évalué à 1 milliard de dollars, ce qui en faisait une licorne parvenue. Jusqu'à présent, Tenstorrent a levé un total de plus de 350 millions de dollars américains, et la dernière évaluation devrait augmenter à plus de 1,4 milliard de dollars américains.
Heung-so Kim, vice-président exécutif et chef du Bureau de la stratégie mondiale (GSO) du groupe Hyundai Motor, a déclaré : « Le potentiel de croissance élevé de Tenstorrent et les puces IA hautes performances aideront le groupe à sécuriser des technologies compétitives pour la mobilité future. Grâce à cet investissement , le groupe espère développer et optimiser la technologie des semi-conducteurs différenciés pour aider au développement des futures voitures intelligentes, et en même temps améliorer les capacités internes de développement de la technologie de l'intelligence artificielle."
Marco Chisari, vice-président exécutif de Samsung Electronics et responsable du Samsung Semiconductor Innovation Center, a également souligné : « La technologie de pointe de Tenstorrent, son leadership exécutif et sa feuille de route agressive nous ont incités à co-diriger cette ronde de financement. Nous sommes ravis sur l'opportunité de s'associer à Tenstorrent.", pour accélérer l'IA et l'innovation informatique."
En plus de l'affirmation de cette entreprise de pointe, ce qui a réellement attiré l'attention des partenaires de l'industrie et des investisseurs a été l'ajout de Jim Keller, une légende dans le domaine des puces.
Éliminez les forts et aidez les faibles, les gens leur donnent le surnom de Silicon Valley Ranger
Pour Jim Keller, la plupart des gens n'en ont peut-être pas entendu parler, mais si son nom est mentionné dans l'industrie des puces, je pense que beaucoup de gens le considéreront comme un "dieu". Il travaille dans l'industrie depuis près de 40 ans et a soutenu des géants de la technologie tels qu'AMD, Intel, Apple et Tesla. Certaines personnes de l'industrie ont ridiculisé le fait qu'il s'occupait du développement équilibré de l'industrie des puces, alors il s'appelait "Silicon Valley Ranger".
En 1984, Jim Keller s'est consacré à l'industrie des puces après avoir obtenu un baccalauréat en génie électrique de la Pennsylvania State University. Bien qu'il n'ait pas étudié pour les études supérieures, il était très talentueux et comptait sur sa force pour prospérer dans l'industrie des puces où il n'y avait que des talents hautement qualifiés, et il était capable de "marcher de côté" parmi les principaux géants des puces, ce qui le rendait une légende de sa génération.
Après avoir obtenu son diplôme, Jim Keller a d'abord rejoint DEC, qui était à l'honneur à l'époque, et y a travaillé pendant 15 ans. Au cours de cette période, Jim Keller est progressivement passé d'un novice en matière de puces à un architecte de puces capable de jouer son propre rôle. Il a participé et dirigé la conception des processeurs Alpha 21164 et 21264, qui ont eu un impact profond sur de nombreux architectes et designers à l'avenir.
Après avoir quitté DEC, Jim Keller a commencé sa vie dans la conception de puces. En 1998, il rejoint AMD, participe au développement du processeur AMD Athlon (K7) et devient l'architecte du processeur K8. Grâce à l'architecture K8, AMD a la force de concurrencer Intel pour la première fois. Parallèlement, il participe à la conception de l'architecture du X86-64, faisant pour la première fois AMD surpasser Intel sur le plan technique. Deux réalisations ont rendu Jim Keller célèbre.
En 1999, Jim Keller a rejoint Sibyte, s'est engagé dans la recherche et le développement de processeurs réseau basés sur l'architecture MIPS et a conçu une puce MIPS avec une interface réseau de 1 Gbit/s. À son insu à l'époque, l'architecture formelle MIPS a jeté les bases des futures puces Apple de la série A. En 2004, il quitte pour rejoindre PA Semi.
En 2008, Apple a acquis PA Semi, et Jim Keller est naturellement entré chez Apple et a participé à la conception des puces auto-développées d'Apple. Au cours de son mandat, il a dirigé la conception des processeurs mobiles de deux générations A4 et A5, qui ont été appliqués à l'iPhone 4/4, à l'iPad/iPad2 et à d'autres appareils, et sont devenus le point de départ des puces auto-développées de la série A d'Apple. On dit que Jobs est très satisfait de ces deux puces auto-développées. Parce que l'iPhone 3 utilisait auparavant des puces Samsung, c'est un grand pas en avant pour Jobs de pouvoir utiliser des puces personnalisées faites par lui-même. Mais Jim Keller n'a pas raté les réalisations. Lorsque les puces de la série A d'Apple étaient en vogue, il a choisi de revenir à AMD.
En 2012, AMD était loin derrière Intel dans la conception des processeurs PC. Jim Keller a décidé de retourner dans son ancien club vaincu et a dirigé le développement d'une micro-architecture révolutionnaire nommée Zen (Zen). L'architecture Zen prétendait augmenter les performances des processeurs AMD de 40%, mais beaucoup de gens n'y croyaient pas à l'époque, pensant que c'était une exagération, mais les faits ont tout prouvé. Zen est devenue l'architecture la plus célèbre de l'histoire d'AMD, renversant la tendance d'un seul coup et aidant AMD à retrouver sa position de leader sur le marché des processeurs x86-64 haut de gamme. Jim Keller a également gagné la réputation de "Père du Zen".
En 2015, Jim Keller a de nouveau pris sa retraite et a quitté AMD. Et cette fois, il rejoindra Tesla pour aider Elon Musk. Après avoir travaillé chez Tesla pendant trois ans, il a développé et conçu une puce d'intelligence artificielle pour la conduite autonome - Autopilot, qui aurait expédié 1 million d'unités, créant ainsi une base matérielle permettant à Tesla de réaliser une conduite entièrement autonome.
En 2018, face à Intel, qui a perdu sa position de leader dans l'industrie des puces, Jim Keller est revenu pour l'aider à nouveau. A occupé le poste de vice-président principal, dirigeant la recherche et le développement de l'architecture NGC du projet d'exploration frontalière, afin de planifier à l'avance pour les dix prochaines années. On dit que chez Intel, il a dirigé pas moins de 10 000 ingénieurs, et on estime que personne ne pourra battre ce record.
Quand vient le temps de 2021, Nvidia tue tous les côtés avec l'A100 (la puce AI la plus performante de l'industrie à l'époque), et il n'y a pas d'adversaire. Mais le "Ranger" ne supportait pas le sable dans ses yeux. Jim Keller a décidé de quitter Intel pour se lancer dans les puces IA, il a donc rejoint la société Tenstorrent susmentionnée et en est actuellement le PDG.
À en juger par son curriculum vitae, Jim Keller a participé à la recherche et au développement de puces avec différents jeux d'instructions tels que Alpha, MIPS, X86, AI et ARM pendant près de 40. On peut dire qu'il a parcouru tous les jeux d'instructions courants. . Depuis qu'il a rejoint Tenstorrent, il a aidé l'entreprise à se faire rapidement une réputation dans l'industrie des puces IA entourée d'ennemis puissants et a levé des financements, je pense que cela a quelque chose à voir avec la participation de ce maître de la conception de puces.
Les veaux nouveau-nés n'ont pas peur des tigres, les puces IA inaugurent les challengers
Tenstorrent a été fondée en 2016 par les ex-AMD Ljubisa Bajic, Milos Trajkovic et Ivan Hamer.Avec environ 70 employés à Toronto et Austin, c'est une véritable "petite entreprise". Cependant, les membres clés de l'entreprise ont tous une formation en conception de puces, et ils peuvent même être appelés "l'équipe de conception de puces". En plus du Jim Keller présenté ci-dessus, le fondateur Ljubisa Bajic était un architecte senior de Nvidia et AMD, mais a maintenant annoncé sa retraite et s'est tourné vers le rôle de consultant, et continuera d'explorer les solutions d'IA de nouvelle génération.
Raja Koduri, un ancien collègue de l'ancien architecte en chef de Jim Keller chez Intel, a également rejoint le conseil d'administration de Tenstorrent. Il a apporté de nombreuses contributions à la technologie et à l'architecture d'Intel, notamment en mettant sur le marché 3 nouvelles gammes de produits graphiques hautes performances en 2022. "Il est l'une des rares personnes de l'industrie à comprendre tous les aspects de l'activité CPU, GPU, IA et semi-conducteurs, et constitue un atout majeur pour la croissance commerciale de Tenstorrent", a présenté Jim Keller.
De plus, l'architecte en chef de Tenstorrent Ascalon est Wei-Han Lien, qui était l'un des concepteurs responsables de la microarchitecture CPU "large" d'Apple, qui peut exécuter jusqu'à 8 instructions par horloge. Les SoC A14 et M1 d'Apple, par exemple, disposent de huit cœurs de processeur Firestorm larges et hautes performances, et deux ans après leur introduction, ils figurent toujours parmi les conceptions les plus économes en énergie du secteur. Lien est peut-être l'un des meilleurs experts de la microarchitecture de processeur "large" de l'industrie, et il serait le seul concepteur de processeurs à avoir dirigé une équipe d'ingénieurs pour développer un cœur de processeur hautes performances RISC-V à huit largeurs.
Après avoir compris l'épine dorsale de l'équipe, jetons un coup d'œil aux produits de Tenstorrent. Ils prévoient de développer des puces RISC-V et AI sous la forme de conceptions hétérogènes et Chiplet. À l'heure actuelle, Tenstorrenst a développé des puces Grayskull et Wormhole basées sur un processus de 12 nm, avec une puissance de calcul FP8 allant jusqu'à 328 TFlops. Parmi eux, Grayskull contient 120 cœurs personnalisés, avec une puissante matrice de cœurs de traitement TENSIX, chaque cœur TENSIX a des fonctions frontales entièrement programmables en C++, multithread, moteur de calcul matriciel à haute surface et efficacité énergétique, moteur SIMD puissant et flexible, etc. . La société lancera également dans un proche avenir la puce informatique ML autonome Black Hole, construite à l'aide d'un processus de 6 nm et basée sur l'architecture SiFive RISC-V X-280 pour l'informatique hétérogène, dont le lancement est prévu cette année. Pendant ce temps, la pile logicielle entière ne compte qu'environ 50 000 lignes de code. Contrairement à la plupart des autres circuits intégrés spécifiques à l'IA (ASIC) qui nécessitent un processus de développement personnalisé, Tenstorrent est très adaptable et flexible, prenant en charge toutes les principales chaînes d'outils, cadres et runtimes. Ainsi, le plus grand avantage de Nvidia, qui est extrêmement facile à développer, est remis en question.
En termes de puces AI hautes performances, Tenstorrent prévoit de lancer une conception hautes performances hautement configurable qui peut être comparée à la dernière plate-forme GH200 Grace Hopper de Nvidia en 2024 grâce à une combinaison de puces CPU 3 nm et de puces ML/AI. Il y a 16 cœurs côté CPU, tandis que le chiplet AI contient 40 cœurs. Le groupe de puces AI et la puce CPU ont chacun quatre puces mémoire, et l'ensemble du chipset est connecté à la puce IO pour étendre des fonctions telles que PCIe.
Selon Jim Keller, **L'objectif de Tenstorrent est d'être 5 à 10 fois moins cher que les systèmes GPU aux performances similaires. **Nous utilisons beaucoup moins de bande passante mémoire car nous avons un compilateur graphique et notre architecture est plus une machine à flux de données qu'un GPU, donc les données sont envoyées d'un élément de traitement à un autre très rapidement. Cela évite l'utilisation d'interposeurs de silicium HBM coûteux. Dans le même temps, nos puces ont des ports réseau, qui sont propices à la formation de clusters à grande échelle via des câbles réseau pour une expansion horizontale sans utiliser d'autres commutateurs. Techniquement, c'est l'une des raisons pour lesquelles notre approche est moins chère que celle de Nvidia. De plus, nous soutenons également le transfert de licence de technologie ouverte, ce qui est pratique pour tout le monde pour construire une écologie.
** La piste de puces AI a inauguré une nouvelle tendance, le nombre de joueurs nationaux **
Bien que les challengers ne doivent pas être sous-estimés, Nvidia occupe toujours une position de leader absolu dans le domaine des puces IA, occupant la grande majorité des parts de marché dans les scénarios de formation et de raisonnement cloud. En plus de Nvidia, il y a AMD et Intel. Cependant, avec le développement vigoureux de notre pays, de nombreuses entreprises nationales se sont engagées dans cette voie ces dernières années et ont progressivement progressé.
Selon les prévisions d'IDC, l'échelle de la puissance de calcul de l'IA en Chine maintiendra une croissance rapide et devrait atteindre 1271,4 EFLOPS d'ici 2026, avec un CAGRA (2022-2026) de 52,3 %. Dans ce contexte, IDC prédit que l'informatique hétérogène deviendra la tendance dominante. Au cours des 18 prochains mois, le taux de chargement des GPU, ASIC et FPGA dans les serveurs mondiaux d'intelligence artificielle augmentera. En 2025, la taille du marché des puces d'IA atteindra 72,6 milliards de dollars américains. Des entreprises nationales telles que Cambrian, Pingtouge et d'autres acteurs de l'ère 1.0 sont désormais devenues des sociétés cotées dotées de puces de puissance de calcul d'IA de haute qualité. De plus, de plus en plus de start-ups de puces IA se joignent activement, y compris des capitaux de toutes parts augmentant les investissements dans ce domaine.
En prenant 2022 comme exemple, de nombreuses entreprises telles que Moore Thread, Tianshu Zhixin, Muxi, Denglin Technology, Shenliu Microelectronics, Lingjiu Microelectronics et Lisuan Technology ont obtenu un financement en capital. Parmi eux, Moore Thread 1,5 milliard, Tianshu Zhixin Chao 1 milliard et Mu Xi 1 milliard.Le montant de financement de ces trois sociétés est relativement important.
Fondée en octobre 2020, Moore Thread est une société de circuits intégrés qui se concentre sur la conception de puces GPU complètes. À l'heure actuelle, Moore Thread a publié deux puces GPU multifonctions basées sur son architecture système unifiée MUSA - "Sudi" et "Chunxiao", ainsi qu'une série de piles logicielles GPU et d'outils d'application.
Tianshu Zhixin a annoncé en juillet 2022 avoir achevé le cycle de financement C + et C ++ dépassant 1 milliard de yuans. La société est un fournisseur de R&D et de production de puces GPGPU haut de gamme et de systèmes informatiques hautes performances.En 2018, elle a commencé la recherche et le développement de puces GPGPU 7 nm dans le cloud. En mars 2021, le produit GPU à usage général de formation en nuage de 7 nm - Tiangai 100 sera officiellement lancé. Fin mars 2022, Tiangai 100 avait réalisé des commandes de près de 200 millions de yuans et mis en œuvre plus de 200 scénarios d'application.
Le 5 juillet 2022, Mu Xi a annoncé l'achèvement du cycle de financement pré-B de 1 milliard de RMB. Il s'agit du cinquième tour de financement de Muxi après sa création en septembre 2020, avec un investissement total de plus de 2 milliards de yuans. La première puce GPU polyvalente hautes performances de Muxi a été enregistrée avec succès en janvier 2022. Elle adopte un processus de 7 nm et se concentre sur le raisonnement de l'IA. Elle peut être appliquée à l'intelligence artificielle, à la conduite autonome, à l'automatisation industrielle et manufacturière, aux villes intelligentes, au langage naturel le traitement, l'informatique Edge et d'autres domaines devraient être produits en série en 2023, et la recherche et le développement de puces haut de gamme pouvant être appliquées à la formation à l'IA et au calcul scientifique sont entrés dans la phase finale.
A l'ère des grands modèles, la puissance de calcul est devenue une infrastructure cruciale. Afin de répondre à la concurrence féroce de l'IA et du HPC sur le marché, il est nécessaire d'obtenir un support de puissance de calcul à la fois performant et polyvalent. Alors que la liaison entre l'algorithme d'IA et l'architecture des puces devient de plus en plus profonde, nous nous attendons à voir de plus en plus d'entreprises nationales de puces d'IA telles que Tenstorrent qui osent défier les géants, réaliser des innovations structurelles dans la technologie et faire des progrès dans l'écologie étape par étape. . Bien sûr, nous attendons également avec impatience l'afflux actif de capitaux de toutes les parties pour créer une situation gagnant-gagnant.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Défiant Nvidia, cette licorne a levé 100 millions de dollars supplémentaires
Source originale : Rongzhong Finance
Auteur : Zheng Wei
La recrudescence de l'AIGC a enflammé le grand modèle, ainsi que l'ensemble de la piste des puces AI. Cependant, celui qui en a le plus profité est Nvidia, qui détient des puces AI hautes performances. En tant que matériel nécessaire à la formation de l'IA, les puces haut de gamme de Nvidia sont instantanément populaires, et même "une carte est difficile à trouver".
Cette semaine, le "Financial Times" britannique a rapporté qu'afin d'assurer la victoire dans la "Guerre des 100 modèles", les géants de l'Internet représentés par Baidu, Tencent, Alibaba et ByteDance ont passé une commande importante de 5 milliards de dollars auprès de Nvidia en un souffle. , pour concourir pour les puces AI hautes performances. En fait, non seulement les entreprises chinoises, mais aussi OpenAI étrangères, Google, META, Amazon, etc., toutes les entreprises engagées dans l'IA générative s'appuient fortement sur les puces AI de Nvidia pour la formation.
Selon les statistiques, à l'heure actuelle, Nvidia occupe 80% à 95% du marché mondial des puces informatiques AI. Le monopole absolu du marché a apporté d'énormes avantages à Nvidia. Depuis le début de 2023, l'action Nvidia a augmenté de 170 %. En seulement une semaine après la publication par Nvidia de son rapport financier du premier trimestre 2023, le cours de son action a grimpé de plus de 25 %. À la fin du mois de mai, le cours de l'action de Nvidia a atteint un niveau record de 419,38 USD et **est devenu la première société de puces au monde avec une valeur marchande de plus de 1 000 milliards de dollars américains. **
Défiant Nvidia, cette licorne a levé 100 millions de dollars supplémentaires
Là où il y a un monopole, il y aura des challengers. Tenstorrent, une start-up canadienne de puces IA, est une entreprise de pointe qui ose défier les géants.
Reuters a récemment rapporté que Tenstorrent avait réussi à lever 100 millions de dollars auprès de fonds d'investissement de Hyundai Motor Group et de Samsung. Les fonds seront utilisés pour les dépenses et les investissements de l'équipe de recherche et développement, tels que le développement de puces d'intelligence artificielle (Chiplets) et la formulation de sa feuille de route logicielle d'apprentissage automatique.
Ce cycle de financement est le septième cycle de financement de Tenstorrent à ce jour. Contrairement au passé, la source de ce cycle de financement ne provient pas d'institutions de capital-risque traditionnelles, mais d'acteurs tels que Hyundai et Samsung.
Le financement de ce cycle est divisé en trois tranches : 30 millions de dollars de Hyundai Motor Group, 20 millions de dollars de Kia Motors et 50 millions de dollars de Samsung Catalyst Fund et d'autres investisseurs, dont Fidelity Ventures, Eclipse Ventures, Epiq Capital et Maverick Capital et al.
Avant cette ronde de financement, Tenstorrent avait levé 234,5 millions de dollars et était évalué à 1 milliard de dollars, ce qui en faisait une licorne parvenue. Jusqu'à présent, Tenstorrent a levé un total de plus de 350 millions de dollars américains, et la dernière évaluation devrait augmenter à plus de 1,4 milliard de dollars américains.
Heung-so Kim, vice-président exécutif et chef du Bureau de la stratégie mondiale (GSO) du groupe Hyundai Motor, a déclaré : « Le potentiel de croissance élevé de Tenstorrent et les puces IA hautes performances aideront le groupe à sécuriser des technologies compétitives pour la mobilité future. Grâce à cet investissement , le groupe espère développer et optimiser la technologie des semi-conducteurs différenciés pour aider au développement des futures voitures intelligentes, et en même temps améliorer les capacités internes de développement de la technologie de l'intelligence artificielle."
Marco Chisari, vice-président exécutif de Samsung Electronics et responsable du Samsung Semiconductor Innovation Center, a également souligné : « La technologie de pointe de Tenstorrent, son leadership exécutif et sa feuille de route agressive nous ont incités à co-diriger cette ronde de financement. Nous sommes ravis sur l'opportunité de s'associer à Tenstorrent.", pour accélérer l'IA et l'innovation informatique."
En plus de l'affirmation de cette entreprise de pointe, ce qui a réellement attiré l'attention des partenaires de l'industrie et des investisseurs a été l'ajout de Jim Keller, une légende dans le domaine des puces.
Éliminez les forts et aidez les faibles, les gens leur donnent le surnom de Silicon Valley Ranger
Pour Jim Keller, la plupart des gens n'en ont peut-être pas entendu parler, mais si son nom est mentionné dans l'industrie des puces, je pense que beaucoup de gens le considéreront comme un "dieu". Il travaille dans l'industrie depuis près de 40 ans et a soutenu des géants de la technologie tels qu'AMD, Intel, Apple et Tesla. Certaines personnes de l'industrie ont ridiculisé le fait qu'il s'occupait du développement équilibré de l'industrie des puces, alors il s'appelait "Silicon Valley Ranger".
En 1984, Jim Keller s'est consacré à l'industrie des puces après avoir obtenu un baccalauréat en génie électrique de la Pennsylvania State University. Bien qu'il n'ait pas étudié pour les études supérieures, il était très talentueux et comptait sur sa force pour prospérer dans l'industrie des puces où il n'y avait que des talents hautement qualifiés, et il était capable de "marcher de côté" parmi les principaux géants des puces, ce qui le rendait une légende de sa génération.
Après avoir obtenu son diplôme, Jim Keller a d'abord rejoint DEC, qui était à l'honneur à l'époque, et y a travaillé pendant 15 ans. Au cours de cette période, Jim Keller est progressivement passé d'un novice en matière de puces à un architecte de puces capable de jouer son propre rôle. Il a participé et dirigé la conception des processeurs Alpha 21164 et 21264, qui ont eu un impact profond sur de nombreux architectes et designers à l'avenir.
Après avoir quitté DEC, Jim Keller a commencé sa vie dans la conception de puces. En 1998, il rejoint AMD, participe au développement du processeur AMD Athlon (K7) et devient l'architecte du processeur K8. Grâce à l'architecture K8, AMD a la force de concurrencer Intel pour la première fois. Parallèlement, il participe à la conception de l'architecture du X86-64, faisant pour la première fois AMD surpasser Intel sur le plan technique. Deux réalisations ont rendu Jim Keller célèbre.
En 1999, Jim Keller a rejoint Sibyte, s'est engagé dans la recherche et le développement de processeurs réseau basés sur l'architecture MIPS et a conçu une puce MIPS avec une interface réseau de 1 Gbit/s. À son insu à l'époque, l'architecture formelle MIPS a jeté les bases des futures puces Apple de la série A. En 2004, il quitte pour rejoindre PA Semi.
En 2008, Apple a acquis PA Semi, et Jim Keller est naturellement entré chez Apple et a participé à la conception des puces auto-développées d'Apple. Au cours de son mandat, il a dirigé la conception des processeurs mobiles de deux générations A4 et A5, qui ont été appliqués à l'iPhone 4/4, à l'iPad/iPad2 et à d'autres appareils, et sont devenus le point de départ des puces auto-développées de la série A d'Apple. On dit que Jobs est très satisfait de ces deux puces auto-développées. Parce que l'iPhone 3 utilisait auparavant des puces Samsung, c'est un grand pas en avant pour Jobs de pouvoir utiliser des puces personnalisées faites par lui-même. Mais Jim Keller n'a pas raté les réalisations. Lorsque les puces de la série A d'Apple étaient en vogue, il a choisi de revenir à AMD.
En 2012, AMD était loin derrière Intel dans la conception des processeurs PC. Jim Keller a décidé de retourner dans son ancien club vaincu et a dirigé le développement d'une micro-architecture révolutionnaire nommée Zen (Zen). L'architecture Zen prétendait augmenter les performances des processeurs AMD de 40%, mais beaucoup de gens n'y croyaient pas à l'époque, pensant que c'était une exagération, mais les faits ont tout prouvé. Zen est devenue l'architecture la plus célèbre de l'histoire d'AMD, renversant la tendance d'un seul coup et aidant AMD à retrouver sa position de leader sur le marché des processeurs x86-64 haut de gamme. Jim Keller a également gagné la réputation de "Père du Zen".
En 2015, Jim Keller a de nouveau pris sa retraite et a quitté AMD. Et cette fois, il rejoindra Tesla pour aider Elon Musk. Après avoir travaillé chez Tesla pendant trois ans, il a développé et conçu une puce d'intelligence artificielle pour la conduite autonome - Autopilot, qui aurait expédié 1 million d'unités, créant ainsi une base matérielle permettant à Tesla de réaliser une conduite entièrement autonome.
En 2018, face à Intel, qui a perdu sa position de leader dans l'industrie des puces, Jim Keller est revenu pour l'aider à nouveau. A occupé le poste de vice-président principal, dirigeant la recherche et le développement de l'architecture NGC du projet d'exploration frontalière, afin de planifier à l'avance pour les dix prochaines années. On dit que chez Intel, il a dirigé pas moins de 10 000 ingénieurs, et on estime que personne ne pourra battre ce record.
Quand vient le temps de 2021, Nvidia tue tous les côtés avec l'A100 (la puce AI la plus performante de l'industrie à l'époque), et il n'y a pas d'adversaire. Mais le "Ranger" ne supportait pas le sable dans ses yeux. Jim Keller a décidé de quitter Intel pour se lancer dans les puces IA, il a donc rejoint la société Tenstorrent susmentionnée et en est actuellement le PDG.
À en juger par son curriculum vitae, Jim Keller a participé à la recherche et au développement de puces avec différents jeux d'instructions tels que Alpha, MIPS, X86, AI et ARM pendant près de 40. On peut dire qu'il a parcouru tous les jeux d'instructions courants. . Depuis qu'il a rejoint Tenstorrent, il a aidé l'entreprise à se faire rapidement une réputation dans l'industrie des puces IA entourée d'ennemis puissants et a levé des financements, je pense que cela a quelque chose à voir avec la participation de ce maître de la conception de puces.
Les veaux nouveau-nés n'ont pas peur des tigres, les puces IA inaugurent les challengers
Tenstorrent a été fondée en 2016 par les ex-AMD Ljubisa Bajic, Milos Trajkovic et Ivan Hamer.Avec environ 70 employés à Toronto et Austin, c'est une véritable "petite entreprise". Cependant, les membres clés de l'entreprise ont tous une formation en conception de puces, et ils peuvent même être appelés "l'équipe de conception de puces". En plus du Jim Keller présenté ci-dessus, le fondateur Ljubisa Bajic était un architecte senior de Nvidia et AMD, mais a maintenant annoncé sa retraite et s'est tourné vers le rôle de consultant, et continuera d'explorer les solutions d'IA de nouvelle génération.
Raja Koduri, un ancien collègue de l'ancien architecte en chef de Jim Keller chez Intel, a également rejoint le conseil d'administration de Tenstorrent. Il a apporté de nombreuses contributions à la technologie et à l'architecture d'Intel, notamment en mettant sur le marché 3 nouvelles gammes de produits graphiques hautes performances en 2022. "Il est l'une des rares personnes de l'industrie à comprendre tous les aspects de l'activité CPU, GPU, IA et semi-conducteurs, et constitue un atout majeur pour la croissance commerciale de Tenstorrent", a présenté Jim Keller.
De plus, l'architecte en chef de Tenstorrent Ascalon est Wei-Han Lien, qui était l'un des concepteurs responsables de la microarchitecture CPU "large" d'Apple, qui peut exécuter jusqu'à 8 instructions par horloge. Les SoC A14 et M1 d'Apple, par exemple, disposent de huit cœurs de processeur Firestorm larges et hautes performances, et deux ans après leur introduction, ils figurent toujours parmi les conceptions les plus économes en énergie du secteur. Lien est peut-être l'un des meilleurs experts de la microarchitecture de processeur "large" de l'industrie, et il serait le seul concepteur de processeurs à avoir dirigé une équipe d'ingénieurs pour développer un cœur de processeur hautes performances RISC-V à huit largeurs.
Après avoir compris l'épine dorsale de l'équipe, jetons un coup d'œil aux produits de Tenstorrent. Ils prévoient de développer des puces RISC-V et AI sous la forme de conceptions hétérogènes et Chiplet. À l'heure actuelle, Tenstorrenst a développé des puces Grayskull et Wormhole basées sur un processus de 12 nm, avec une puissance de calcul FP8 allant jusqu'à 328 TFlops. Parmi eux, Grayskull contient 120 cœurs personnalisés, avec une puissante matrice de cœurs de traitement TENSIX, chaque cœur TENSIX a des fonctions frontales entièrement programmables en C++, multithread, moteur de calcul matriciel à haute surface et efficacité énergétique, moteur SIMD puissant et flexible, etc. . La société lancera également dans un proche avenir la puce informatique ML autonome Black Hole, construite à l'aide d'un processus de 6 nm et basée sur l'architecture SiFive RISC-V X-280 pour l'informatique hétérogène, dont le lancement est prévu cette année. Pendant ce temps, la pile logicielle entière ne compte qu'environ 50 000 lignes de code. Contrairement à la plupart des autres circuits intégrés spécifiques à l'IA (ASIC) qui nécessitent un processus de développement personnalisé, Tenstorrent est très adaptable et flexible, prenant en charge toutes les principales chaînes d'outils, cadres et runtimes. Ainsi, le plus grand avantage de Nvidia, qui est extrêmement facile à développer, est remis en question.
En termes de puces AI hautes performances, Tenstorrent prévoit de lancer une conception hautes performances hautement configurable qui peut être comparée à la dernière plate-forme GH200 Grace Hopper de Nvidia en 2024 grâce à une combinaison de puces CPU 3 nm et de puces ML/AI. Il y a 16 cœurs côté CPU, tandis que le chiplet AI contient 40 cœurs. Le groupe de puces AI et la puce CPU ont chacun quatre puces mémoire, et l'ensemble du chipset est connecté à la puce IO pour étendre des fonctions telles que PCIe.
Selon Jim Keller, **L'objectif de Tenstorrent est d'être 5 à 10 fois moins cher que les systèmes GPU aux performances similaires. **Nous utilisons beaucoup moins de bande passante mémoire car nous avons un compilateur graphique et notre architecture est plus une machine à flux de données qu'un GPU, donc les données sont envoyées d'un élément de traitement à un autre très rapidement. Cela évite l'utilisation d'interposeurs de silicium HBM coûteux. Dans le même temps, nos puces ont des ports réseau, qui sont propices à la formation de clusters à grande échelle via des câbles réseau pour une expansion horizontale sans utiliser d'autres commutateurs. Techniquement, c'est l'une des raisons pour lesquelles notre approche est moins chère que celle de Nvidia. De plus, nous soutenons également le transfert de licence de technologie ouverte, ce qui est pratique pour tout le monde pour construire une écologie.
** La piste de puces AI a inauguré une nouvelle tendance, le nombre de joueurs nationaux **
Bien que les challengers ne doivent pas être sous-estimés, Nvidia occupe toujours une position de leader absolu dans le domaine des puces IA, occupant la grande majorité des parts de marché dans les scénarios de formation et de raisonnement cloud. En plus de Nvidia, il y a AMD et Intel. Cependant, avec le développement vigoureux de notre pays, de nombreuses entreprises nationales se sont engagées dans cette voie ces dernières années et ont progressivement progressé.
Selon les prévisions d'IDC, l'échelle de la puissance de calcul de l'IA en Chine maintiendra une croissance rapide et devrait atteindre 1271,4 EFLOPS d'ici 2026, avec un CAGRA (2022-2026) de 52,3 %. Dans ce contexte, IDC prédit que l'informatique hétérogène deviendra la tendance dominante. Au cours des 18 prochains mois, le taux de chargement des GPU, ASIC et FPGA dans les serveurs mondiaux d'intelligence artificielle augmentera. En 2025, la taille du marché des puces d'IA atteindra 72,6 milliards de dollars américains. Des entreprises nationales telles que Cambrian, Pingtouge et d'autres acteurs de l'ère 1.0 sont désormais devenues des sociétés cotées dotées de puces de puissance de calcul d'IA de haute qualité. De plus, de plus en plus de start-ups de puces IA se joignent activement, y compris des capitaux de toutes parts augmentant les investissements dans ce domaine.
En prenant 2022 comme exemple, de nombreuses entreprises telles que Moore Thread, Tianshu Zhixin, Muxi, Denglin Technology, Shenliu Microelectronics, Lingjiu Microelectronics et Lisuan Technology ont obtenu un financement en capital. Parmi eux, Moore Thread 1,5 milliard, Tianshu Zhixin Chao 1 milliard et Mu Xi 1 milliard.Le montant de financement de ces trois sociétés est relativement important.
Fondée en octobre 2020, Moore Thread est une société de circuits intégrés qui se concentre sur la conception de puces GPU complètes. À l'heure actuelle, Moore Thread a publié deux puces GPU multifonctions basées sur son architecture système unifiée MUSA - "Sudi" et "Chunxiao", ainsi qu'une série de piles logicielles GPU et d'outils d'application.
Tianshu Zhixin a annoncé en juillet 2022 avoir achevé le cycle de financement C + et C ++ dépassant 1 milliard de yuans. La société est un fournisseur de R&D et de production de puces GPGPU haut de gamme et de systèmes informatiques hautes performances.En 2018, elle a commencé la recherche et le développement de puces GPGPU 7 nm dans le cloud. En mars 2021, le produit GPU à usage général de formation en nuage de 7 nm - Tiangai 100 sera officiellement lancé. Fin mars 2022, Tiangai 100 avait réalisé des commandes de près de 200 millions de yuans et mis en œuvre plus de 200 scénarios d'application.
Le 5 juillet 2022, Mu Xi a annoncé l'achèvement du cycle de financement pré-B de 1 milliard de RMB. Il s'agit du cinquième tour de financement de Muxi après sa création en septembre 2020, avec un investissement total de plus de 2 milliards de yuans. La première puce GPU polyvalente hautes performances de Muxi a été enregistrée avec succès en janvier 2022. Elle adopte un processus de 7 nm et se concentre sur le raisonnement de l'IA. Elle peut être appliquée à l'intelligence artificielle, à la conduite autonome, à l'automatisation industrielle et manufacturière, aux villes intelligentes, au langage naturel le traitement, l'informatique Edge et d'autres domaines devraient être produits en série en 2023, et la recherche et le développement de puces haut de gamme pouvant être appliquées à la formation à l'IA et au calcul scientifique sont entrés dans la phase finale.
A l'ère des grands modèles, la puissance de calcul est devenue une infrastructure cruciale. Afin de répondre à la concurrence féroce de l'IA et du HPC sur le marché, il est nécessaire d'obtenir un support de puissance de calcul à la fois performant et polyvalent. Alors que la liaison entre l'algorithme d'IA et l'architecture des puces devient de plus en plus profonde, nous nous attendons à voir de plus en plus d'entreprises nationales de puces d'IA telles que Tenstorrent qui osent défier les géants, réaliser des innovations structurelles dans la technologie et faire des progrès dans l'écologie étape par étape. . Bien sûr, nous attendons également avec impatience l'afflux actif de capitaux de toutes les parties pour créer une situation gagnant-gagnant.