Le paysage de la puce AI et où vont les startups

Article de: Junko Yoshida

Alors que l’industrie de la technologie continue de vanter une «renaissance» de l’intelligence artificielle, le nombre de startups de puces IA a commencé à plafonner.

Alors que l’industrie de la technologie continue de vanter une «renaissance» de l’intelligence artificielle, le nombre de startups de puces IA a commencé à plafonner. Les startups de l’IA constatent que les barrières à l’entrée des centres de données, autrefois un marché prometteur, sont élevées – peut-être de manière prohibitive. Leur problème remonte aux hyperscalers tels que Google, Amazon et Facebook qui développent désormais leurs propres processeurs et accélérateurs d’intelligence artificielle qui répondent à leurs besoins spécifiques.

Pour être clair, l’apprentissage automatique (ML) continue de progresser. De plus en plus de variantes de réseaux de neurones apparaissent. L’IA devient intrinsèque à tout système électronique.

Laurent Moll, directeur des opérations chez Arteris, prédit qu’à l’avenir, «tout le monde a une sorte d’IA dans ses SoC». C’est une bonne nouvelle pour Arteris, car son activité consiste à aider les entreprises (grandes et petites, ou nouvelles et anciennes) à intégrer les SoC en fournissant des outils de développement IP et IP de réseau sur puce (NoC).

[Download] La portabilité est la clé de la compétitivité des fabricants de PCB

Pour les startups de puces IA? Pas tellement. La concurrence devient rude, ce qui complique le défi de craquer des segments de marché adaptés à une conception d’IA particulière.

EE Times dévoilera le mois prochain notre «Silicon 100» (version 2021), une liste annuelle des startups émergentes de l’électronique et des semi-conducteurs. L’auteur du rapport, Peter Clarke, suit de près les startups de semi-conducteurs depuis deux décennies. Il nous dit que le nombre de startups de puces spécialisées, axées sur les GPU et l’IA, «est stable par rapport à l’année précédente». Il observe: «Nous sentons que l’industrie a peut-être atteint le point de« pointe de l’IA ».»

En bref, les jours de salade des startups de puces IA sont peut-être révolus.

Kevin Krewell, analyste principal chez Tirias Research, s’attend à davantage d’acquisitions de startups de puces IA. «Après tout, l’explosion du financement du démarrage de l’IA s’est produite après qu’Intel a acheté Nervana. Les VC et les anges ont vu une possible stratégie de sortie lucrative. » Il a ajouté, il y en a « trop [AI] startups d’aujourd’hui que l’industrie peut soutenir à long terme. Je suis sûr que quelques autres apparaîtront avec des solutions plus exotiques impliquant analogique ou optique. [But] à terme, les fonctions AI / ML seront subsumées dans des SoC plus grands ou dans des conceptions de chipsets. »

Laurent Moll

Dans ce contexte, EE Times s’est récemment entretenu avec le nouveau directeur des opérations d’Arteris. Moll, qui était autrefois CTO d’Arteris, a passé plus de sept ans chez Qualcomm, plus récemment en tant que vice-président de l’ingénierie du géant des puces mobiles.

Nous avons interrogé Moll sur les changements dans le paysage des puces IA et sur la direction que prennent les startups.

Ruée vers l’orSans surprise, Moll a décrit la course de l’industrie vers l’IA comme «l’une des plus grandes ruées vers l’or» qu’il ait jamais vues. Cependant, ces 49ers des derniers jours ne sont plus seulement des startups ou des petites entreprises. Les prospecteurs incluent des entreprises qui «fabriquent du silicium depuis longtemps, et beaucoup de nouvelles personnes qui n’ont pas fabriqué de silicium. [before]», A déclaré Moll. Tout le monde «joue dans la même arène» et tout le monde «essaie de casser la noix».

La base croissante de développeurs et la diversification des applications jouent à l’avantage d’Arteris, mais elles brossent un tableau très différent pour les startups de puces IA. Ils ne sont plus en concurrence uniquement avec d’autres startups d’IA avec de nouvelles idées tout aussi brillantes. Mais maintenant, ils sont aussi confrontés aux grands garçons. Les hyperscalers et les équipementiers automobiles se mobilisent pour le développement de l’IA afin de pouvoir utiliser leurs propres puces pour leurs systèmes.

Toujours en phase d’expansionLe marché des puces IA est «encore en phase d’expansion», «tout le monde continue d’explorer», a observé Moll d’Arteris. Néanmoins, il voit l’émergence d’un «peu d’ordre» sur le front des datacenters. C’est en grande partie parce que les hyperscalers prennent le contrôle de leur destin en développant leurs propres processeurs et accélérateurs d’IA.

La distinction entre les hyperscalers et les autres concepteurs de puces IA se résume à un facteur. «Ils possèdent des ensembles de données», a déclaré Moll. Les hyperscalers ne partagent pas d’ensembles de données avec d’autres, mais ils développent des piles de logiciels propriétaires. «Et ils sentent qu’ils peuvent créer du silicium, beaucoup plus optimisé pour leur propre accès aux données.»

Pendant ce temps, des fournisseurs externes – de plus petites startups de puces IA – «développent de nouvelles méthodes de structuration des SoC, de nouvelles façons d’utiliser la SRAM et la DRAM, l’empilement, en utilisant l’optique», a déclaré Moll. «Il existe de nombreuses façons de créer une sauce secrète, ce qui leur permet de faire de l’IA beaucoup mieux que ce que les puces d’IA standard peuvent faire aujourd’hui. Les plus petits changent la donne, ils sont très intelligents pour faire les choses différemment des autres. »

En revanche, les puces AI recherchées par les hyperscalers ne sont pas si innovantes. Les hyperscalers peuvent se permettre d’utiliser une approche plus traditionnelle, a observé Moll. Un bon exemple est le TPU de Google. «Si vous la regardez, l’architecture est géniale, mais ce n’est pas révolutionnaire – à bien des égards.» Malgré cela, «cela fonctionne extrêmement bien pour ce que Google veut faire. Donc, cela sert leur objectif.

Si les puces des petites startups d’IA sont si nouvelles, ne devraient-elles pas se frayer un chemin dans les centres de données des hyperscalers?

«Non, non, non», dit Moll. « Il est peu probable que l’un des plus petits acteurs se développe sur le marché des centres de données… ou que les hyperscalers achètent leurs produits. » Cependant, il a noté que « les hyperscalers achèteront certainement certaines de ces startups, une fois qu’ils auront vu que leurs technologies sont utiles et applicables à ce qu’ils veulent faire ».

Moll a décrit le train de pensées hyperscaler comme suit: «Je sais quel est mon ensemble de données. Je sais faire une sorte d’architecture plus centrée. Si quelqu’un a une excellente idée qui fonctionne bien, saisissons ce groupe de personnes et la propriété intellectuelle, et améliorons notre propre produit. « 

Krewell de Tirias Research était d’accord. « Vous devez faire quelque chose de spectaculaire pour que les hyperscalaires s’engagent à utiliser votre puce d’apprentissage automatique. » Cerebras, par exemple, a poussé l’enveloppe avec sa puce de la taille d’une tranche, a déclaré Krewell. «Nvidia est toujours la plate-forme par défaut pour le travail de développement d’IA en raison de son logiciel omniprésent et de son évolutivité.»

Et le bord?Pour les concepteurs de puces IA, «le bord est une histoire entièrement différente», par rapport aux centres de données, a noté Moll. Le marché final du bord est polyvalent, avec le désir d’une gamme de solutions beaucoup plus large. «De nombreuses personnes sont encore en train de déterminer où appliquer l’IA et comment la mettre en œuvre», a déclaré Moll.

19% du marché total disponible des semi-conducteurs sera lié à l’IA / ML en 2025. (Source: Bernstein; Cisco; Gartner; IC Insights; IHS Markit; Machina Research; McKinsey Analysis – Compilé par Arteris)

Krewell de Tirias Research est du même avis. «Edge est encore un domaine relativement inexploré. Il existe encore des possibilités d’ajouter le ML aux capteurs et aux périphériques de périphérie. Les périphériques analogiques et en mémoire à très faible consommation sont prometteurs, ainsi que les accélérateurs dans les microcontrôleurs et les processeurs d’applications. Je vois beaucoup de potentiel pour l’inférence INT4 et INT2 dans les processeurs de périphérie – une bonne précision avec des besoins en puissance et en mémoire beaucoup plus faibles. »

Bien que diverses applications semblent excitantes, elles présentent le risque de se laisser entraîner dans le cycle de battage médiatique Edge AI.

Edge AI est devenu un mot à la mode non pas parce que Edge est un nouveau marché, ni ne désigne une catégorie de produit spécifique. Au contraire, un manque de définition a transformé le «bord» en un fourre-tout auquel les startups peuvent associer leurs produits.

Parmi les applications de pointe, Moll voit deux tendances divergentes. L’un est une «IA à l’intérieur d’une puce qui fait autre chose», a-t-il noté. « C’est là que l’explosion est. »

Ce marché des systèmes embarqués est «là où des éléments tels que les facteurs de forme, la puissance et la chaleur comptent vraiment», a-t-il ajouté.

Une autre tendance à l’autre extrémité du spectre est «d’énormes puces qui ne font que l’IA», a noté Moll. Cependant, les applications pour les grosses puces à la périphérie évoluent encore.

Le meilleur exemple de «l’IA à l’intérieur d’une puce» est probablement les processeurs d’applications pour smartphones, que Moll connaît bien. Les accélérateurs d’IA ont joué un rôle clé dans la reconnaissance vocale et le traitement de la vision. Aujourd’hui, l’intelligence artificielle est devenue une grande partie de l’attrait commercial du téléphone portable. L’un des résultats est que «les opérateurs historiques du mobile [ such as Qualcomm] ont des avantages », a reconnu Moll.

L’IA dans l’automobileMoll voit l’IA dans les véhicules est une toute autre histoire.

Il a noté qu’il y aura un éventail de solutions, des puces de vision par ordinateur à forte intensité d’IA à une grosse puce d’IA qui effectue tout le traitement intensif. Alors que les véhicules passent de l’ADAS à l’autonomie, Moll s’attend à ce que de plus gros processeurs d’IA jouent un rôle essentiel sur le marché des véhicules haut de gamme.

Alors que les opérateurs historiques de l’automobile, souvent armés de leurs propres petites puces AI, ont des avantages dans ADAS, il y a suffisamment de place pour les startups de puces IA sur le marché de l’autonomie avec des puces IA assez grandes.

Mais voici la tournure.

Les constructeurs automobiles – imitant les hyperscalers – se mettent également à la verticale. Tesla a déjà conçu sa propre puce, appelée ordinateur «Full Self-Driving». Il y a quelques semaines, le PDG de Volkswagen, Herbert Diess, a déclaré à un journal allemand que la société prévoyait de concevoir et de développer ses propres puces de haute puissance pour les véhicules autonomes, ainsi que le logiciel requis.

Moll a confirmé que les constructeurs automobiles «regardent tous cela très attentivement». Même si Arteris est une société de propriété intellectuelle, «nous recevons des appels des constructeurs automobiles parce qu’ils veulent comprendre l’ensemble de la pile et qu’ils veulent contrôler» le «gros tas de silicium» qui est sur le point d’entrer et de modifier l’architecture du véhicule. .

Les startups de puces IA telles que Recogni, Blaize et Mythic classent l’automobile comme un segment de marché de l’IA de pointe qu’elles ciblent. Il reste à voir comment les constructeurs automobiles mettront éventuellement en œuvre de telles puces dans un véhicule.

Krewell a souligné: «Les plates-formes automobiles évoluent encore. La fonctionnalité distribuée présente les avantages de la modularité et des risques réduits, mais elle est plus coûteuse à créer et à entretenir qu’un complexe de traitement centralisé. »

Il a ajouté: «L’autre problème, ce sont les données. Les capteurs enverront beaucoup de données, l’intelligence à la périphérie réduira les transferts de données, mais au prix d’un décalage accru du capteur et d’une puissance plus distribuée dans le châssis. Un certain équilibre du traitement des bords léger au niveau du capteur pourrait réduire la charge sur le processeur central sans ajouter de latence excessive ou exiger trop de puissance distribuée. »

La bataille de l’IA passe des puces aux logicielsKrewell a observé: «Je vois que l’intelligence artificielle passe des puces aux logiciels. Le déploiement de la fonctionnalité ML nécessite un bon logiciel. Et pour rendre le ML accessible à un plus grand nombre d’ingénieurs de conception et de programmeurs embarqués, il faut faire du ML low-code. Cela nécessite également d’automatiser la création de modèles personnalisés pour l’application spécifique. »

Moll est parvenu à une conclusion similaire. Lorsqu’on lui a demandé pourquoi il avait décidé de revenir à Arteris de Qualcomm, il a cité deux points.

Premièrement, les Arteris jouaient dans une niche – «une place étroite entre les fournisseurs de propriété intellectuelle». Mais ce créneau est désormais devenu «l’un des espaces clés» où les concepteurs de puces IA recherchent de l’aide pour «assembler des SoC très volumineux et compliqués» en construisant de nombreux réseaux sur puces. C’est là qu’un réseau sur puce (NOC) d’Arteris peut intervenir pour résoudre les problèmes de manière holistique.

Deuxièmement, Arteris IP a acquis Magillem l’année dernière. Moll voit la «couche logicielle» offerte par Magillem comme une autre clé pour créer un SoC très volumineux et compliqué. Ayant été responsable chez Qualcomm de l’équipe fournissant des puces de haut niveau, «j’en suis venu à reconnaître la valeur de ce qu’offre Arteris en tant qu’utilisateur et non en tant que marketeur.»

Cet article a été initialement publié le EE Times.

Ancien journaliste de beat, chef de bureau et rédacteur en chef d’EE Times, Junko Yoshida passe maintenant beaucoup de son temps à couvrir l’industrie électronique mondiale avec un accent particulier sur la Chine. Son rythme a toujours été les technologies émergentes et les modèles commerciaux permettant une nouvelle génération d’électronique grand public. Elle ajoute maintenant la couverture des fabricants chinois de semi-conducteurs, en écrivant sur les machinations des fabs et des fabricants sans usine. En outre, elle couvre l’automobile, l’Internet des objets et le réseau sans fil / réseau pour les lignes de conception d’EE Times. Elle écrit pour EE Times depuis 1990.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *