
[ad_1]
La grande image: Alors que tous ceux qui suivent de près l’industrie de la technologie comprennent qu’il existe un lien important entre les dernières puces à semi-conducteurs d’aujourd’hui et les performances des applications logicielles, il semble qu’un nouveau niveau de connexion plus profond se développe entre les deux. Des kits d’émulation de puces basés sur le cloud aux améliorations du cadre d’IA en passant par de nouveaux outils pour créer des applications qui fonctionnent sur des connexions réseau, nous semblons nous lancer dans une nouvelle ère d’optimisations logicielles axées sur le silicium créées – surprise, surprise – par les fabricants de puces eux-mêmes.
Le premier événement Intel On représente un rajeunissement de l’ancien IDF de la société, ou Intel Developer Forum, où la société a souligné l’importance de l’optimisation des logiciels à travers une série de annonces. Collectivement, ces annonces, y compris le lancement d’une mise à jour Site Web de la zone des développeurs — a réaffirmé le désir d’Intel de placer les développeurs de tous types et de tous niveaux au premier plan de ses efforts.
L’accent mis par Intel sur sa plate-forme oneAPI met en évidence le rôle de plus en plus essentiel que les outils logiciels jouent pour tirer le meilleur parti des avancées du silicium d’aujourd’hui. Introduit pour la première fois l’année dernière, oneAPI est conçu pour faciliter considérablement le processus d’écriture d’applications pouvant exploiter à la fois les processeurs x86 ainsi que les GPU et d’autres types d’accélérateurs via un environnement de programmation ouvert et unifié. La prochaine version 2022 devrait être publiée le mois prochain avec plus de 900 nouvelles fonctionnalités, notamment un compilateur C++/SYCL/Fortran unifié et la prise en charge de Data Parallel Python.
Compte tenu de la sophistication croissante des processeurs et des processeurs graphiques, il est facile de comprendre pourquoi de nouveaux outils de développement sont nécessaires non seulement pour tirer pleinement parti de ces composants individuels, mais également pour tirer parti des capacités rendues possibles par les combinaisons de ces puces. Alors qu’Intel a toujours eu un solide ensemble de développeurs de logiciels internes et a construit des outils avancés tels que des compilateurs qui jouent un rôle important dans le développement d’applications et d’autres logiciels, la société s’est concentrée sur une infime fraction d’élite du marché total des développeurs. Pour avoir un impact plus important, il est important pour l’entreprise de créer des outils logiciels pouvant être utilisés par un ensemble beaucoup plus large de développeurs. Comme Intel lui-même l’a dit, la société souhaite « rencontrer les développeurs où qu’ils soient » sur le plan des compétences et de l’expérience.
En conséquence, Intel fait des choses comme augmenter le nombre de centres d’excellence oneAPI pour fournir plus d’emplacements où les gens peuvent acquérir les compétences dont ils ont besoin pour utiliser au mieux oneAPI. En outre, la société a annoncé qu’elle construisait de nouveaux moteurs d’accélération et de nouvelles versions optimisées de kits d’outils d’IA populaires, tous conçus pour utiliser au mieux son prochain processeur évolutif Intel Xeon axé sur les centres de données.
La société a également parlé d’environnements d’émulation de puces basés sur le cloud qui peuvent permettre à un plus large éventail de programmeurs de créer des applications pour divers types d’accélérateurs sans avoir besoin d’y accéder physiquement.
Une grande partie de ces développements sont clairement motivés par la complexité accrue de diverses architectures de puces individuelles. Bien que les améliorations architecturales de ces semi-conducteurs aient manifestement amélioré les performances globales, même les programmeurs les plus expérimentés ne seront probablement pas en mesure de suivre toutes les fonctionnalités activées.
Ajoutez la possibilité de créer des applications pouvant exploiter plusieurs types de puces et, eh bien, il est facile d’imaginer à quel point les choses pourraient devenir écrasantes assez rapidement. Il est également facile de comprendre pourquoi peu d’applications tirent pleinement parti des derniers processeurs, GPU et autres puces d’aujourd’hui. Inversement, il n’est pas difficile de comprendre pourquoi de nombreuses applications (en particulier celles qui ne sont pas régulièrement mises à jour) ne fonctionnent pas aussi bien qu’elles le pourraient avec certaines nouvelles puces.
En prenant du recul, ce qui est intéressant à propos de ces efforts d’Intel, c’est qu’ils semblent être une extension logique d’autres mouvements similaires récemment annoncés par Arm et Apple, deux autres sociétés axées sur le silicium (chacune à sa manière). Lors du sommet des développeurs d’Arm la semaine dernière, la société a décrit ses propres efforts pour créer des versions basées sur le cloud de matériel de puce virtuelle dans le cadre de son effort Total Solutions for IoT et de son nouveau projet Centauri. Comme pour Intel, l’objectif d’Arm est d’augmenter le nombre de développeurs pouvant potentiellement écrire des applications pour son architecture.
En termes d’optimisations logicielles axées sur les puces, les premières données de référence semblent suggérer que la dernière version d’Apple basée sur Arm M1 Pro et M1 Pro Max les puces offrent extrêmement impressionnant résultats avec les propres applications d’Apple – qui ont été sans aucun doute optimisées pour ces nouvelles puces. Sur d’autres types d’applications et de charges de travail non optimisées, cependant, les résultats semblent être un peu plus modérés. Cela met simplement en évidence comment l’obtention des meilleures performances possibles pour une architecture de puce donnée nécessite une quantité accrue d’optimisation logicielle.
Maintenant, certains pourraient soutenir que la nature agnostique du matériel (ou du moins ambivalente au matériel) de oneAPI d’Intel est en contradiction directe avec les optimisations logicielles hautement ajustées et spécifiques aux puces que certains des autres nouveaux efforts d’Intel intègrent. À un niveau fondamental, cependant, ils mettent tous en évidence de nombreuses améliorations logicielles de bas niveau que les nouvelles architectures de puces de plus en plus sophistiquées (telles que les nouveaux processeurs Intel Core de 12e génération) exigent afin d’obtenir les meilleures performances possibles.
Pour le dire simplement, les améliorations de performances pures et globales dont nous avons bénéficié grâce aux avancées des puces matérielles sont de plus en plus difficiles à réaliser. En conséquence, il faudra des logiciels de plus en plus sophistiqués et bien optimisés pour maintenir les performances informatiques au niveau auquel nous nous sommes habitués. Dans cette optique, les derniers efforts d’Intel attireront probablement davantage l’attention sur la plate-forme à court terme, mais auront un impact encore plus significatif au fil du temps.
Bob O’Donnell est le fondateur et analyste en chef de Recherche TECHnalysis, LLC une société de conseil en technologie qui fournit des services de conseil stratégique et d’études de marché à l’industrie de la technologie et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech.
[ad_2]
Source link