Le Britannique Imagination Technologies, spécialisé dans la conception et le développement de semi-conducteurs, a ajouté un accélérateur de réseau neuronal à son portefeuille de designs.
Après avoir été lâché par Apple pour la fabrication de GPU, le britannique Imagination Technologies pourrait trouver dans l'accélération neuronale un providentiel relais de croissance. (crédit : D.R.)
Le hardware spécialisé, nécessaire pour accélérer le traitement des algorithmes d'apprentissage machine, est déjà sorti du datacenter pour équiper des smartphones haut de gamme. Mais il pourrait se retrouver dans tous les autres mobiles si le concepteur de puces Imagination Technologies parvient à ses fins. Imagination Technologies, qui s’est taillé une solide réputation en produisant les accélérateurs graphiques des smartphones et des tablettes d'Apple, a conçu un nouveau design processeurs que les fabricants de puces pourront utiliser pour accélérer les algorithmes d'intelligence artificielle dans leur matériel. Cela signifie, entre autres choses, que les développeurs d'applications pourront disposer en local de puissantes capacités de traitement sans avoir besoin d'un accès au réseau. Ce design pourrait notamment faciliter l’usage d'outils de reconnaissance d'images et de diagnostic basés sur l'intelligence artificielle sur des sites industriels, dans des zones géographiques éloignées ou après des catastrophes naturelles.
Beaucoup d’avancées dans la recherche en intelligence artificielle sont à mettre au crédit des réseaux neuronaux. Ces réseaux sont capables d’exploiter des données pour en tirer des résultats, et ils peuvent réutiliser leurs connaissances pour les appliquer à de nouvelles situations. Cependant, en terme de traitement, les processus sont extrêmement gourmands en ressources, en particulier pour la phase d'apprentissage. Un hardware spécialisé peut considérablement accélérer les calculs répétitifs impliqués dans ces traitements. Jusqu'à récemment, ce type hardware était exclusivement réservé aux puissants racks de datacenters climatisés. Une situation très frustrante pour les développeurs d'applications mobiles et les fabricants de périphériques embarqués qui souhaitaient, eux aussi, utiliser des algorithmes d'apprentissage machine. Or jusqu’ici, ils pouvaient soit attendre l’arrivée d’un processeur mobile non accéléré suffisamment puissant, soit rediriger les données brutes vers un serveur distant pour accélérer le traitement des données et réacheminer les réponses jusqu’au périphérique.
Du traitement neuronal déjà dans le Huawei Mate 10 et l'iPhone X
Si ces options sont acceptables pour certaines applications, elles sont tout à fait rédhibitoires en terme de latence ou de coût d’envoi des données au serveur pour d'autres, notamment les véhicules autonomes ou le traitement vidéo à la volée. Sans oublier les questions de protection de la vie privée et de sécurité. Une autre question résolue par le traitement local qui maintient les données sous le contrôle des utilisateurs. Ces avantages ont incité plusieurs fabricants de smartphones à intégrer un hardware dédié au traitement des réseaux de neurones dans leurs derniers smartphones. C’est le cas de Huawei Technologies, qui a, le premier, annoncé que la puce Kirin 970 de son futur mobile Huawei Mate 10 comprenait une unité de traitement neuronal dédiée. Et, lors de la présentation de l'iPhone X, Apple a annoncé qu’une portion de silicium de la puce A11 était dédiée aux applications d'apprentissage machine, fonctionnalité que le constructeur californien a baptisé Neural Engine. Sauf que, compte tenu du prix très élevé de ces smartphones très haut de gamme, il est probable que les développeurs n’auront pas envie de consacrer du temps à développer des applications pour quelques « happy few ». Imagination espère que son nouveau design PowerVR Series 2NX Neural Network Accelerator permettra de mettre les capacités de traitement neuronal à la portée d’un plus grand nombre et qu’il trouvera sa place dans une part croissance de smartphones Android.
En plus des smartphones, Imagination cible également d'autres périphériques mobiles et embarqués. Il a fait l’impossible pour réduire la consommation d'énergie de son design. Pour y parvenir, il a commencé par autoriser le traitement variable en profondeur de bits. Pendant la phase d’apprentissage ou d’ajustement du réseau neuronal, la précision des calculs est importante. Mais quand ledit réseau doit prendre des décisions sur des données transmises en temps réel, des calculs moins précis suffisent pour qu’il fournisse des résultats corrects. Dans ce cas, le réseau peut se limiter à 4 ou 5 bits de précision au lieu de 16. Moins de précision signifie aussi moins d'énergie dépensée. Le 2NX permet aux développeurs de choisir s’ils veulent des calculs avec 16, 12, 10, 8, 7, 6, 5 voire même 4 bits de précision. Selon Imagination, une baisse de la précision de 8 à 4 bits accélère le processus de 60 % et réduit les besoins en bande passante de 46 %, pour un impact de 1 % seulement sur la précision des inférences.
LIRE AUSSI
Une API à disposition des développeurs
Afin de permettre aux développeurs Android de préparer de nouvelles fonctionnalités, Imagination Technologies offre une API qui fonctionne avec le 2NX et ses accélérateurs graphiques existants. Les développeurs pourront écrire du code pour l'API afin d’exploiter le hardware existant et, « à mesure que le nouveau hardware sera disponible, ils pourront tirer partir des nouvelles capacités de puissance », a déclaré Chris Longstaff, directeur de produits senior chargé du marketing technologique d’Imagination Technologies. Mais cela risque de prendre un peu de temps : « Imagination vend des designs, pas des périphériques. Il faudra probablement attendre la fin de l'année prochaine avant que des constructeurs ne proposent des mobiles intégrant le noyau 2NX », a ajouté Chris Longstaff.
Sources : lemondeinformatique.fr, Peter Sayer.
Comments