Microsoft Azure: ce nouveau kit de développement aide à briser le mythe selon lequel l’IA est difficile

Microsoft Azure: ce nouveau kit de développement aide à briser le mythe selon lequel l'IA est difficile

Le nouveau kit de développement Azure Percept de Microsoft vise à rendre la vision par ordinateur moins chère et plus facile, en apportant l’IA à plus d’entreprises.

Le kit de développement Azure Percept (DK) comprend des modules de vision (à droite), audio en option (à gauche) et de carte de développement (au milieu).

Image: Microsoft

De plus en plus de capteurs sont ajoutés à la périphérie des réseaux, à l’aide d’outils comme Azure IoT Hub pour les connecter aux services cloud, où une utilité maximale peut être extraite des données qu’ils génèrent. Mais trop de ces appareils sont personnalisés, ce qui nécessite un développement important pour obtenir ces données dans le bon format, au bon endroit.

En savoir plus sur l’intelligence artificielle

Pour exploiter au mieux cet IoT industriel en pleine croissance, les ingénieurs logiciels et matériels doivent travailler avec le micrologiciel des appareils, apprendre de nouveaux systèmes d’exploitation en temps réel et réfléchir à la sécurité à un niveau très bas. C’est un domaine complexe, où il peut être difficile d’obtenir des avantages si vous ne disposez pas des ressources nécessaires pour mettre en place une équipe de développement dédiée.

VOIR: Traitement du langage naturel: une aide-mémoire (Netcost-Security)

Mais que se passerait-il si l’IoT industriel était vraiment industriel, construit selon des normes, avec la capacité de s’emboîter comme des briques Lego robustes? Et s’il existait un environnement de développement commun qui vous aidait à connecter des API et des services pour créer vos propres applications IoT basées sur l’apprentissage automatique?

Dévoilement du Azure Percept DK

C’est pourquoi Microsoft a récemment lancé Azure Percept. Comme les autres services IoT de Microsoft, il combine le matériel, les logiciels et le cloud Azure. Au cœur de la plate-forme se trouve un ensemble de conceptions de référence pour le matériel de périphérie qui tire parti de l’apprentissage automatique. Les développeurs de matériel pourront prendre ces conceptions et construire leurs propres appareils, tout en ajoutant leurs propres fonctionnalités – en utilisant un module de caméra personnalisé ou en changeant les radios, par exemple. Les conceptions pourraient également être adaptées à différentes industries, avec différents systèmes dans les entrepôts ou sur les plates-formes pétrolières. Azure Percept est destiné à être une famille de matériel IoT plug-and-play de plusieurs fournisseurs, où différentes conceptions utilisent la même plate-forme logicielle.

Si les conceptions de référence font partie de l’histoire, le matériel de pointe a besoin de logiciels. Microsoft expédie donc un kit de développement initial pour relancer l’écosystème Percept. Disponible sur le Microsoft Store, il se compose d’un hub et d’une caméra, avec un capteur audio en option. Le kit de développement de base coûte 349 $, avec le capteur audio 79 $ de plus. Ils sont conçus pour s’adapter aux rails de montage standard 80/20 que l’on trouve dans de nombreuses installations industrielles, et peuvent donc être montés sur des rails existants ou installés rapidement dans n’importe quel espace.

Le module principal Percept DK est construit autour de la carte processeur système sur module iMX8M de NXP, avec 4 Go de RAM et 16 Go de stockage et un TPM pour la sécurité. En plus de quatre cœurs Arm 64 bits, il offre une accélération supplémentaire pour les charges de travail d’apprentissage automatique avec un processeur d’inférence de réseau neuronal de vision dédié Intel Movidius Myriad. Cela lui permet de décharger une grande partie du traitement d’image intégré de Percept, économisant à la fois du temps CPU et de l’énergie.

La connectivité se fait via Ethernet, Wi-Fi ou Bluetooth. Il utilise la propre distribution Linux CBL-Mariner de Microsoft, avec des services de gestion et de mise à jour d’Azure. Le module de caméra se connecte à la carte porteuse principale via USB-C, et Microsoft suggère que vous pouvez passer de l’ouverture de la boîte à l’obtention d’images en moins de 10 minutes.

Premiers pas avec Percept

Vous n’avez pas besoin d’un rack 80/20 pour démarrer, car les périphériques peuvent être installés à côté de vos PC de développement, ce qui vous permet de voir rapidement comment ils fonctionnent. Tout ce que vous avez à faire est de brancher l’alimentation, de connecter les antennes, puis de connecter la caméra via USB. Une fois qu’il est allumé, vous pouvez démarrer la configuration initiale via Wi-Fi. Un ensemble de pages Web vous guide tout au long de la connexion à un réseau Wi-Fi, avant de configurer SSH. Une fois qu’il est prêt, il se connecte à Azure où il doit être enregistré dans votre compte, liant le Percept DK à un Azure IoT Hub (soit en créant une nouvelle instance, soit en rejoignant une instance existante). Vous devez utiliser une instance de niveau Standard, car Percept n’est pas pris en charge sur les instances gratuites ou de base.

Lorsque le Percept DK se connecte à Azure pour la première fois, il met à jour et télécharge ses modules logiciels par défaut. Vous pouvez ensuite utiliser l’environnement de gestion et de développement Percept Studio d’Azure pour travailler avec le matériel, en testant initialement la vidéo en streaming à partir d’un modèle de reconnaissance de vision par IA intégré à Percept.

VOIR: Office 365: un guide pour les chefs d’entreprise et technologiques (PDF gratuit) (Netcost-Security)

La mise en route rapide est un avantage certain, car vous pouvez afficher des résultats rapidement. Pour aller au-delà du module de reconnaissance de base, il existe des exemples de modèles de vision basés sur des problèmes commerciaux courants. Vous pouvez rapidement déployer des outils pour détecter des personnes ou identifier des étagères vides, par exemple, sans écrire une ligne de code.

Cette approche low-code et sans code de la vision pratique de l’IA est la clé de Percept; ce qui est important ici, c’est ce que vous pouvez faire avec l’apprentissage automatique et la vision par ordinateur (et l’audio) dans votre entreprise. Une fois que vous avez connecté votre système Percept à Azure IoT Hub, vous pouvez utiliser les outils de développement Percept Studio hébergés par Azure pour créer vos propres applications, en connectant diverses API et en fournissant des modules de code à vos appareils.

azure-percept-vision-models.jpg

Azure Percept Studio propose un certain nombre d’exemples de modèles d’IA, tels que ceux de la vision par ordinateur.

Image: Microsoft

Construire vos premières applications Percept

Commencer avec Percept Studio, c’est comme travailler avec n’importe quel outil Azure dans la mesure où tout ce que vous créez doit être affecté à un groupe de ressources et affecté à un niveau de tarification – dans ce cas pour Azure’s Cognitive Services, qui fournit les API d’apprentissage automatique utilisées par Percept . Une fois que vous avez terminé la configuration de base des ressources, vous pouvez rapidement configurer une solution de vision. Commencez par choisir si vous détectez ou classifiez des objets. Vous n’avez pas besoin de choisir un type d’appareil cible, car il est automatiquement géré pour vous par Percept Studio.

Ensuite, commencez à entraîner votre modèle, avec au moins 30 images capturées à partir du flux du module de caméra Percept. Vous pouvez automatiser ce processus – si vous créez une application destinée à surveiller un espace, par exemple. Une fois les images capturées et téléchargées vers Percept Studio, vous pouvez alors commencer à les étiqueter. Les libellés sont essentiels pour l’apprentissage automatique, car ils vous permettent de baliser des éléments d’une image, garantissant que votre application peut identifier des objets ou des occurrences spécifiques. Le marquage manuel d’un ensemble d’images, puis leur exécution à travers un cycle de formation est probablement la partie la plus chronophage de la création d’une application ML de base.

Percept Studio fournit des outils pour tester un modèle et se recycler si nécessaire. Ne vous attendez pas à bien faire les choses du premier coup; vous pouvez améliorer votre modèle avec le plus d’exemples avec lesquels il doit travailler. Une fois que vous êtes satisfait des résultats, vous pouvez déployer votre modèle sur vos appareils Percept et le démarrer.

Percept est capable de beaucoup, car il repose sur les outils de vision personnalisés d’Azure, qui font partie de sa suite d’apprentissage automatique Cognitive Services. Il existe un pack supplémentaire d’outils de développement qui peuvent être téléchargés pour vous aider à créer des solutions plus complexes, avec un référentiel GitHub pour vous aider à démarrer. Cela vous donne accès au logiciel utilisé pour exécuter les modules d’IA, ainsi qu’à des outils pour vous aider à former et à déployer vos propres réseaux de neurones.

Microsoft tente quelque chose d’assez ambitieux avec Percept: fournir une conception de référence pour le matériel de capteur d’IA et les outils pour créer des applications autour de lui. Il y a un mythe selon lequel l’IA est difficile, et il est clair que c’est un mythe que l’équipe Percept vise à vous aider à casser. Les solutions sans code vous permettent de démarrer rapidement, prêts à être déployés sur du matériel relativement bon marché, tandis que vous pouvez créer des réseaux de neurones personnalisés plus complexes sur votre propre matériel. C’est un mix efficace qui devrait évoluer avec vous, au fur et à mesure que vous acquérez de l’expérience en vision par ordinateur et en traitement audio.