Port TensorFlow Pi est un mouvement stratégique dans le jeu Edge Analytics | Linux.com | shoppingmaroc.net


La récente annonce de Google selon laquelle il avait porté sa bibliothèque open source TensorFlow intelligence machine (ML) pour le réseau neuronal était la Le dernier en date d'une série d'échecs lancés par Google et son principal rival, AI, Nvidia, vise à gagner les cœurs et les claviers des développeurs Linux embarqués. La concurrence s’inscrit dans une lutte plus large contre Amazon, Microsoft, Intel et d’autres pour amener l’analyse cloud à la pointe des réseaux IoT pour réduire la latence, augmenter la fiabilité et améliorer la sécurité.

Grâce à une collaboration avec le Raspberry Pi Foundation, la dernière version de TensorFlow 1.9 peut maintenant être installée sur les SBC Raspberry Pi 2 ou 3 à partir de binaires pré-construits utilisant le système de paquets Python. Les utilisateurs de Raspbian 9 peuvent l'installer avec deux commandes simples.

L'intégration des modèles TensorFlow dans un projet intégré présente d'autres défis. Pourtant, comme Google l’a montré avec ses kits de projets AIY pour le Raspberry Pi, vous pouvez ajouter un peu d’intelligence de ML dans les robots, systèmes de vision et autres équipements embarqués basés sur Raspberry Pi sans une courbe d’apprentissage énorme.

Le port TensorFlow devrait être particulièrement bienvenu dans la communauté éducative Raspberry Pi. Comme Eben Upton, de la Fondation RPi, a écrit dans un tweet de félicitations sur les "nouvelles massives", le port TensorFlow permettra "un contenu didactique génial"

mais sur des serveurs ou des ordinateurs de bureau, pas sur un modeste SBC comme le Raspberry Pi. Il fonctionne désormais sur toutes les principales plates-formes serveur et de bureau et a été porté sur Android et iOS. Pourtant, le développeur de TensorFlow de Google, Pete Warden, a déclaré que le Raspberry Pi était un véritable défi. Ce n'était même pas possible jusqu'à ce que les Raspberry Pi 2 et 3 soient livrés avec des processeurs quad-core plus rapides.

Il y a un an, Warden et son équipe ont réussi à compiler de manière croisée TensorFlow sur le RPi 3, mais le processus était lent, compliqué et propice aux crashs. La nouvelle capacité d’installation à partir de fichiers binaires pré-construits permet désormais à un groupe de développeurs beaucoup plus large de se joindre à la réunion.

Alors que les projets AIY de Google tentaient de placer une plate-forme cloud a commencé avec des kits à faible coût en carton avec des cartes supplémentaires pour la connexion aux technologies intégrées liées à Google Cloud. Celles-ci incluent le kit de vision AIY pour le Raspberry Pi Zero W et WH, qui effectue une reconnaissance visuelle basée sur TensorFlow. Il intègre une carte "VisionBonnet" avec une puce d'accélérateur réseau neuronal Intel Myriad 2. AIY Projects a également lancé un kit vocal AIY avec la même cible RPi Zero WH qui vous permet de créer un haut-parleur à commande vocale avec prise en charge de Google Assistant. Hackster.io ] post sur le port de Alasdair Allan, le kit AIY Vision a du mal à bien fonctionner lorsqu’il opère localement. Le kit vocal a fait mieux en raison de sa plus grande dépendance à Google Cloud.

Accélérateur TPU Edge de Google

D'après un tweet de Warden après l'annonce, TensorFlow n'utilise pas actuellement L'unité de traitement graphique VideoCore de Broadcom, comme le fait Nvidia avec son GPU Pascal plus puissant. Il continue en suggérant qu'il pourrait y avoir un potentiel pour développer un port spécifique aux GPU Raspberry Pi Zero, mais pour l'instant il y a suffisamment de puissance sur les quatre cœurs de processeur du Pi. En parlant de crochets potentiels avec le GPU, il écrit: " Avec les processeurs quad-core et Neon sur les derniers Pi, l'avantage n'est pas aussi important, mais toujours intéressant sur Pi Zeroes." Google ignore le GPU car il s'attend à ce que les utilisateurs de Raspberry Pi et d’autres développeurs intégrés exploitent sa puce d’accélérateur ML Edge, récemment annoncée, compatible avec Linux pour TensorFlow. Le Edge TPU sera proposé cet automne avec un kit de développement Linux basé sur NXP i.MX8M et un dongle USB Edge TPU Accelerator pouvant être installé sur n'importe quel ordinateur Linux, y compris le Pi.

une version légère et intégrée de son co-processeur AI Cloud Tensor Processing Unit (Cloud TPU). Conjointement avec une nouvelle pile Cloud IoT Edge, la puce est conçue pour exécuter les modèles TensorFlow Lite ML sur les passerelles IoT basées sur Arm Linux ou Android connectées aux services Google Cloud.

Nvidia lance des modules industriels TX2i et octa-core Xavier Jetson

Nvidia est plus loin dans sa tentative d’apporter ses technologies d’IA basées sur Pascal / CUDA aux développeurs Linux embarqués. Ses modules sur ordinateur Jetson TX1 et TX2 ont été largement adoptés dans les projets Linux embarqués pour les applications ML. Le Jetson TX2 a récemment fait son apparition dans des appareils, dont l'ordinateur Box eBOX560-900-FL ainsi que la prochaine carte Mini-ITX AIR-T pour FPGA compatible AI. applications.

Au cours des derniers mois, Nvidia a commencé à expédier un Jetson TX2i sur le TX2 destiné aux applications industrielles. Le TX2i ajoute un support de -40 à 85 ° C, une résistance aux vibrations et une plage d'humidité plus large . Il existe également le support pour la RAM ECC, un cycle de vie de fonctionnement de 10 ans et une garantie de 3 ans.

Comme le Jetson TX2, le TX2i offre deux cœurs haut de gamme Denver à deux bras de bloc quad-core, Cortex-A57 et processeur graphique 256 cœurs Pascal avec bibliothèques CUDA pour exécuter les algorithmes AI et ML. Comme le TX2, le module fournit également 8 Go de RAM LPDDR4, 32 Go d'eMMC 5.1 et 802.11ac WiFi et Bluetooth.

Les cartes mères Jetson existantes fonctionnent avec le TX2i. Aetina vient d'annoncer une porteuse ACE-N310 pour tous les modules Jetson correspondant à la prise en charge industrielle du TX2i et prenant en charge six caméras HD simultanées.

La nouvelle Jetson TX2 Jetson Xavier module. Le noyau Xavier, qui a déjà été utilisé par Nvidia Drive PX Pegasus dispose de 8 cœurs ARMv8.2 et d'un GPU Nvidia Volta haut de gamme à 512 cœurs avec des cœurs de tenseurs. Il fournit également deux moteurs d’apprentissage profond NVDLA et une puce de vision VLIW à 7 voies. Le Xavier est livré avec LPDDR4 et eMMC 5.1 de 16 Go à 256 bits.

Google et Nvidia ne sont pas les seuls à mener des campagnes d’analyse en nuage. Par exemple, la puce de l’accélérateur de réseau neuronal Intel Movidius 2 est de plus en plus utilisée. Vraisemblablement, cependant, tous les kits de projets AIY futurs remplaceront le Movidius 2 avec le Edge TPU.
Bien qu'Amazon n'ait pas encore révélé son propre accélérateur neuronal, il est peut-être encore le leader de l'analyse à la popularité de sa pile AWS IoT et de son logiciel AWS Greengrass pour le traitement local des logiciels d'analyse de cloud sur les périphériques Linux. Pendant ce temps, Microsoft vise également l'espace IoT avec son système de distribution Azure Sphere basé sur Arm Linux et son framework IoT. Azure Sphere ciblera initialement les applications à faible consommation fonctionnant sur des puces Cortex-A7. Cependant, les versions futures pourraient être plus robustes et pourraient inclure un composant IA maison.

Rejoignez-nous à Conférence Open Summit Summit + Embedded Linux Europe à Edinburgh, Royaume-Uni, du 22 au 24 octobre 2018 Plus de 100 sessions sur Linux, Cloud, Conteneurs, IA, Communauté, etc.


raspberry pi 3 maroc
Acheter raspberry pi 3 ICI

Source

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *