Alors que de plus en plus d’entreprises combinent des appareils Internet des objets (IoT) et des capacités informatiques de pointe, les gens sont de plus en plus curieux de savoir comment ils pourraient utiliser l’intelligence artificielle (IA) pour optimiser ces applications. Voici quelques possibilités de réflexion.
Améliorer la précision de l’inférence des capteurs IoT grâce à l’apprentissage automatique
Les chercheurs en technologie en sont encore aux premiers stades de l’étude de la manière d’améliorer les performances des capteurs IoT déployés en périphérie grâce à l’apprentissage automatique. Certaines des premières applications incluent l’utilisation de capteurs pour des tâches de classification d’images ou celles impliquant le traitement du langage naturel. Cependant, un exemple montre comment les gens progressent.
Les chercheurs d’IMDEA Networks ont reconnu que l’utilisation de capteurs IoT pour des tâches d’apprentissage en profondeur spécifiques peut signifier que les capteurs ne peuvent pas garantir des exigences de qualité de service spécifiques, telles que la latence et la précision des inférences. Cependant, les personnes travaillant sur ce projet ont développé un algorithme d’apprentissage automatique appelé AMR² pour aider à relever ce défi.
AMR² utilise une infrastructure informatique de pointe pour rendre les inférences des capteurs IoT plus précises tout en permettant des réponses plus rapides et des analyses en temps réel. Les expériences ont suggéré que l’algorithme améliorait la précision de l’inférence jusqu’à 40 % par rapport aux résultats des tâches de planification de base qui n’utilisaient pas l’algorithme.
Ils ont découvert qu’un algorithme de planification efficace tel que celui-ci est essentiel pour aider les capteurs IoT à fonctionner correctement lorsqu’ils sont déployés à la périphérie. Un chercheur du projet a souligné que l’algorithme AMR² pourrait avoir un impact sur un délai d’exécution si un développeur l’utilisait pour un service similaire à Google Photos, qui classe les images en fonction des éléments qu’elles contiennent. Un développeur pourrait déployer l’algorithme pour s’assurer que l’utilisateur ne remarque pas de tels retards lors de l’utilisation de l’application.
Réduire la consommation d’énergie des appareils connectés grâce à l’IA en périphérie
Une étude réalisée en 2023 auprès des directeurs financiers d’entreprises technologiques a déterminé que 80 % s’attendent à une augmentation des revenus au cours de l’année à venir. Cependant, cela est sans doute plus susceptible de se produire si les employés comprennent les besoins des clients et fournissent des produits ou des services en conséquence.
Les fabricants de nombreux appareils IoT prévoient que les gens portent ces produits presque constamment. Certains appareils portables détectent si les travailleurs isolés tombent ou sont en détresse ou si les personnes occupant des postes physiquement exigeants deviennent trop fatiguées et ont besoin de se reposer. Dans de tels cas, les utilisateurs doivent être sûrs que leurs appareils IoT fonctionneront de manière fiable tout au long de leurs journées de travail et au-delà.
C’est l’une des raisons pour lesquelles les chercheurs ont exploré comment l’utilisation de l’IA à la périphérie pourrait améliorer l’efficacité énergétique des appareils IoT déployés pour étudier les effets d’un mode de vie sédentaire sur la santé et comment une posture correcte pourrait améliorer les résultats. Tout appareil IoT qui capture des données sur la façon dont les gens vivent doit collecter des données en continu, nécessitant peu ou pas de cas où la collecte d’informations s’arrête parce que l’appareil est à court de batterie.
Dans ce cas, les sujets portaient des appareils sans fil alimentés par des piles bouton. Chacun de ces gadgets était équipé de capteurs d’inertie pour collecter des données précises sur le nombre de personnes déplacées tout au long de la journée. Cependant, le principal problème était que les batteries ne duraient que quelques heures en raison du grand volume de données transmises. Par exemple, des recherches ont montré qu’un capteur de mouvement à neuf canaux qui lit 50 échantillons par seconde produit plus de 100 Mo de données par jour.
Cependant, les chercheurs ont reconnu que l’apprentissage automatique ne pouvait permettre aux algorithmes que de transférer des données critiques d’appareils IoT déployés en périphérie vers des smartphones ou d’autres appareils qui aident les gens à analyser les informations. Ils ont ensuite utilisé un réseau neuronal récurrent pré-formé et ont constaté que l’algorithme atteignait des performances en temps réel, améliorant ainsi la fonctionnalité des appareils IoT.
Créer des opportunités de formation à l’IA sur l’appareil
Les progrès de l’informatique de pointe ont ouvert des opportunités d’utiliser des appareils intelligents dans plus d’endroits. Par exemple, les gens ont suggéré de déployer des lampadaires intelligents qui s’allument et s’éteignent en réponse aux niveaux de trafic en temps réel. Les chercheurs et les passionnés de technologie sont également intéressés par les opportunités accrues associées à la formation à l’IA qui se déroule directement sur les appareils IoT déployés en périphérie. Cette approche pourrait augmenter les capacités de ces produits tout en réduisant la consommation d’énergie et en améliorant la confidentialité.
Une équipe du MIT a étudié la faisabilité de la formation d’algorithmes d’IA sur des dispositifs de périphérie intelligents. Ils ont essayé plusieurs techniques d’optimisation et en ont trouvé une qui ne nécessitait que 157 Ko de mémoire pour former un algorithme d’apprentissage automatique sur un microcontrôleur. D’autres méthodes d’entraînement légères nécessitent généralement entre 300 et 600 Mo de mémoire, ce qui fait de cette innovation une amélioration significative.
Les chercheurs ont expliqué que toutes les données générées pour la formation restent sur l’appareil, ce qui réduit les problèmes de confidentialité. Ils ont également suggéré des cas d’utilisation où la formation se déroule tout au long d’une utilisation normale, par exemple si les algorithmes apprennent par ce qu’une personne tape sur un clavier intelligent.
Cette approche a eu des résultats sans aucun doute impressionnants. Dans un cas, l’équipe a formé l’algorithme pendant seulement 10 minutes, ce qui était suffisant pour lui permettre de détecter des personnes dans des images. Cet exemple montre que l’optimisation peut aller dans les deux sens.
Bien que les deux premiers exemples ici se soient concentrés sur l’amélioration du fonctionnement des appareils IoT, cette approche a amélioré le processus de formation à l’IA. Cependant, supposons que les développeurs forment des algorithmes sur des appareils IoT qui les utiliseront éventuellement pour mieux fonctionner. C’est un cas où l’approche profite mutuellement aux algorithmes d’IA et aux appareils de pointe IoT.
Comment allez-vous utiliser l’IA pour améliorer le fonctionnement des appareils IoT-Edge ?
Ces exemples montrent certaines des choses sur lesquelles les chercheurs se sont concentrés lorsqu’ils ont exploré comment l’intelligence artificielle pourrait améliorer la fonctionnalité des appareils IoT déployés à la périphérie. Laissez-les fournir des informations précieuses et de l’inspiration sur la façon dont vous pourriez obtenir des résultats similaires. Il est presque toujours préférable de commencer par un problème clairement défini que vous souhaitez résoudre. Ensuite, commencez à explorer comment la technologie et les approches innovantes pourraient aider à atteindre cet objectif.