À la recherche d’une intelligence artificielle plus écologique | Technologie

Turar dans sa carrière L’intelligence artificielle (IA) suit les innovations. Et parmi le nouveau lancement, de petits modèles appelés beaucoup sont révélés, Modèles de petit langage ou slm. Ils sont différents des LLM, qui sont de grands modèles qui servent de moteur ou de gemini Google. Ces systèmes pour plus simple et plus efficace des ressources peuvent parfois être exécutés sur un ordinateur ou même sur un téléphone mobile.
C’est l’opposé du fonctionnement de grands systèmes d’IA, qui cloud computing Travailler. Cela signifie le traitement des informations sur les grandes machines des centres de données. Et les effets sur l’environnement seront remarqués. Banque d’investissement Goldman Sachs Calculer Les centres de données de l’IA augmenteront les besoins énergétiques de 165% d’ici 2030. Un pronostic se produit dans le contexte de la fièvre pour former une telle infrastructure.
La société américaine Openai prévoit d’investir jusqu’à 500 000 millions de dollars avec plusieurs partenaires pour supprimer les centres de données. Ce n’est qu’en 2025, Amazon, Microsoft, Google et Meta prévoient de payer plus de 320 000 millions de millions dans ce type d’infrastructure. Il a également annoncé un programme pour la Commission européenne Attribution de 200 000 millions d’eurosPour créer des centres de données pour l’intelligence artificielle avec un financement mixte.
Compte tenu de cette guerre pour accumuler des sources de calcul, les petits modèles d’IA peuvent être une alternative plus durable. Mistral Small 3.1, option que commencer Français Tout en travaillant sur un Mac avec 32 Gigabayt Ram, avec le même nom, le projet open source peut être appliqué TinyLlam 1.1b Plus de 8 RAM sur les ordinateurs de gigaoctetsIl y a même ceux qui essaient à l’intérieur smartphone. Dans le cadre du catalogue d’actualités dans l’IA, Google a récemment lancé un modèle GEMMA 3 1B. Préparé pour les appareils mobiles. L’idée est que les développeurs l’intégrent. applications Pour accomplir les tâches sans se connecter à Internet.
« Les petits modèles ont été optimisés pour avoir le nombre le plus bas de paramètres, donc le réseau est plus petit. Plus le modèle le plus efficace de consommation d’énergie est petit, moins vous devez faire de traitement et avoir moins d’espace de stockage. » Centre de recherche sur les technologies de l’information et de la communication De l’Université de Coruña. Un de ces auteurs une étudeCela explore des formules pour promouvoir une IA plus durable au niveau environnemental.
« Si vous fournissez également le modèle à exécuter sur un appareil Vous devez envoyer chaque nouvelle requête à un centre de données. Cela a clairement le coût de la transmission de données, et en outre, les grands centres de données consomment plus d’énergie. Si vous le faites sur votre propre appareil, vous économiserez tout cela, dit Bol Bolón-Kanedo.
Bien sûr, les petits modèles travaillant sur un ordinateur ou un téléphone mobile sont moins sensibles et ne servent aucune tâche. Par exemple, tout sur les images est complexe. Bien que les progrès soient fait rapidement.
«Modèles de petits langues, modèles multi-mod et raisonnement de haute qualité, progrès à grande vitesse. Companies. Ils préparent ces modèles Activement pour les applications commerciales et les inférences (opérations pour répondre à une consultation) pour les applications commerciales et les inférences, la société, le directeur de la technologie Qualcomm George Tsirtsis en Europe.
Il est difficile à calculer, mais on peut considérer que la économie d’énergie sera remarquable lors de l’exécution de modèles sur un appareil. « Les grands centres de données ont des machines beaucoup plus fortes qui consomment plus d’énergie. Et il y a de nombreux problèmes de refroidissement. Exécuter des systèmes à la maison. « Il n’y a pas trop de problèmes de confidentialité. Vos données ne quittent pas votre appareil, ils ne vont pas au cloud. De plus, il est rapidement gagné car il n’y a pas de retard dans l’envoi, le traitement et la réception de la réponse. »
Un rapport L’Agence internationale de l’énergie estime que les centres de données représentant 1,5% de l’énergie totale actuellement consommée contiendront 3% en 2030. Ils allaient atteindre 945 teravatios-hora par an, ce qui est plus que les besoins énergétiques du Japon. Les charges de travail liées à l’intelligence artificielle consommeront chaque année plus de 30% de l’électricité.
« Le traitement de l’IA sur un appareil est beaucoup plus efficace que de demander aux modèles d’hébergement dans les centres de données, en particulier dans les applications qui nécessitent une réponse en temps réel ou presque réel, au niveau de l’énergie, AI. Mais l’exécution locale a des difficultés. Consommer trop d’énergie Et si cela ne fonctionne que dans un appareil, il a un effet sur la batterie. Pour cette raison, des fabricants tels que Qualcomm ont développé NPU (l’abréviation anglaise de l’unité de traitement neuronal), qui vise à gérer efficacement.
La société a également appliqué ces processeurs à la première génération d’IA PC, une étiquette inventée pour annoncer la venue de l’IA sur les ordinateurs. «Notre plate-forme Snapdragon X comprend une NPU à haute performance et une efficacité énergétique développée pour l’inférence de l’intelligence artificielle productive. matériel Lorsque vous traitez avec la batterie, il permet aux puces de gérer les tâches complexes de l’ordinateur portable, TS indique TSIRTSIS.
Mais quels devoirs continuent de voir L’IA sera utileIl a été exécuté à la maison. Dans tous les cas, les petits modèles ne remplacent pas les grands modèles. L’IA reflète le chercheur. « Il y aura des tâches que nous pourrons utiliser avec les performances fournies par un modèle plus petit effectué à la maison, probablement réalisée par un modèle plus petit pour créer du texte. » « Mais ensuite, une compréhension plus profonde, un raisonnement ou une IA multimodale (informations et informations intégrées dans différents formats tels que le texte, l’image ou le son), comme le calcul des tâches plus coûteuses. Vous avez certainement besoin d’un grand modèle pour ces tâches. »
Certaines tâches adaptées à l’exécution de l’appareil peuvent être écrites, créant un résumé, créant un résumé, l’écriture manuscrite dans les images, la traduction de textes ou les transcriptions sonores. Tsirtsis reconnaît que l’avenir est d’adopter une approche hybride. L’estimé est qu’il y aura des applications qui chercheront le cloud et résoudront d’autres tâches sur l’appareil si nécessaire. C’est une façon de progresser vers un équilibre entre les performances et l’efficacité énergétique.