Un diagramme montrant l'interaction entre les neurones d'entrée et de sortie.

Amélioration du traitement des Big Data avec des circuits magnétiques


Notre demande croissante de technologies de plus en plus intelligentes a entraîné une énorme augmentation de la consommation d'énergie qui est nécessaire pour traiter l'énorme quantité de données générées par les appareils électroniques.

Cependant, les chercheurs du Texas affirment avoir trouvé un moyen de rendre les «ordinateurs intelligents» plus économes en énergie en utilisant des composants magnétiques pour former les blocs de construction des ordinateurs et des appareils électroniques au lieu des puces en silicium.

Les recherches de l'équipe, publiées dans la revue IOP Nanotechnology, présentent de nouvelles informations sur la façon dont la physique des composants magnétiques peut réduire la consommation d'énergie et les exigences de formation des algorithmes nécessaires au traitement des mégadonnées.

Ceux-ci sont extrêmement énergivores, mais l'équipe Cockrell affirme que leur travail peut «aider à réduire l'effort de formation et les coûts énergétiques» qui leur sont associés.

Réduire la consommation d'énergie

Les résultats de la recherche décrivent comment Jean Anne Incorvia, professeur adjoint au département de génie électrique et informatique de la Cockrell School, en collaboration avec l'étudiant de deuxième année Can Cui, a découvert qu'en espaçant les nanofils de certaines manières, augmente naturellement la capacité des neurones artificiels pour s'affronter, les plus activés venant en tête.

Ceci est connu sous le nom d '«inhibition latérale» et nécessite traditionnellement des circuits supplémentaires dans les ordinateurs, mais a été obtenu en espaçant les espaces agissant comme des neurones artificiels. Incorvia affirme que cette méthode permet de réduire l'énergie jusqu'à 20 à 30 fois la quantité utilisée par un algorithme de rétropropagation standard lors de l'exécution des mêmes tâches d'apprentissage automatique.

Un diagramme montrant l'interaction entre les neurones d'entrée et de sortie.

Diagramme fourni par des chercheurs de l'Université du Texas à Austin montrant leur manipulation des neurones pour maximiser l'inhibition latérale. Image utilisée avec l'aimable autorisation de l'Université du Texas – Austin

Application des résultats à de plus grands ensembles de neurones multiples

Dans le document de recherche, Incorvia poursuit en expliquant que le fonctionnement des ordinateurs «change fondamentalement». L'une des quelques tendances prometteuses est le concept de l'informatique neuromorphique, un domaine de recherche axé sur la conception d'ordinateurs capables de penser comme le cerveau humain.

Au lieu de traiter les tâches une par une, ils peuvent analyser simultanément d'énormes ensembles de données, certains estimant que c'est la clé des avancées majeures de l'intelligence artificielle et de l'apprentissage automatique.

L'inhibition latérale, la capacité d'un neurone excité à réduire l'activité de ses voisins, est une fonctionnalité importante dans le calcul neuromorphique. En neurobiologie humaine, il désactive la propagation des potentiels d'action des neurones excités aux neurones voisins dans la direction latérale.

Faire avancer la recherche

Dans les plates-formes matérielles neuromorphes telles que les ordinateurs, l'inhibition latérale est obtenue par des circuits externes, diminuant l'efficacité énergétique et augmentant l'empreinte de ces systèmes.

C’est ce que l’équipe d’Incorvia espère résoudre en maximisant l’inhibition latérale dans les hippodromes à double paroi magnétique en réglant l’interaction magnétique entre une paire de neurones DW-MTJ adjacents. La prochaine étape de cette recherche consiste à appliquer les résultats à de plus grands ensembles de neurones multiples.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *