CPU não, MPU – Chip de memoristores junta memória e processamento

Memoristores para as massas

Uma nova maneira de organizar em um chip componentes eletrônicos de próxima geração, chamados memoristores, permitiu que eles sejam usados para computação de uso geral e ainda reduzindo o consumo de energia por um fator de 100.

“Historicamente, a indústria de semicondutores melhorou o desempenho tornando os componentes mais rápidos. Mas, embora os processadores e as memórias sejam muito rápidos, eles não podem ser eficientes porque precisam esperar que os dados entrem e saiam,” contextualiza o professor Wei Lu, da Universidade de Michigan (EUA), referindo-se à separação de funções entre memória e processador.

Os memoristores podem ser a resposta para isso. Batizados por um amálgama de memória e resistor, eles podem ser programados para ter diferentes estados de resistência, ou seja, eles armazenam informações como níveis de resistência, e não perdem os dados quando a energia é desligada. Esses componentes permitem que o armazenamento e o processamento sejam feitos no mesmo dispositivo, eliminando o gargalo de transferência de dados experimentado pelos computadores convencionais, nos quais a memória é separada do processador.

No entanto, ao contrário dos bits comuns, que são 1 ou 0, os memristores podem ter resistências que estão em um continuum. Isto é o ideal para aplicações como a computação que imita o cérebro (neuromórfica), que tira proveito justamente da natureza analógica dos memristores.

Mas, para a computação comum, diferenciar entre pequenas variações na corrente que passa por um componente memoristor de forma suficientemente precisa para efetuar cálculos numéricos tem-se mostrado um desafio complicado de superar.

Foto: Yeonjoo Jeong

Unidade de processamento e memória

Foi o pesquisador Mohammed Zidan quem contornou esse problema digitalizando as saídas de corrente dos memoristores – definindo faixas de corrente como valores de bit específicos (ou seja, 0 ou 1). A equipe também conseguiu mapear grandes problemas matemáticos em blocos menores dentro da matriz, melhorando a eficiência e a flexibilidade do sistema.

Computadores com esses novos blocos, que a equipe chama de “unidades de processamento e memória” (MPU – Memory-Processing Unit), poderão ser particularmente úteis para implementar algoritmos de aprendizado de máquina e inteligência artificial.

Eles também são adequados para tarefas baseadas em operações matriciais, como simulações usadas para previsão do tempo, porque as matrizes matemáticas mais simples, semelhantes a tabelas com linhas e colunas de números, podem ser mapeadas diretamente na grade de memoristores.

A equipe pretende usar a nova arquitetura para melhorar ainda mais a rede neural que adivinha palavras antes que você fale, que foi apresentada em sua versão inicial no início deste ano.

 

Fonte: Inovação Tecnológica | Foto: Mohammed Zidan

Nenhum comentário publicado.

Deixe um comentário