Los recientes avances en inteligencia artificial (IA) han motivado a los investigadores a desarrollar ordenadores que funcionen de forma más parecida al cerebro humano, recuerda un comunicado de Northwestern.
Durante varias décadas, apunta Hersam, el paradigma de la electrónica ha sido construirlo todo con transistores -semiconductores que rectifican y amplifican impulsos eléctricos- y utilizar la misma arquitectura de silicio.
“Se ha avanzado mucho simplemente introduciendo más y más transistores en los circuitos integrados. No se puede negar el éxito de esa estrategia, pero tiene el coste de un elevado consumo de energía, especialmente en la actual era de los grandes datos en la que la informática digital va camino de desbordar la red”.
Por eso, hay que replantearse “el hardware informático, especialmente para tareas de IA y aprendizaje automático”.
Los sistemas informáticos digitales convencionales tienen unidades de procesamiento y almacenamiento separadas, lo que precisamente hace que las tareas intensivas en datos devoren grandes cantidades de energía.
En cambio en el cerebro, explica Hersam, la memoria y el procesamiento de la información están ubicados en el mismo lugar y totalmente integrados, lo que se traduce en una eficiencia energética de órdenes de magnitud superiores.
“Nuestro transistor sináptico logra de forma similar la funcionalidad concurrente de memoria y procesamiento de la información para imitar más fielmente al cerebro”.