原子スケールの並列メモリスタによるニューラルネットワーク

17.10.2018

Credit: J. App. Phys.

 

バイオミメテイクスと呼ばれる生物学的な模倣が様々な先端分野で取り入れられている。その中のひとつである脳の神経回路を模倣するハードウェア(ニューラルネットワーク)では、シナプスの接続能力が鍵となる。そのためのメモリスタ(注1)と呼ばれるアプローチは、情報を記録するために抵抗を使用する。メモリスタを原子レベルでスケーリングによって、メモリスタデバイスの信頼性の問題を克服する新しい研究が登場している。

 

(注1)抵抗を流れる電荷を記憶する素子。フラッシュ・メモリやDRAMよりも電力消費が少ない。

 

南カリフォルニア大学の研究チームは、ベクトル - 行列乗算を行うことが新しいタイプの化合物シナプスによるシナプス大量プログラミング(注2)を実証した。この化合物シナプスでは、単原子レベルの超薄膜窒化ホウ素メモリスタ素子を配置したことで、正確な動作を達成した(Esqueda et al., J. App. Phys. 124,152133, 2018

 

(注2)スパコンでヒトの脳機能シミュレーションのアルゴリズムが開発されている。スパコンのベクトル演算は大電力を必要となるため低電力メモリスタは実用的なニューラルネットワークに適している。

 

現在のメモリスタ技術は、異なるタイプのメモリスタ素子から複数回の信号の記憶と読み取られるかに大きなばらつきがあることが問題であった。研究チームはこれを克服するために、多数のメモリスタ素子を並行して動作させた。複合された出力は、従来のデバイスの最高5倍の精度を達成することができ、より複雑なデバイスが化合物ベースの素子で可能になった。

 

サブナノメートルレベルに進むという選択は、これらの並列メモリスタをエネルギー効率を向上させるために必然的な方向である。新開発のメモリスタの配列は、現在利用可能なメモリスタより10,000倍エネルギー効率が高い。

 

素子数を増やして電力を節約した新メモリスタによる複合シナプスを模倣することで画像やパターン認識などの複雑な作業が可能になると期待されている。量子計算機を利用するニューラルネットワークの研究も始まっている。