Accelerador d'IAUn accelerador d'IA és una classe d'acceleració per maquinari especialitzat dissenyat a fi d'accelerar aplicacions d'intel·ligència artificial i d'aprenentatge automàtic, incloent-hi xarxes neuronals artificials i visió artificial. Les aplicacions típiques inclouen algorismes per robòtica, la internet de coses, i altres tasques amb és intensiu de dades o sensors.[1] Són sovint dissenys multi-processadors i generalment se centren en aritmètica de baixa precisió, noves arquitectures de flux de dades o bases de dades en memòria primària (in-memory computing). AL 2018, un xip d'IA típic conté mil milions de transistors MOSFET.[2] Diversos venedors usen termes particulars pels dispositius existents en aquesta categoria, per tal com és una tecnologia emergent sense un disseny dominant. Els ordinadors han complementat sovint la CPU amb acceleradors de propòsit especial per tasques específiques, coneguts com coprocessadors. Destaquen unitats de maquinari tals com targetes de vídeo per gràfics, targetes de so, unitats de computació gràfica i processadors de senyals digitals. Les càrrega de les tasques d'aprenentatge profund i intel·ligència artificial van augmentar de gran manera durant els 2010s, de manera que es van desenvolupar noves unitats de maquinari especialitzades per tal que productes existents poguessin accelerar aquestes tasques. Primers intentsEls primers intents, com el ETANN 80170NX d'Intel, van incorporar circuits analògics per calcular funcions neuronals.[3] Un altre exemple dels xips d'aquesta categoria és ANNA, un accelerador CMOS de xarxes neuronals artificials desenvolupat per Yann LeCun.[4] Més tard van venir tots els xips digitals com el Nestor/Intel Ni1000. Aviat, el 1993, processadors de senyal digital van ser utilitzats com acceleradors per xarxa neuronals, p. ex. per accelerar programes de reconeixement òptic de caràcters.[5] En el 1990s, hi va haver també intets de crear sistemes paral·lels d'altes prestacions per estacions de treball, drigita a diverses aplicacions com simulacions de xarxes neuronals.[6][7][8] Acceleradors basats en FPGA van ser també explorats durant els 1990s per les fases d'inferència i d'entrenament en xarxes neuronals.[9][10] Ús de GPUsUna unitat de procés gràfic o GPU és una unitat de especialitzada en la manipulació d'imatges i el càlcul de propietats locals d'imatges. La base matemàtica del flux de processament d'imatges i de les xarxes neuronals és similar, són tasques perfectament paral·lelitzables que requereixen l'ús de matrius, cosa que va portar a l'usatge cada cop més gran de GPUs per tasques d'aprenentatge automàtic.[11][12][13] El 2016, l'usatge de GPUs és popular per fer tasques d'IA, i continuen evolucionant en la direcció de millorar el suport a l'aprenentatge profund, tant per l'entrenar cpm per la inferència, en dispositius com vehicles autònoms.[14][15] Desenvolupadors de GPU com Nvidia té en desenvolupament noves capacitat de connectivitat addicionals per aquesta classe de tasques de flux de dades que pot beneficiar l'IA.[16] Per tal com GPUs es dediquen cada cop més a accelerar tasques d'IA, fabricants de GPU han incorporat maquinari específic per xarxes neuronals que va més enllà d'accelerar aquestes tasques.[17][18] Els nuclis de tensors es dissenyen amb l'objectiu d'accelerar l'entrenament de xarxes neuronals.[18] Referències
|
Portal di Ensiklopedia Dunia