Odata cu dezvoltarea AI-ului si aplicatiilor AI pentru aproape orice fel de dispozitive mobile sau nu un nou tip de semiconductor a aparut si a inceput sa fie tot mai cautat si mai optimizat: cipul AI ce poate sa faca fata la calcule complexe, variate si la procesari de date in numar urias, toate necesare pentru functii si aplicatii AI moderne. Dar ce sunt aceste cipuri sau procesoare AI si ce utilitati pot avea in lumea reala?

Recent, Microsoft a dezvaluit cipurile/procesoarele speciale pentru AI si procese AI. Qualcomm si MediaTek nu s-au lasat mai prejos si au anuntat deja telefoane smart cu cipuri special gandite pentru AI si aplicatii AI integrate in sistemele lor de operare.

Dar ce sunt pana la urma aceste procesoare, cipuri AI? Cipurile AI sunt niste semiconductori optimizati si creati pentru a facilitat capabilitatile AI „on-device”, gandite pentru executarea LLM-urilor, Large Language Models. Configuratia lor e de tip SoC, System-On-Chip, depasind procesoarele obisnuite CPU-uri responsabile pentru procesare si calcule.

Ca sa intelegeti cum functioneaza aceste cipuri AI si de ce e nevoie de ele trebuie sa intelegem mai intai cum functioneaza AI pe telefoane mobile. De exemplu, indreptam camera telefonului spre un caine si vrem sa aflam ce rasa e. Algoritmii AI intra in actiune si incep sa lucreze si sa caute informatii, sa le prelucreze, dupa care sa le afiseze intr-o interfata. Intervin retelele neurale, in Cloud sau on-device, tot procesul de prelucrare a datelor simuland gandirea umana.

E nevoie de astfel de cipuri pentru ca un CPU conventional e bun doar la procesare in serie, un proces la un anumit moment. Dar ca un dispozitiv mobil sa ajunga sa proceseze sarcini AI on-device e nevoie de calcule multiple si procese executate simultan. GPU-urile sunt capabile de astfel de procesari, insa ele nu sunt pentru sarcini AI, deci e nevoie fie de GPU-uri modificate, fie de CPU-uri dedicate pentru AI, a doua varianta fiind si cea mai simpla.

Si un CPU traditional, si unul pentru AI si sarcini AI integreaza numerosi tranzistori care opereaza la o cadenta foarte mare si consuma mai putina energie. Cu toate astea, cipurile AI incorporeaza caracteristici optimizate pentru metodologii distincte de procesare.

GPU-urile sunt folosite initial la dezvoltarea si eficientizarea algoritmilor AI, in timp ce FPGA-urile, Field Programmable Gate Arrays, aplica algoritmi AI antrenati cu date din lume reala.

Astfel de cipuri din silicon specializate pentru dispozitivele ce integreaza functionalitati machine learning sunt din ce in ce mai dese in ziua de astazi, „motoarele neurale” si cipurile dedicate AI sunt deja prezente pe noile si viitoarele telefoane iPhone, Huawei sau Samsung.

Apar insa si probleme de securitate si de confidentialitate odata ce integrezi cipuri AI in telefoane mobile. Serviciile machine learning trebuie sa trimita date in Cloud ca sa poata realiza analize. Apple si Google au dezvoltat niste metode de a realiza calcule si procese complicate AI direct pe telefonul utilizatorilor, insa acestea nu se folosesc inca la scara larga.

Un hardware dedicat on-device pentru AI va reduce riscurile de hacking si scurgere de date importante. Si daca datele nu se trimit la fiecare cateva secunde in Cloud asta inseamna ca se pot accesa serviciile si off-line si se pot salva datele. Nu mai platesti pentru servere daca esti developer de aplicatii si servicii, toata analiza se va putea face on-device.

Dar integrarea unor cipuri, procesoare AI in telefoane chiar inseamna ca vei putea folosi mai eficient aplicatii si servicii AI? Companiile mari, Huawei, Apple, au dezvoltat propriile API-uri pentru a putea sa fie folosita toata puterea hardware de tip neural. Plus ca ai nevoie de un AI framework suportat, de exemplu TensorFlow sau Caffe2 de la Google si Facebook.

E nevoie de parteneriate pentru a dezvolta astfel de tehnologii avansate, asa ca Microsoft lucreaza cu Huawei pentru a se asigura ca aplicatia Translator va functiona si off-line, cu un cip NPU al companiei, Facebook are parteneriat strategic cu cei de la Qualcomm pentru integrarea de hardware AI si imbunatatirea Realitatii Augmentate la nivel de filtrare. La Apple lucrurile sunt simple pentru dezvoltatori, trebuie doar sa fie adaptate aplicatiile odata ce folosesc Core ML framework. Dar pe Android va fi un chin pentru ca toti producatorii au protocoale separate.

Vine Google si al sau TensorFlow Lite, framework AI mobil, si salveaza situatia, ruland deja API-uri pe Android pentru accelerarea procesarii pe cipuri silicon.

Perspectiva producatorilor de telefoane smart cand vine vorba de cipuri AI si AI pe telefoane difera. De exemplu, Huawei va integra AI si cipuri AI doar pentru realocarea resurselor in principal ca sa nu incetineasca dispozitivul si sa permita anumite functii AI. Pentru Apple insa, AI si cipurile AI in dispozitivele lor inseamna un Face ID si animoji mult mai eficiente si mai interesante, mai puternice din punct de vedere al proceselor.

Diferitele tipuri de cipuri AI au hardware specific si functionalitati specifice. GPU-urile moderne se folosesc pentru antrenarea modelelor AI, au procesare paralela foarte eficienta, companiile conecteaza mai multe GPU-uri pentru sincronizare in antrenamente. FPGA-urile sunt utile in aplicatii ale modelelor AI pentru ca pot fi reprogramate „din mers”, sunt hiperspecializate, daca e vorba de procesare imagine si video eficienta e foarte mare.

ASIC-urile sunt cipuri accelerate implicate si ele in procesele AI, dar au o functionalitate specifica, de exemplu pentru Inteligenta Artificiala, suporta anumite aplicatii, insa nu se vor putea reprograma, asa cum e cazul FPGA-urilor, circuitele sunt optimizate pentru un anumit tip de sarcini.

Se discuta si despre NPU-uri, niste add-on-uri care permit CPU-urilor sa poata sustine sarcini AI si seamana cu GPU-urile, doar ca au scop si mai precis, construirea de modele deep learning si retele neurale, se proceseaza un numar urias de date pentru sarcini AI avansate, detectare obiecte, recunoastere vocala, editare video avansata.

Ce utilizari practice vor avea cipurile AI specializate? In prima faza se vor folosi pentru LLM-uri si tot ce tine de ele, pentru antrenamente si rafinari foarte rapide, dezvoltarea de LLM-uri si mai capabile si mai performante. Instrumentele AI generative, chatboti, asistenti AI, generatoare de text vor fi din ce in ce mai bune la ceea ce fac si ofera datorita acestor cipuri AI.

Ne gandim si la „edge AI”, un proces complex care permite procesare AI pe orice fel de dispozitiv smart din casa si in orasele „smart”. Procesarea va avea loc mai aproape de punctul de origine al datelor, in loc de Cloud, se reduce latenta, se imbunatateste securitatea, eficienta energetica e mai mare.

Sa nu uitam de vehicule autonome, de condus fara sofer, cipurile AI vor fi utile pentru procesarea datelor colectate de la tot ce ofera masina, camere, senzori, LiDAR, permitand si recunosterea de imagini. Procesarea paralela oferita permite decizii in timp real, vehiculele pot naviga in medii complexe, pot detecta obstacole si pot raspunde la conditii dinamice de trafic.

Robotica va beneficia de pe urma cipurilor AI mobile, raspunsul la mediu si stimulii exteriori fiind mult mai eficient. De la coboti ce pot sa recolteze de pe camp si sa ajute la recoltare pana la roboti umanoizi speciali pentru companie, toate aceste aplicatii vor deveni realitate mai rapid odata cu dezvoltarea procesoarelor AI.

Cipurile AI pot oferi rezultate mai precise, procesarea e mai precisa, nu mai apar asa de multe ori ca la procesarea obisnuita. Imagistica medicala, vehiculele autonome raman cele mai bune aplicatii pentru astfel de cipuri complicate.

Si peste toate mai e si personalizarea cipurilor AI. Ele se pot personaliza ca sa faca fata cerintelor unor anumite modele AI sau aplicatii, permitand hardwarelui sa se adapteze in functie de sarcinile diferite primite. Se pot schimba variabile, parametri, se optimizeaza arhitecturi pentru anumite sarcini foarte dificile gestionate de AI.

Dezvoltatorii vor putea sa isi personalizeze hardwareul pe care lucreaza dupa cum doresc, putand integra algoritmi, tipuri de date diferite, cerinte de calcul cu un specific mai greu de conturat in lipsa AI-ului de la nivelul procesoarelor.