4 Minute
De ani de zile, AI-ul de pe telefoane a purtat un fel de mască. Întrebi, primești un răspuns, dar undeva pe traseu datele tale sunt trimise la un server îndepărtat, sunt procesate și apoi revin la tine. Acea ocolire ascunsă a fost întotdeauna costul. Google vrea acum să taie legătura, iar Gemma 4 este cel mai clar semn că AI-ul pe dispozitiv pe Android devine serios.
Google DeepMind a prezentat Gemma 4 săptămâna trecută împreună cu Arm, având un scop clar: să ruleze AI avansat direct pe telefoane Android cu procesoare Arm, în loc să se bazeze pe cloud. Potrivit Google, noua familie de modele este de până la patru ori mai rapidă decât versiunile anterioare și poate folosi cu până la 60% mai puțină baterie. Variantele mai mici E2B și E4B au fost concepute având telefoanele în vedere și pot procesa text, imagini și audio fără a trimite cereri prin internet.
De ce contează Arm aici
Motorul discret din spatele acestui salt este setul de instrucțiuni SME2 al Arm, prezent în noile procesoare Armv9. Pe scurt, accelerează calculele matriciale de care depinde AI-ul modern. Arm spune că testele sale inginerești timpurii au arătat o îmbunătățire medie de 5,5x în procesarea intrărilor utilizatorilor, împreună cu generarea răspunsurilor care a fost de până la 1,6x mai rapidă pe modelul Gemma 4 E2B. Partea interesantă? Dezvoltatorii nu trebuie să rescrie aplicațiile pentru a beneficia de aceste câștiguri. Strat software KleidiAI al Arm se conectează la bibliotecile runtime existente ale Google, astfel încât îmbunătățirea apare cu foarte puțină fricțiune.
Un astfel de upgrade invizibil este exact ceea ce ar putea transforma AI-ul pe dispozitiv dintr-o demonstrație într-un instrument folosit zilnic. Mai rapid. Mai eficient. Mai puțin dependent de o conexiune de date. Acestea sunt cele trei lucruri pe care AI-ul mobil le urmărește de la început.
Cel mai limpede exemplu vine de la Envision, o aplicație de accesibilitate destinată utilizatorilor nevăzători și cu deficiențe de vedere. Până acum, înțelegerea scenei depindea adesea de accesul la cloud. Într-un prototip care folosește Gemma 4 local pe CPU-urile Arm, un utilizator putea face o fotografie și primi instantaneu o descriere detaliată a scenei, fără a fi nevoie de rețea. Pentru o aplicație de acest tip, suportul offline nu este o funcție suplimentară. Este funcția principală.
Google pregătește și următorul pas. Gemma 4 va servi ca bază pentru Gemini Nano 4, viitorul model local pentru Android. Asta înseamnă că dezvoltatorii care lucrează acum cu Gemma 4 ar trebui să găsească compatibilitate cu Gemini Nano 4 când acesta va apărea pe dispozitivele de top mai târziu în acest an. Gemini Nano alimentează deja funcții locale precum răspunsuri inteligente și rezumate audio, iar producători de cipuri precum MediaTek împing puternic în aceeași direcție. Gemma 4 adaugă mai mult la mix, inclusiv suport multimodal și capabilități agentice încorporate.
Pentru dezvoltatori, accesul este deja deschis. Modelele E2B și E4B sunt disponibile prin Google AI Edge Gallery pe Android și iOS sub o licență Apache 2.0. Și asta contează pentru că cursa pentru un AI util, privat și cu latență redusă nu mai are loc doar în cloud. Se mută în telefonul din mâna ta.
Lasă un Comentariu