Appleનું ગ્રાઉન્ડબ્રેકિંગ AI સંશોધન iPhonesને બદલી શકે છે, Google અને Microsoft કરતાં આગળ નીકળી શકે છે

AI પરના તેના તાજેતરના સંશોધન પત્રો દ્વારા, Apple સ્માર્ટફોનમાં AI માં મોખરે રહેવાની યોજના બનાવી રહી હોય તેવું લાગે છે.

TECHNOLOGY

NIKITA MARKETING

12/22/20231 min read

આર્ટિફિશિયલ ઇન્ટેલિજન્સ એ 2023નો સૌથી મોટો બઝવર્ડ છે, ગૂગલ અને માઇક્રોસોફ્ટ તેમના ઉત્પાદનો અને યોજનાઓની લાઇનનું પ્રદર્શન કરે છે અને AIનો ઉપયોગ કરવાની તેમની મોટી દ્રષ્ટિ છે. AI ની આસપાસના તમામ રોગચાળામાં, Apple જ્યારે તેની AI પરાક્રમ દર્શાવવાની વાત આવે છે ત્યારે તે સ્પષ્ટપણે મૌન અથવા ધીમી રહી છે. કદાચ, આ જ કારણ છે કે ઘણા લોકો પૂછી રહ્યા છે કે એપલ એઆઈ આર્મ્સ રેસને ચાલુ રાખવા માટે શું કરી રહ્યું છે. જવાબ સરળ છે, Apple વર્ષોથી વિવિધ ક્ષમતાઓમાં AI સાથે કામ કરી રહ્યું છે. તે માત્ર એટલું જ છે કે વપરાશકર્તાઓ તેમના iPhones પર ChatGPT જેવું કંઈક સંકલિત કરવામાં સક્ષમ નથી.

જો કે, વસ્તુઓ બદલાવાની છે. એપલે એક નવા રિસર્ચ પેપરમાં એક નવીન ટેકનિક દર્શાવી છે જે iPhones પર AI ચલાવવામાં મદદ કરી શકે છે. આ તકનીકમાં ફ્લેશ સ્ટોરેજ ઑપ્ટિમાઇઝેશનનો ઉપયોગ કરીને વિશાળ એલએલએમને સુવ્યવસ્થિત કરવાનો સમાવેશ થાય છે. જ્યારે Apple એડવાન્સ્ડ AI ને iPhone માં એકીકૃત કરશે, ત્યારે તે ઘટનાઓનો બીજો નોંધપાત્ર વળાંક હશે. ક્યુપર્ટિનો સ્થિત ટેક જાયન્ટે આ મહિને પ્રદર્શિત કરેલા બે નવા સંશોધન પત્રો દ્વારા AI માં નોંધપાત્ર વિકાસની જાહેરાત કરી છે. પેપર 3D અવતાર અને કાર્યક્ષમ ભાષા મોડેલ અનુમાન માટે નવી તકનીકો જાહેર કરે છે.

12 ડિસેમ્બરે પ્રકાશિત થયેલ આ નવું સંશોધન 'LLM ઇન અ ફ્લેશ: Efficient Large Language Model Inference with Limited Memory' આઇફોન અનુભવને પરિવર્તિત કરવાની ક્ષમતા ધરાવે છે કારણ કે તે વધુ ઇમર્સિવ વિઝ્યુઅલ અનુભવ પ્રદાન કરી શકે છે અને વપરાશકર્તાઓ જટિલ AI સિસ્ટમને ઍક્સેસ કરી શકશે. iPhones અને iPads. સંશોધન પેપર અનિવાર્યપણે મર્યાદિત DRAM ક્ષમતાવાળા ઉપકરણો પર મોટા ભાષાના મોડલને અસરકારક રીતે ચલાવવા પર ધ્યાન કેન્દ્રિત કરે છે. DRAM એ ડાયનેમિક રેન્ડમ એક્સેસ મેમરી છે જેનો ઉપયોગ પીસીમાં થાય છે અને તે ઝડપી ગતિ, ઉચ્ચ ઘનતા, પરવડે તેવા અને ઓછા પાવર વપરાશ માટે જાણીતી છે.

અહીં સંશોધનમાંથી કેટલાક ઉપાયો છે જે એપલને તેના સાથીદારો કરતા આગળ સેટ કરશેઆ પેપર એલએલએમ ચલાવવાના પડકારને સંબોધે છે જે વાસ્તવમાં ઉપલબ્ધ DRAM કરતાં વધી જાય છે, મોડેલ પરિમાણોને ફ્લેશ મેમરીમાં સંગ્રહિત કરે છે, અને માંગ પર તેમને DRAM માં ચલાવવામાં આવે છે. તે ઈન્ફરન્સ કોસ્ટ મોડલ વિશે વાત કરે છે જે ફ્લેશ મેમરીમાંથી ડેટા ટ્રાન્સફરને ઑપ્ટિમાઇઝ કરવા માટે વિકસાવવામાં આવ્યું છે, ફ્લેશ અને DRAM લાક્ષણિકતાઓને ધ્યાનમાં લઈને.

પેપરમાં ચર્ચા કરાયેલી તકનીકો વિન્ડોઇંગ છે જે અગાઉ સક્રિય કરાયેલા ન્યુરોન્સનો ફરીથી ઉપયોગ કરીને ડેટા ટ્રાન્સફર ઘટાડે છે અને રો-કૉલમ બંડલિંગ જે કાર્યક્ષમ ફ્લેશ મેમરી વાંચવા માટે ડેટા ચંક કદમાં વધારો કરે છે.

આ પેપર સ્પાર્સિટી એક્સપ્લોઈટેશનને પણ હાઈલાઈટ કરે છે જે ફીડફોરવર્ડ નેટવર્ક (FFN) સ્તરોમાં સ્પેર્સિટીનો ઉપયોગ કાર્યક્ષમતા વધારવા માટે પસંદગીયુક્ત રીતે પરિમાણોને લોડ કરવા માટે કરે છે. બીજું મુખ્ય પાસું મેમરી મેનેજમેન્ટ છે જે ઓવરહેડ ઘટાડવા માટે DRAM માં લોડ થયેલ ડેટાને અસરકારક રીતે સંચાલિત કરવા માટેની વ્યૂહરચનાઓ પ્રસ્તાવિત કરે છે.

પણ વાંચો | iOS 17.2.1 અપડેટ પસંદગીના પ્રદેશોમાં iPhones પર બૅટરી જીવન સુધારવા માટેસંશોધકોએ તેમના અભિગમને દર્શાવવા માટે OPT 6.7B અને Falcon 7B જેવા મોડલનો ઉપયોગ કર્યો છે. પેપર મુજબ, પરિણામો દર્શાવે છે કે પરંપરાગત પદ્ધતિઓની સરખામણીમાં મોડલ્સે CPU અને GPU પર અનુક્રમે 4-5x અને 20-25x સ્પીડમાં વધારો કર્યો છે.