این شرکت آمریکایی به تازگی دو مقاله تحقیقاتی درباره استفاده از هوش مصنوعی در دستگاههای موبایل منتشر کرده است.
به گزارش گرداب، احتمالاً کمی سادهلوحانه خواهد بود که گمان کنیم در مسابقه بر سر هوش مصنوعی اپل اختلاف زیادی با رقبای خود دارد. غول بزرگ دنیای فناوری رویکرد صبورانه و آرامی را دنبال کرده است و این شرکت به تازگی از طریق دو مقاله جدید گامهای مهمی را در تحقیقات هوش مصنوعی اعلام کرده است.
اپل به ندرت در مورد هوش مصنوعی صحبت میکند و دوست دارد به جای حضور در چرخه تبلیغات هوش مصنوعی، در پس زمینه کار کند - به این ترتیب، این شرکت میتواند از خطرات انتظارات بیش از حد کاربران خود جلوگیری کند.
این بدان معنا نیست که غول فناوری بر روی یادگیری ماشین کار نمیکند. برای مثال، در ماه جولای، بلومبرگ نیوز اعلام کرد که اپل بی سر و صدا ابزارهای هوش مصنوعی مولد خود را برای رقابت با محصولات OpenAI و Google ایجاد کرده است، اما هنوز تصمیم نگرفته است که چه زمانی منتشر شود.
این احتمالاً به این دلیل است که اپل همیشه یک شرکت مصرفکننده بوده است که در درجه اول به محصول نهایی و کاری که نرمافزار برای کاربر انجام میدهد، توجه داشته است. به عبارت دیگر، این شرکت میخواهد تا حد امکان برای هر ویژگی جدید آماده باشد.
این شرکت از طریق دو مقاله جدید که تکنیکهای جدید برای آواتارهای سه بعدی و استنتاج مدل زبانی کارآمدتر را معرفی میکند، گامهای بزرگی را در تحقیقات هوش مصنوعی برداشته است.
این پیشرفتها ممکن است به طور بالقوه تجربههای بصری همهجانبهتری را ایجاد کنند و، شاید مهمتر، به سیستمهای پیچیده هوش مصنوعی اجازه دهند روی دستگاههای مصرفکننده معمولی مانند آیفون و آیپد اجرا شوند.
در اولین مقاله تحقیقاتی، دانشمندان اپل HUGS (Human Gaussian Splats) را برای تولید آواتارهای سه بعدی متحرک از ویدیوهای کوتاه تک چشمی (فیلمهای گرفته شده از یک دوربین) پیشنهاد کردند.
به گفته نویسندگان اصلی مقاله، این روش به طور خودکار یاد میگیرد که صحنه ایستا را از هم متمایز کند و یک آواتار انسانی کاملاً متحرک در عرض ۳۰ دقیقه ایجاد کند. در مقایسه با روشهای قبلی تولید آواتار، HUGS در آموزش و رندر تا ۱۰۰ برابر سریعتر عمل میکند.
قابلیت مدلسازی سهبعدی جدید و توانایی ایجاد آواتار از سادهترین ویدیوها، دستاورد چشمگیر اپل به نظر میرسد. این میتواند در آینده نزدیک امکانات جدیدی را برای آزمایش مجازی، حضور از راه دور و رسانههای مصنوعی باز کند.
مقاله دوم به چالش کلیدی در استقرار مدلهای زبان بزرگ (LLM) بر روی دستگاههایی با حافظه محدود پرداخته است؛ بهطور مثال به گوشیهای هوشمند فکر کنید. مدلهای مدرن زبان طبیعی مانند GPT-۴ حاوی صدها میلیارد پارامتر هستند؛ این امر استفاده از آن را روی سختافزار مصرفکننده دشوار میکند.
در سیستم پیشنهادی این مقاله انتقال داده از حافظه فلش به DRAM (حافظه پویا تصادفی در دسترس) را در طول پردازش به حداقل میرسد. در این مقاله آمده است:
"روش ما شامل ساخت یک مدل پردازش و بهکارگیری است که با رفتار حافظه فلش هماهنگ است و ما را به بهینه سازی در دو حوزه مهم راهنمایی میکند: کاهش حجم دادههای منتقل شده از فلش و خواندن دادهها در قطعات بزرگتر و پیوستهتر. "
مهرداد فرجتبار، یکی از نویسندگان این مطالعه، میگوید: «این پیشرفت بهویژه برای استقرار LLMهای پیشرفته در محیطهای با منابع محدود، و در نتیجه گسترش کاربرد و دسترسی آنها بسیار مهم است».
نکته اصلی این است که این بهینهسازیها ممکن است به زودی به دستیارهای پیچیده هوش مصنوعی و چتباتها اجازه دهند تا به راحتی روی آیفونها، آیپدها و سایر دستگاههای تلفن همراه اجرا شوند.