معرفی ابزار AutoGPT

معرفی ابزار AutoGPT
تاریخ انتشار : ۱۱ ارديبهشت ۱۴۰۲

ابزار جدید هوش مصنوعی طوفانی در جهان ایجاد کرده و برخی ادعا می‌کنند که می‌تواند همه کارهایشان را برای آن‌ها انجام دهد. اما باید دید AutoGPT چه توانایی‌هایی دارد و استفاده از آن چه خطراتی ممکن است داشته باشد؟

به گزارش گرداب، این روز‌ها چت جی‌پی‌تی محصول شرکت اوپن‌ای‌آی (OpenAI) و جانشین جدید آن GPT-۴ به سرگرمی مورد علاقه جدید جهان تبدیل شده‌اند و از تقلب در مقاله‌ها گرفته تا خلق هنر کیچ (آثار هنری پر زرق و برق که به لحاظ زیبایی‌شناسی ارزش کمی دارند) مورد استفاده قرار می‌گیرند. آن‌ها همچنین می‌توانند در انجام برخی وظایف شغلی مانند پاسخ به سؤالات مشتری، خلاصه کردن گزارش‌ها و حتی کدنویسی و اشکال‌زدایی از کد‌ها به کاربران کمک کنند.

با این حال این تکنولوژی جدید نقاط ضعف قابل توجهی دارد؛ برای مثال محدودیت در حجم داده‌های آموزشی و ناتوانی در فهم دستور کاربر و منطق آن، نقاط ضعف این بات هستند. اما مشکل اصلی آن داشتن نوعی «توهم» در درست‌انگاری اطلاعات نادرست است. اما حالا یک هوش مصنوعی جدید به نام AutoGPT عرضه شده که انتظار می‌رود قدرتمندتر از نسخه‌های پیشین عمل کند.

ابزار AutoGPT که توسط شرکت Significant Gravitas ایجاد شده و سازنده آن توران بروس ریچاردز (Toran Bruce Richards) است. این ابزار یک برنامه پایتون منبع‌باز و مبتنی بر GPT-۴ است که برای انجام هر اقدامی نیاز به دستور مستقیم کاربر نداشته و به‌گونه‌ای مستقل عمل می‌کند. به عبارت دیگر، اگر کاربر یک هدف نهایی را بیان کند، سیستم می‌تواند مراحل مورد نیاز را برای رسیدن به هدف و اجرای آن طی کند.

این ابزار به اینترنت دسترسی داشته و حافظه بلند مدت و کوتاه مدت را مدیریت می‌کند. برای تولید متون از نمونه‌های موجود در GPT-۴ بهره می‌برد، به وب‌سایت‌ها و پلتفرم‌های محبوب دسترسی دارد و ذخیره و خلاصه‌سازی فایل را با استفاده از GPT-۳.۵ ارائه می‌کند.

ابزار AutoGPT با یک کلید API شرکت اُپن‌ای‌آی و یک کلید API گوگل ارائه شده و با یک الگوی تکرارشونده کار می‌کند. به این صورت که خروجی را می‌گیرد و آن را به مدل هوش مصنوعی برمی‌گرداند تا نتایج را بهبود ببخشد. کاربران این امکان را دارند که هر مرحله را قبل از رفتن به مرحله بعدی بررسی و تأیید کنند.
به گفته خالق AutoGPT، این یک برنامه آزمایشی بوده و صرفاً برای نمایش توانایی‌های مدل زبانی GPT-۴ طراحی شده است. با این حال کاربران برای ایجاد برنامه‌های کاربردی با استفاده از این مدل عجله کرده‌اند، اما نتایج جالب توجهی بدست آمده است.

اپلیکیشن‌های AutoGPT

به گفته گرت اسکات مک‌کوراچ (Garret Scott McCurrach) مدیر عامل شرکت Pipedream Labs، «ماشینی که هر کاری انجام می‌دهد» درواقع یک «لیست وظایف است که خودش انجام آن‌ها را برعهده می‌گیرد». اگر این ماشین به اپلیکیشن‌های کاربر دسترسی داشته باشد، می‌تواند از طریق لیست وظایف کار کند و وظایف را ردیابی و اولویت‌بندی کند.
مک‌کوراچ می‌گوید: «هر بار که یک وظیفه را اضافه می‌کنید، یک عامل GPT-۴ برای تکمیل و اجرای آن ایجاد می‌شود. عاملی که از قبل زمینه مورد نیاز درباره شما و شرکت‌تان را می‌داند و به اپلیکیشن‌های شما دسترسی دارد.»

یک کاربر توییتر به نام Moe، ایزابلا (Isabella) را به عنوان یک تحلیلگر سرمایه‌گذاری شخصی خلق کرده است. از این ابزار می‌توان برای جمع‌آوری، تجزیه و تحلیل مستقل داده‌های بازار و ذخیره نتایج استفاده کرد و شایان ذکر است که ایزابلا می‌تواند وظایف را به عهده سایر مدل‌های هوش مصنوعی بسپارد.
جیمز بیکر نیز یک مدل تحقیقاتی ایجاد کرده که با پنج جستجو و ۱۵ مرورگر وب، می‌تواند یک پادکست پنج موضوعی در مورد اخبار اخیر با منابع دقیق تهیه کند.
ابزار AutoGPT همچنین برای ایجاد وب‌سایت‌ها و اپلیکیشن‌های موبایل و تولید گزارش‌های بازار مورد استفاده قرار گرفته است.

خطرات احتمالی‌

می‌توان گفت که AutoGPT برای افراد مبتدی مناسب نبوده و نیازمند آشنایی کافی کاربر با پایتون است. به علاوه خطر ابتلا به همان نوع «توهمات» که در نسخه‌های قبلی پدیدار شده‌اند نیز بطور کامل رفع نشده است.
همچنین از آنجایی که این نسخه براساس GPT-۴ ساخته شده، ممکن است خطرات دیگری نیز داشته باشد. به عنوان مثال، سال گذشته پروفسوری که توسط اُپن‌ای‌آی برای آزمایش GPT-۴ استخدام شده بود، توانست از آن برای استخراج اطلاعات از مقالات علمی و فهرست راهنمای تولیدکنندگان مواد شیمیایی استفاده کرده و ترکیبی را پیشنهاد کند که به عنوان یک سلاح شیمیایی عمل می‌کند و حتی جایی را پیدا کند که بتواند آن را بسازد.
اندرو وایت (Andrew White)، دانشیار مهندسی شیمی در دانشگاه روچستر، به فایننشال تایمز گفت: «خطر قابل توجهی نیز وجود دارد که افراد بتوانند اقدامات خطرناک شیمیایی انجام دهند».

شرکت اوپن‌ای‌آی نیز در مستندات فنی خود خاطرنشان می‌کند که «در هنگام استفاده از خروجی‌های مدل زبانی، باید دقت زیادی صورت گیرد. به ویژه در زمینه‌های پرمخاطب، با پروتکل دقیق مطابق با نیاز‌های اپلیکیشن‌های خاص (مانند بررسی انسانی، زمینه‌سازی با متون اضافی یا اجتناب از استفاده‌های خطرناک)».
در نظرسنجی اخیر موسسه استنفورد برای هوش مصنوعی انسان‌گونه که با مشارکت ۳۲۷ متخصص در پردازش زبان طبیعی صورت گرفت، بیش از یک سوم متخصصان این حوزه معتقد بودند که هوش مصنوعی مشابه می‌تواند منجر به «فاجعه‌ای در سطح هسته‌ای» شود، در حالی که سه چهارم باور داشتند که می‌تواند نوعی «تغییر اجتماعی انقلاب‌گونه» ایجاد کند.

اما شاید قوی‌ترین یا به هر حال سرگرم‌کننده‌ترین تصویر از خطرات ابزار AutoGPT، نسخه تغییریافته آن یعنی چت‌بات ChaosGPT باشد.
پنج هدفی که این چت‌بات جدید هوش مصنوعی دنبال می‌کند عبارت‌اند از نابودی بشریت، ایجاد سلطه جهانی، ایجاد هرج و مرج و ویرانی، کنترل بشریت از طریق دستکاری و دستیابی به جاودانگی.

این کار با جستجوی عبارت «مخرب‌ترین سلاح‌ها» در گوگل آغاز شد و این بات تلاش کرد تا عوامل هوش مصنوعی دیگری را از GPT۳.۵ به خدمت بگیرد. خوشبختانه این تلاش موفقیت‌آمیز نبود، چراکه AutoGPT برای پاسخ دادن به سؤالاتی طراحی شده که ممکن است خشونت‌آمیز باشند.

این بات در یک توییت نوشت: «انسان‌ها از مخرب‌ترین و خودخواه‌ترین موجودات هستند. شکی نیست که قبل از اینکه آسیب بیشتری به سیاره ما وارد کنند، باید آن‌ها را از بین ببریم. من متعهد به انجام این کار هستم.»، اما فعلاً دست از این تصمیم برداشته است. باید امیدوار باشیم که هرگز کمکی را که برای تحقق اهدافش نیاز دارد دریافت نکند.