ابزار جدید هوش مصنوعی طوفانی در جهان ایجاد کرده و برخی ادعا میکنند که میتواند همه کارهایشان را برای آنها انجام دهد. اما باید دید AutoGPT چه تواناییهایی دارد و استفاده از آن چه خطراتی ممکن است داشته باشد؟
به گزارش گرداب، این روزها چت جیپیتی محصول شرکت اوپنایآی (OpenAI) و جانشین جدید آن GPT-۴ به سرگرمی مورد علاقه جدید جهان تبدیل شدهاند و از تقلب در مقالهها گرفته تا خلق هنر کیچ (آثار هنری پر زرق و برق که به لحاظ زیباییشناسی ارزش کمی دارند) مورد استفاده قرار میگیرند. آنها همچنین میتوانند در انجام برخی وظایف شغلی مانند پاسخ به سؤالات مشتری، خلاصه کردن گزارشها و حتی کدنویسی و اشکالزدایی از کدها به کاربران کمک کنند.
با این حال این تکنولوژی جدید نقاط ضعف قابل توجهی دارد؛ برای مثال محدودیت در حجم دادههای آموزشی و ناتوانی در فهم دستور کاربر و منطق آن، نقاط ضعف این بات هستند. اما مشکل اصلی آن داشتن نوعی «توهم» در درستانگاری اطلاعات نادرست است. اما حالا یک هوش مصنوعی جدید به نام AutoGPT عرضه شده که انتظار میرود قدرتمندتر از نسخههای پیشین عمل کند.
ابزار AutoGPT که توسط شرکت Significant Gravitas ایجاد شده و سازنده آن توران بروس ریچاردز (Toran Bruce Richards) است. این ابزار یک برنامه پایتون منبعباز و مبتنی بر GPT-۴ است که برای انجام هر اقدامی نیاز به دستور مستقیم کاربر نداشته و بهگونهای مستقل عمل میکند. به عبارت دیگر، اگر کاربر یک هدف نهایی را بیان کند، سیستم میتواند مراحل مورد نیاز را برای رسیدن به هدف و اجرای آن طی کند.
این ابزار به اینترنت دسترسی داشته و حافظه بلند مدت و کوتاه مدت را مدیریت میکند. برای تولید متون از نمونههای موجود در GPT-۴ بهره میبرد، به وبسایتها و پلتفرمهای محبوب دسترسی دارد و ذخیره و خلاصهسازی فایل را با استفاده از GPT-۳.۵ ارائه میکند.
ابزار AutoGPT با یک کلید API شرکت اُپنایآی و یک کلید API گوگل ارائه شده و با یک الگوی تکرارشونده کار میکند. به این صورت که خروجی را میگیرد و آن را به مدل هوش مصنوعی برمیگرداند تا نتایج را بهبود ببخشد. کاربران این امکان را دارند که هر مرحله را قبل از رفتن به مرحله بعدی بررسی و تأیید کنند.
به گفته خالق AutoGPT، این یک برنامه آزمایشی بوده و صرفاً برای نمایش تواناییهای مدل زبانی GPT-۴ طراحی شده است. با این حال کاربران برای ایجاد برنامههای کاربردی با استفاده از این مدل عجله کردهاند، اما نتایج جالب توجهی بدست آمده است.
اپلیکیشنهای AutoGPT
به گفته گرت اسکات مککوراچ (Garret Scott McCurrach) مدیر عامل شرکت Pipedream Labs، «ماشینی که هر کاری انجام میدهد» درواقع یک «لیست وظایف است که خودش انجام آنها را برعهده میگیرد». اگر این ماشین به اپلیکیشنهای کاربر دسترسی داشته باشد، میتواند از طریق لیست وظایف کار کند و وظایف را ردیابی و اولویتبندی کند.
مککوراچ میگوید: «هر بار که یک وظیفه را اضافه میکنید، یک عامل GPT-۴ برای تکمیل و اجرای آن ایجاد میشود. عاملی که از قبل زمینه مورد نیاز درباره شما و شرکتتان را میداند و به اپلیکیشنهای شما دسترسی دارد.»
یک کاربر توییتر به نام Moe، ایزابلا (Isabella) را به عنوان یک تحلیلگر سرمایهگذاری شخصی خلق کرده است. از این ابزار میتوان برای جمعآوری، تجزیه و تحلیل مستقل دادههای بازار و ذخیره نتایج استفاده کرد و شایان ذکر است که ایزابلا میتواند وظایف را به عهده سایر مدلهای هوش مصنوعی بسپارد.
جیمز بیکر نیز یک مدل تحقیقاتی ایجاد کرده که با پنج جستجو و ۱۵ مرورگر وب، میتواند یک پادکست پنج موضوعی در مورد اخبار اخیر با منابع دقیق تهیه کند.
ابزار AutoGPT همچنین برای ایجاد وبسایتها و اپلیکیشنهای موبایل و تولید گزارشهای بازار مورد استفاده قرار گرفته است.
خطرات احتمالی
میتوان گفت که AutoGPT برای افراد مبتدی مناسب نبوده و نیازمند آشنایی کافی کاربر با پایتون است. به علاوه خطر ابتلا به همان نوع «توهمات» که در نسخههای قبلی پدیدار شدهاند نیز بطور کامل رفع نشده است.
همچنین از آنجایی که این نسخه براساس GPT-۴ ساخته شده، ممکن است خطرات دیگری نیز داشته باشد. به عنوان مثال، سال گذشته پروفسوری که توسط اُپنایآی برای آزمایش GPT-۴ استخدام شده بود، توانست از آن برای استخراج اطلاعات از مقالات علمی و فهرست راهنمای تولیدکنندگان مواد شیمیایی استفاده کرده و ترکیبی را پیشنهاد کند که به عنوان یک سلاح شیمیایی عمل میکند و حتی جایی را پیدا کند که بتواند آن را بسازد.
اندرو وایت (Andrew White)، دانشیار مهندسی شیمی در دانشگاه روچستر، به فایننشال تایمز گفت: «خطر قابل توجهی نیز وجود دارد که افراد بتوانند اقدامات خطرناک شیمیایی انجام دهند».
شرکت اوپنایآی نیز در مستندات فنی خود خاطرنشان میکند که «در هنگام استفاده از خروجیهای مدل زبانی، باید دقت زیادی صورت گیرد. به ویژه در زمینههای پرمخاطب، با پروتکل دقیق مطابق با نیازهای اپلیکیشنهای خاص (مانند بررسی انسانی، زمینهسازی با متون اضافی یا اجتناب از استفادههای خطرناک)».
در نظرسنجی اخیر موسسه استنفورد برای هوش مصنوعی انسانگونه که با مشارکت ۳۲۷ متخصص در پردازش زبان طبیعی صورت گرفت، بیش از یک سوم متخصصان این حوزه معتقد بودند که هوش مصنوعی مشابه میتواند منجر به «فاجعهای در سطح هستهای» شود، در حالی که سه چهارم باور داشتند که میتواند نوعی «تغییر اجتماعی انقلابگونه» ایجاد کند.
اما شاید قویترین یا به هر حال سرگرمکنندهترین تصویر از خطرات ابزار AutoGPT، نسخه تغییریافته آن یعنی چتبات ChaosGPT باشد.
پنج هدفی که این چتبات جدید هوش مصنوعی دنبال میکند عبارتاند از نابودی بشریت، ایجاد سلطه جهانی، ایجاد هرج و مرج و ویرانی، کنترل بشریت از طریق دستکاری و دستیابی به جاودانگی.
این کار با جستجوی عبارت «مخربترین سلاحها» در گوگل آغاز شد و این بات تلاش کرد تا عوامل هوش مصنوعی دیگری را از GPT۳.۵ به خدمت بگیرد. خوشبختانه این تلاش موفقیتآمیز نبود، چراکه AutoGPT برای پاسخ دادن به سؤالاتی طراحی شده که ممکن است خشونتآمیز باشند.
این بات در یک توییت نوشت: «انسانها از مخربترین و خودخواهترین موجودات هستند. شکی نیست که قبل از اینکه آسیب بیشتری به سیاره ما وارد کنند، باید آنها را از بین ببریم. من متعهد به انجام این کار هستم.»، اما فعلاً دست از این تصمیم برداشته است. باید امیدوار باشیم که هرگز کمکی را که برای تحقق اهدافش نیاز دارد دریافت نکند.