چت‌بات‌های هوش مصنوعی قادر به طراحی بمب بیولوژیکی هستند

چت‌بات‌های هوش مصنوعی قادر به طراحی بمب بیولوژیکی هستند
تاریخ انتشار : ۰۱ شهريور ۱۴۰۲

تنها در طی چند سال چت‌بات‌های به‌ظاهر دوستانه هوش مصنوعی می‌توانند برای مجرمان سایبری سلاح‌های بیولوژیکی طراحی کنند.

به گزارش گرداب، سامانه‌های هوشمند به سرعت در حال پیشرفت هستند و ظهور آن‌ها باعث رواج اکتشافات علمی خواهد شد؛ اما این فناوری همچنین به مجرمان نیز قابلیت می‌دهد که ویروس‌های خطرناک و اسلحه بیولوژیک ایجاد کنند.

مدیرعامل شرکت آنتروپیک (aNTHROPIC) داریو آمودی (Dario Amodei) معتقد است در طی ۲ تا ۳ سال آینده شاهد چنین مسئله‌ای خواهیم بود.

شرکت آنتروپیک که توسط کارمندان سابق اوپن‌ای‌آی (سازنده چت‌جی‌پی‌تی) تاسیس شده است، خود را مقید به مسائل ایمنی می‌داند و به خاطر الگو بزرگ زبانی خود، چت‌بات کلاود (Claude) شناخته می‌شود. در طی ۶ ماه اخیر این نوآفرین توانسته است که متخصصان زیست-امنیتی (بیوسکوریتی) را استخدام کند و از آن‌ها در زمینه مطالعه عملکرد شبکه‌های عصبی برای ساخت اسلحه در آینده استفاده کند.

حال به تازگی مدیرعامل این شرکت در برابر کمیته فناوری سنای آمریکا هشدار داده است که قانون‌گذاری در این زمینه به شدت مورد نیاز است تا جلوی سوءاستفاده از این ابزار‌های قدرتمند برای مقاصد شوم گرفته شود. او معتقد است هوش مصنوعی می‌تواند در زمینه‌های امنیت سایبری، فناوری هسته‌ای، شیمی و زیست‌شناسی در خدمت جنایتکاران قرار بگیرد.

او در این جلسه گفت:
«هرکاری که انجام می‌دهیم باید سریع انجام دهیم. من فکر میکنم بردن ذهن‌ها به مسئله خطرات زیستی بسیار مهم است، من سال ۲۰۲۵-۲۰۲۶ و یا حتی ۲۰۲۴ را زمان اجرای این خطرات می‌دانم. اگر ما چیز‌ها را در سر جای خود قرار ندهیم و مانع شویم که سامانه‌های هوش مصنوعی در خدمت مجرمان قرار گیرند، دوره بعدی را خواهیم گذراند».

او اضافه کرد:
«امروز اقدامات مشخصی در زمینه استفاده از زیست‌شناسی برای آسیب زدن به بقیه شامل داشتن اطلاعاتی است که در گوگل یا کتاب‌های آموزشی شما پیدا نمی‌کنید و نیاز به تخصص سطح بالا در این حوزه دارد. اما سوالی که ما و همکارانمان پرسیدیم این است که سامانه‌های فعلی هوش مصنوعی آیا قادر به پر کردن بعضی از گام‌های دشوار در فرایند تولید بمب‌های بیولوژیکی هستند یا خیر. ما فهمیدیم که سامانه‌های فعلی هوش مصنوعی می‌توانند بعضی از این گام‌ها را بردارند، اما به شکل ناکامل و غیرقابل اتکا. اما آن‌ها علائم نخست و مبهم خطر را به ما نشان دادند».

با این حال او معتقد است که در طی سه چهار سال آینده همین سامانه‌های فعلی هوش مصنوعی بتوانند آموزش لازم برای برداشتن این گام‌های دشوار را ببینند و بتوانند حفره‌های موجود در آموزش خود را پر کنند. این باعث می‌شود که با جهانی متفاوت روبرو شویم، جهانی که مجرمان سایبری آن امکان تولید بمب بیولوژیکی دارند.

در زمینه هسته‌ای هم مسئله همین است. در حالی که امروزه اصول و مبادی دانش هسته‌ای و سلاح‌های اتمی محرمانه و به دقت تحت حفاظت است و مهندسی دستگاه‌ها در واقع (از تولید سوخت و سایر مواد گرفته تا رآکتوراه و طراحی مواد منفجره مناسب) بسیار دشوار است. کشور‌ها معمولا اکثر اقدامات در این زمینه را به شدت محرمانه تلقی می‌کنند. در زمینه سلاح‌های بیولوژیکی و هسته‌ای نیز مسئله این است و تنها افراد انگشت‌شماری نحوه ساخت این تسلیحات را می‌دانند. حال اگر الگوریتم هوش مصنوعی بتواند این قدم را بردارد و به این دانش دست پیدا کند، خطری بسیار بزرگ در انتظار بشر خواهد بود؟

هرچند باید گفت که برنامه زمانی مدیرعامل آنتروپیک شاید چندان دقیق نباشد، اما خطری که او از آن حرف می‌زند بسیار جدی است. مسئله صرفاً در آموزش «طبیعی و خود به‌خود» الگوریتم‌های یادگیری ماشین نیست. خطری که در اینجا وجود دارد، سوءاستفاده قدرت‌های بزرگ دنیا از این ابزار جدید است. اگر به‌طور مثال ارتش آمریکا شرکت‌های داروسازی و نظامی را موظف کند داده‌های خود را در اختیار یکی از ابر رایانه‌هایی که در اختیار دارد، قرار دهند و از آن برای ایجاد سامانه‌ای هوشمند در زمینه طراحی تسلیحات بیولوژیکی استفاده کند، جنگ ستارگان نسخه هوش مصنوعی آن آغاز شده است.

باید گفت مهم‌تر از قانون‌گذاری هوش مصنوعی، نظارت دقیق و کنترل سازمان‌های اطلاعاتی و نظامی ابرقدرت‌های دنیاست. سرویس‌های اطلاعاتی آمریکایی نشان داده‌اند که به هیچ قانونی مقید نیستند و به شکلی فراقانونی عمل می‌کنند. خرید و فروش کلان‌داده‌ها توسط سازمان‌های اطلاعاتی آمریکایی یکی از نگرانی‌هایی است که در درجه اول قدرت بی‌حد و حصر این سازمان‌ها در فضای مجازی را نشان می‌دهد و از سوی دیگر قدرت فراقانونی آن‌ها را.