تنها در طی چند سال چتباتهای بهظاهر دوستانه هوش مصنوعی میتوانند برای مجرمان سایبری سلاحهای بیولوژیکی طراحی کنند.
به گزارش گرداب، سامانههای هوشمند به سرعت در حال پیشرفت هستند و ظهور آنها باعث رواج اکتشافات علمی خواهد شد؛ اما این فناوری همچنین به مجرمان نیز قابلیت میدهد که ویروسهای خطرناک و اسلحه بیولوژیک ایجاد کنند.
مدیرعامل شرکت آنتروپیک (aNTHROPIC) داریو آمودی (Dario Amodei) معتقد است در طی ۲ تا ۳ سال آینده شاهد چنین مسئلهای خواهیم بود.
شرکت آنتروپیک که توسط کارمندان سابق اوپنایآی (سازنده چتجیپیتی) تاسیس شده است، خود را مقید به مسائل ایمنی میداند و به خاطر الگو بزرگ زبانی خود، چتبات کلاود (Claude) شناخته میشود. در طی ۶ ماه اخیر این نوآفرین توانسته است که متخصصان زیست-امنیتی (بیوسکوریتی) را استخدام کند و از آنها در زمینه مطالعه عملکرد شبکههای عصبی برای ساخت اسلحه در آینده استفاده کند.
حال به تازگی مدیرعامل این شرکت در برابر کمیته فناوری سنای آمریکا هشدار داده است که قانونگذاری در این زمینه به شدت مورد نیاز است تا جلوی سوءاستفاده از این ابزارهای قدرتمند برای مقاصد شوم گرفته شود. او معتقد است هوش مصنوعی میتواند در زمینههای امنیت سایبری، فناوری هستهای، شیمی و زیستشناسی در خدمت جنایتکاران قرار بگیرد.
او در این جلسه گفت:
«هرکاری که انجام میدهیم باید سریع انجام دهیم. من فکر میکنم بردن ذهنها به مسئله خطرات زیستی بسیار مهم است، من سال ۲۰۲۵-۲۰۲۶ و یا حتی ۲۰۲۴ را زمان اجرای این خطرات میدانم. اگر ما چیزها را در سر جای خود قرار ندهیم و مانع شویم که سامانههای هوش مصنوعی در خدمت مجرمان قرار گیرند، دوره بعدی را خواهیم گذراند».
او اضافه کرد:
«امروز اقدامات مشخصی در زمینه استفاده از زیستشناسی برای آسیب زدن به بقیه شامل داشتن اطلاعاتی است که در گوگل یا کتابهای آموزشی شما پیدا نمیکنید و نیاز به تخصص سطح بالا در این حوزه دارد. اما سوالی که ما و همکارانمان پرسیدیم این است که سامانههای فعلی هوش مصنوعی آیا قادر به پر کردن بعضی از گامهای دشوار در فرایند تولید بمبهای بیولوژیکی هستند یا خیر. ما فهمیدیم که سامانههای فعلی هوش مصنوعی میتوانند بعضی از این گامها را بردارند، اما به شکل ناکامل و غیرقابل اتکا. اما آنها علائم نخست و مبهم خطر را به ما نشان دادند».
با این حال او معتقد است که در طی سه چهار سال آینده همین سامانههای فعلی هوش مصنوعی بتوانند آموزش لازم برای برداشتن این گامهای دشوار را ببینند و بتوانند حفرههای موجود در آموزش خود را پر کنند. این باعث میشود که با جهانی متفاوت روبرو شویم، جهانی که مجرمان سایبری آن امکان تولید بمب بیولوژیکی دارند.
در زمینه هستهای هم مسئله همین است. در حالی که امروزه اصول و مبادی دانش هستهای و سلاحهای اتمی محرمانه و به دقت تحت حفاظت است و مهندسی دستگاهها در واقع (از تولید سوخت و سایر مواد گرفته تا رآکتوراه و طراحی مواد منفجره مناسب) بسیار دشوار است. کشورها معمولا اکثر اقدامات در این زمینه را به شدت محرمانه تلقی میکنند. در زمینه سلاحهای بیولوژیکی و هستهای نیز مسئله این است و تنها افراد انگشتشماری نحوه ساخت این تسلیحات را میدانند. حال اگر الگوریتم هوش مصنوعی بتواند این قدم را بردارد و به این دانش دست پیدا کند، خطری بسیار بزرگ در انتظار بشر خواهد بود؟
هرچند باید گفت که برنامه زمانی مدیرعامل آنتروپیک شاید چندان دقیق نباشد، اما خطری که او از آن حرف میزند بسیار جدی است. مسئله صرفاً در آموزش «طبیعی و خود بهخود» الگوریتمهای یادگیری ماشین نیست. خطری که در اینجا وجود دارد، سوءاستفاده قدرتهای بزرگ دنیا از این ابزار جدید است. اگر بهطور مثال ارتش آمریکا شرکتهای داروسازی و نظامی را موظف کند دادههای خود را در اختیار یکی از ابر رایانههایی که در اختیار دارد، قرار دهند و از آن برای ایجاد سامانهای هوشمند در زمینه طراحی تسلیحات بیولوژیکی استفاده کند، جنگ ستارگان نسخه هوش مصنوعی آن آغاز شده است.
باید گفت مهمتر از قانونگذاری هوش مصنوعی، نظارت دقیق و کنترل سازمانهای اطلاعاتی و نظامی ابرقدرتهای دنیاست. سرویسهای اطلاعاتی آمریکایی نشان دادهاند که به هیچ قانونی مقید نیستند و به شکلی فراقانونی عمل میکنند. خرید و فروش کلاندادهها توسط سازمانهای اطلاعاتی آمریکایی یکی از نگرانیهایی است که در درجه اول قدرت بیحد و حصر این سازمانها در فضای مجازی را نشان میدهد و از سوی دیگر قدرت فراقانونی آنها را.