در کنگره آمریکا؛

خطر تولید سلاح بیولوژیکی با هوش مصنوعی

خطر تولید سلاح بیولوژیکی با هوش مصنوعی
تاریخ انتشار : ۰۴ مرداد ۱۴۰۲

سناتور‌های دموکرات و جمهوریخواه کنگره آمریکا درباره پتانسیل استفاده مخرب از هوش مصنوعی با تمرکز روی امکان به کارگیری فناوری در حملات بیولوژیکی هشدار دادند.

به گزارش گرداب به نقل از رویترز، داریو آمودی مدیر ارشد اجرایی شرکت هوش مصنوعی «آنتروپیک» در جلسه استماع کمیته زیر مجموعه کمیته قضایی سنا اعلام کرد هوش مصنوعی به مجرمان بدون مهارت کمک می‌کند تا اسلحه‌های بیولوژیکی بسازند.

آمودی که شرکتش برای تحقیق درباره ریسک‌های زیست شناختی مرتبط با هوش مصنوعی با کارشناسان امنیت زیستی همکاری کرده، در این باره گفت: گام‌های خاص در زمینه تولید اسلحه‌های زیستی شامل دانستنی‌هایی است که نمی‌توان در گوگل یا کتاب‌ها یافت و نیازمند سطح بالایی از خبرگی در این زمینه است. ما متوجه شدیم ابزار‌های هوش مصنوعی امروز می‌توانند برخی از این گام‌ها را طی کنند.

به گفته آمودی هوش مصنوعی هنوز قادر نیست به تولید اسلحه بیولوژیکی کمک کند و در این زمینه ریسک متوسطی دارد. او افزود: در صورتیکه افراد زیادتری بتوانند حملات زیستی مقیاس وسیع انجام دهند، این امر تهدید بزرگی برای امنیت ملی آمریکا به حساب می‌آید.

ریچارد بلومنتال رییس زیر کمیته مذکور نیز در این باره هشدار داد. او گفت: کارشناسانی که این سیستم‌ها را می‌سازند درباره منسوخ شدن انسان‌ها هشدار می‌دهند. هدف این جلسه استماع ایجاد زمینه برای وضع قانون است.

جاش هاولی دیگر سناتور آمریکایی خواهان ایجاد اقدامات امنیتی شد که تضمین می‌کند فناوری جدید برای مردم آمریکا مفید است.

جلسه استماع در حالی برگزار شد که چندی قبل شرکت‌های هوش مصنوعی از جمله اوپن‌ای آی، آلفابت و متا پلتفرمز به طور داوطلبانه در کاخ سفید تعهد کردند تا اقداماتی مانند برچسب زدن روی محتوای تولیدی با هوش مصنوعی انجام دهند و به ایمن‌تر کردن این فناوری کمک کنند.