هشدار گوگل به کارمندان؛

اطلاعات محرمانه را با چت‌بات‌های هوش مصنوعی را به اشتراک نگذارید

اطلاعات محرمانه را با چت‌بات‌های هوش مصنوعی را به اشتراک نگذارید
تاریخ انتشار : ۲۷ خرداد ۱۴۰۲

گوگل از کارمندانش خواست اطلاعات محرمانه را با چت‌ربات‌های هوش مصنوعی از جمله برنامه "گوگل بارد" (Bard) این شرکت، به اشتراک نگذارند.

به گزارش گرداب، رویترز به نقل از چهار منبع آگاه گزارش کرد: آلفابت (شرکت مادر گوگل) که یکی از بزرگترین بازیگران رقابت هوش مصنوعی است، به کارمندانش اعلام کرد نباید اطلاعات محرمانه را با چت‌ربات‌های هوش مصنوعی مانند چت جی‌پی‌تی و "بارد"، به اشتراک بگذارند. زیرا شرکت‌های هوش مصنوعی با استفاده از پیام‌های ارسال شده توسط کاربران، درک زبان چت‌ربات‌های خود را آموزش می‌دهند.

همانطور که یافته‌های یک مطالعه نشان داده است، بازبینی کنندگان انسانی می‌توانند چت‌ها را بخوانند و بنابراین اطلاعات داخلی را مشاهده کنند، یا این که خود هوش مصنوعی می‌تواند به تنهایی آن‌ها را بازتولید و افشا کند.

هشدار‌های مشابهی از سوی شرکت‌هایی مانند والمارت، مایکروسافت و آمازون صادر شده است که اعلام کرده‌اند پاسخ‌های چت جی‌پی‌تی را دیده‌اند که با اطلاعات داخلی آنها، شباهت زیادی داشته است.

هشدار گوگل به خصوص از این نظر جالب توجه است که خود این شرکت، چت ربات عرضه کرده است. این غول اینترنتی به مهندسانش هشدار داده است که از ابزار‌های هوش مصنوعی برای کدنویسی استفاده نکنند.

گوگل اوایل ماه میلادی جاری، اعلام کرد که "بارد" برای پاسخگویی بهتر به سوالات در مورد منطق و ریاضی، اکنون قادر است به تنهایی، کد اجرا کند. این به‌روزرسانی، پس از به‌روزرسانی آوریل انجام شد که امکان تولید کد را برای "بارد" فراهم کرده بود.

گوگل به رویترز اعلام کرد اگرچه"بارد" می‌تواند برای برنامه نویسان مفید باشد، اما ممکن است کد‌های نامطلوب را هم پیشنهاد کند.

بر اساس گزارش بیزنس اینسایدر، گوگل قبل از این که "بارد" را عرضه کند، به کارکنانی که این برنامه را آموزش می‌دادند، هشدار داده بود اطلاعات داخلی را به آن ندهند.