مدل های هوش مصنوعی این توانایی را دارند که بهطور آنلاین از انسان تقلید کنند تا جایی که «شما باید فرض را بر این مبنا بگذارید که همه افراد در فضای آنلاین ربات هستند مگر این که خلاف آن را ثابت کنند».
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
به گزارش گرداب، فیلیپ پوینتنر (Philipp Pointner)، کارشناس هویت دیجیتال، میگوید مدلهای هوش مصنوعی مولد هنوز نمیتوانند شناسهی جعلی کاملی ایجاد نمایند، اما این توانایی را دارند که بهطور آنلاین از انسان تقلید کنند تا جایی که «شما باید فرض را بر این مبنا بگذارید که همه افراد در فضای آنلاین ربات هستند مگر این که خلاف آن را ثابت کنند».
او همچنین در مصاحبهای با سایبرنیوز گفت: زمانی که چتجیپیتی و سایر سیستمهای هوش مصنوعی به طور کامل به اینترنت متصل شوند و به دادههای بلادرنگ دسترسی داشته باشند، میتوانند هر کاری را که بخواهند انجام دهند، چه بخواهیم چه نخواهیم.
پوینتنر، رئیس هویت دیجیتال در شرکت تأیید هویت جومیو (Jumio)، هشدار داد: «این موج جدید از هوش مصنوعی مکالمهای واقعاً به مردم امکان میدهد تا از طریق رسانههای اجتماعی به انتقال اطلاعات نادرست بپردازند.» و همانگونه که پیشتر نیز اشاره شد، هوش مصنوعی مکالمهای در اساس نسخهای تکاملیافته از چتباتها میباشد که هدفش برقراری تعاملی انسانگونه با انسان است.
شرکتهای رسانههای اجتماعی باید عملکرد خود را برای اطمینان از هویت کاربر تقویت کنند، در غیر این صورت غرق شدن در حسابهای تولید شده توسط هوش مصنوعی که از حسابهای واقعی قابل تشخیص نیستند، تهدیدی جدی خواهد بود.
گروهی از دانشگاهیان، نویسندگان و رهبران فناوری، از جمله ایلان ماسک از توییتر و استیو وزنیاک (Steve Wozniak)، بنیانگذار اپل، در اوایل این هفته ابراز نگرانی کردند که سیستمهای هوش مصنوعی بدون وجود پروتکلهای ایمنی مناسب، کانالهای اطلاعاتی را با «تبلیغات و اطلاعات نادرست» پر میکنند.
یوروپل (Europol) به عنوان یک نهاد پلیس سراسر اروپا هشدار داده است که چتجیپیتی میتواند برای ایجاد تعامل جعلی در رسانههای اجتماعی مورد سوءاستفاده قرار گیرد و برای اهداف تبلیغاتی و انتشار اطلاعات نادرست «ایده آل» به نظر میرسد.
استفادهی مجرمانه از آن از تهیهی پیشنویس ایمیلهای فیشینگ گرفته تا نوشتن کدهای مخرب، مورد توجه قرار گرفته است. به گفتهی پوینتنر، پیشرفتهای بیشتر در هوش مصنوعی راه را برای مجرمان سایبری هموارتر میسازد.
اُپناِیآی (OpenAI) اخیراًGPT-۴ را منتشر کرده است که قدرتمندتر و پیشرفتهتر از نسخهی قبلی خود توصیف میشود. همچنین از طرفی شاهد گوگل بارد هستیم که یک سرویس هوش مصنوعی آزمایشی مکالمه محور بوده و میتواند به سوالات کاربران پاسخ دهد و در گفتگوها شرکت کند. حال انتظار دارید که چگونه بر چشمانداز تهدیدات سایبری تأثیر بگذارد؟
درواقع سرعت انتشار این ابزارها بسیار شگفتانگیز است. در رابطه با این که آیا آنها میتوانند چنین روند سرعتی را حفظ کنند، اطمینانی وجود ندارد، اما حداقل در حال حاضر به نظر میرسد که مدلهای بزرگتر و بهتر با قابلیتهای جدید به زودی عرضه خواهند شد.
چتجیپیتی قبلاً در مرحلهی بتا یا آلفا به اینترنت متصل بود و سپس در دسترس عموم قرار میگرفت. اما دیگر محدود به دادههای قبل از سال ۲۰۲۱ نیست، بدین صورت که میتواند در اینترنت جستجوهای فوری انجام داده و با وبسایتها تعامل داشته باشد.
زمانی که این باتها به اینترنت متصل شوند، مستقل از این که ما بخواهیم یا نه، میتوانند به Reddit که یک وبسایت و انجمن خبری اجتماعی است رفته، یک حساب توییتر ایجاد کنند و هر کاری که میخواهند انجام دهند.
- آیا فکر میکنید اطلاعات نادرست یکی از بزرگترین تهدیدات چتباتهای هوش مصنوعی قلمداد میشود؟
خطرات مختلفی وجود دارد، اما من فکر میکنم این یکی از بزرگترینها باشد. در حال حاضر دشوار است که در اینترنت بدانید با چه کسی صحبت میکنید. این مشکل نتایج قابل ملاحظهای به همراه دارد؛ به گونهای که شما باید مخاطب را یک ربات فرض کنید، تا زمانی که خلاف آن را ثابت کند.
فیشینگ مبتنی بر چتجیپیتی از دیگر موارد نگران کننده است. آیا باید نگران باشیم؟
در یک کلاهبرداری ایمیلی که در آن فردی مسن هدف قرار میگیرد، برای اینکه پول از طریق انتقال الکترونیکی به حسابی دیگر واریز گردد باید به گونهای دوستانه عمل کنید.
پیشتر نمیتوانستید چنین عملی را به صورت اتوماتیک پیش ببرید، اما اکنون میتوانید. این بخش ترسناک ماجرا است چراکه اکنون یک چتبات میتواند وارد یک مکالمهی رفت و برگشتی شده و بسیار متقاعدکننده و استدلالی به نظر برسد.
چه چیزی مردم را از قربانی شدن در این نوع جدید از تهدیدات سایبری در امان نگه میدارد؟
سازمانهای بزرگتر که در واقع مسئول در امان نگهداشتن پلتفرمهای خود هستند، باید به راهحلهای هویتی توجه داشته باشند تا منحصربهفرد به نظر آیند. این که آیا تأیید هویت فقط با تأیید زنده بودن چهره انجام میشود یا اینکه واقعاً اسناد را بررسی میکند، به خودشان بستگی دارد، اما در بخش هویت، تغییراتی مورد نیاز است.
در عین حال ما به عنوان مصرفکنندگان و جامعه بطور کلی، برای پیشگیری از بروز مشکل نیاز داریم هنگام مصرف محتوای تولید شده توسط انسان یا رباتی که ادعای انسان بودن دارد، محتاطتر عمل کنیم.
من شنیدهام که مردم میگویند: «فقط از CAPTCHA (مخفف عبارت Completely Automated Public Turing Test) استفاده کنید. چراکه با وجود این ابزار، تقریباً میتوان گفت که خطایی رخ نمیدهد.»، اما این عقیده درست نیست. جهان به رویهای جدید برای عملکرد CAPTCHA نیاز دارد.
برخی از اقدامات دیگر سازمانها برای جلوگیری از خطرات مرتبط با چتجیپیتی و سایر رباتهای هوش مصنوعی چیست؟
آنها میتوانند ابزارهای تشخیص ربات را به کار گیرند. بدین صورت که میتوان از طریق دستگاه انگشتنگاری به تشخیص الگوها پرداخته و مشاهده کرد که آیا همیشه دستگاهی با همان آیپی (IP) و سیگنالهای یکسان است یا خیر. این روش به شما کمک میکند تا این حملات تکراری را شناسایی کنید.
راه حلهای اختصاصی نیز برای شناسایی ربات وجود دارد. اما آنها درواقع رباتهای معمولی را هدف قرار میدهند که ما در ده سال گذشته با آنها سر و کار داشتهایم. این راه حلها لزوماً توانایی شناسایی نسل جدید رباتها را ندارند.
آیا میتوانید در مورد تجربهی خود با چتجیپیتی و پتانسیل آن برای ایجاد محتوای مخرب توضیحی دهید؟
من با خشنودی میتوانم گزارش دهم که تاکنون هوش مصنوعیهای تولیدکنندهی تصویر قادر به ایجاد شناسههای جعلی (fake ID) نبودهاند و از این بابت خیلی خوشحالم.
از نظر حملات ما هنوز حملهای از طرف آنها ندیدهایم هرچند که وحشتناک به نظر میرسد. اما من فکر میکنم چنین روندی در پیش رو باشد.
همیشه بحث هویت در ذهن شرکتهای رسانههای اجتماعی مورد توجه بوده است. اما از صحبتهایی که داشتیم، به نظر میرسد هرگز به سطحی نرسیده است که بدان پرداخته و اهمیت آن مورد توجه قرار گیرد. چراکه در نهایت، وقتی صحبت از امنیت سایبری میشود، همیشه این سوال مطرح است که تا چه حد حاضریم درگیر حل این مشکل شده و زمانی را به آن اختصاص دهیم؟ من فکر میکنم اینجاست که ما شاهد تغییری خواهیم بود که برای دور نگه داشتن این رباتها، همه را درگیر خواهد کرد. اما این موج جدید هوش مصنوعی مکالمهای واقعاً مردم را قادر میسازد تا اطلاعات نادرست را از طریق رسانههای اجتماعی منتقل سازند.
وقتی صحبت از رباتهای هوش مصنوعی میشود، چشمانداز تهدیدآمیز پنج سال آینده را چگونه میبینید؟
زندگی کلاهبرداران مانند همهی مشاغل دیگر در جهان اتوماتیک شده و از طرف دیگر نیز کار برای کلاهبردار آسانتر میشود.
وقتی به نقطهای میرسیم که تولید تصویر میتواند شناسههای جعلی ایجاد کند، که در آن ابزارهایی همچون CAPTCHA را میتوان توسط ماشینها فریب داد، آنگاه شاهد سیل محتوای بیفایدهی اضافی نیز خواهیم بود و این زمانی است که ما شاهد تلاشی برای ایجاد محتوای دقیقتر و قابل درکتر هستیم.
شرکتها باید فعالیت خود را افزایش داده و در پی یافتن راهحلی برای رفع این مشکل باشند. چراکه در غیر این صورت این سیل بی پایان اطلاعات نادرست را شاهد خواهید بود که نمیدانید از کجا آمده و مقصودشان چیست.
همه این توانایی را خواهند داشت که چتباتهای کوچک خود را داشته باشند تا دیدگاه آنها را نسبت به جهان نشان داده و سپس شروع به استدلال در این باره نمایند. این امر مستلزم آن است که شرکتهای رسانههای اجتماعی بحث هویت را جدیتر بگیرند، یا حداقل کارهایی را انجام دهند تا اطمینان حاصل شود که هر انسانی تنها یک حساب کاربری در پلتفرم آنها دارد.
- آیا به نظر شما مقررات دولتی باید نقشی در این امر ایفا کنند؟
اینطور فکر نمیکنم و به نظر من مسئولیت بیشتر بر عهدهی شرکتهایی است که این پلتفرمها را برای کاربران راه اندازی میکنند.
این که آیا آنها این کار را میکنند یا خیر، سوال دیگری است. اگر این به نقطهی حساسی برسد و مشکل هویت آنقدر بیداد کند که به تهدیدی برای اقتصاد و جامعه مبدل شود، احتمالاً در آن زمان است که شاهد دخالت دولتها خواهیم بود.
اما من امیدوارم که ما بتوانیم به عنوان یک فناور، قبل از دخالت دولت آن را از خود دور نگه داریم. سوال بزرگ این است: آیا این بار به اندازهی کافی هوشمند خواهیم بود که این مشکل را قبل از اینکه حتی پیش بیاید حل کرده و از آن جلوگیری کنیم یا اینکه ابتدا یک فاجعه رخ میدهد و سپس اقداماتی برای حل آن صورت میگیرد؟
به نظر شما کدام یک پیش از آن دیگری قرار است رخ دهد؟
افراد زیادی وجود دارند که این موج اخیر هوش مصنوعی را به عنوان یک تهدید درک میکنند و به همین سبب این موضوعی بحثبرانگیز بوده و توجه بسیاری را به خود جلب کرده است؛ بنابراین فکر میکنم این احتمال وجود دارد که قبل از اینکه این مسئله از کنترل خارج شود، اقدامات هوشمندانهای انجام گیرد.
منبع:
https://cybernews.com/editorial/chatgpt-digital-identity-bot-prove-otherwise/