Gerdab.IR | گرداب

ChatGPT و آینده هویت دیجیتال

ChatGPT و آینده هویت دیجیتال
تاریخ انتشار : ۱۱ ارديبهشت ۱۴۰۲

مدل های هوش مصنوعی این توانایی را دارند که به‌طور آنلاین از انسان تقلید کنند تا جایی که «شما باید فرض را بر این مبنا بگذارید که همه افراد در فضای آنلاین ربات هستند مگر این که خلاف آن را ثابت کنند».

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».

به گزارش گرداب، فیلیپ پوینتنر (Philipp Pointner)، کارشناس هویت دیجیتال، می‌گوید مدل‌های هوش مصنوعی مولد هنوز نمی‌توانند شناسه‌ی جعلی کاملی ایجاد نمایند، اما این توانایی را دارند که به‌طور آنلاین از انسان تقلید کنند تا جایی که «شما باید فرض را بر این مبنا بگذارید که همه افراد در فضای آنلاین ربات هستند مگر این که خلاف آن را ثابت کنند».

او هم‌چنین در مصاحبه‌ای با سایبرنیوز گفت: زمانی که چت‌جی‌پی‌تی و سایر سیستم‌های هوش مصنوعی به طور کامل به اینترنت متصل شوند و به داده‌های بلادرنگ دسترسی داشته باشند، می‌توانند هر کاری را که بخواهند انجام دهند، چه بخواهیم چه نخواهیم.

پوینتنر، رئیس هویت دیجیتال در شرکت تأیید هویت جومیو (Jumio)، هشدار داد: «این موج جدید از هوش مصنوعی مکالمه‌ای واقعاً به مردم امکان می‌دهد تا از طریق رسانه‌های اجتماعی به انتقال اطلاعات نادرست بپردازند.» و همانگونه که پیش‌تر نیز اشاره شد، هوش مصنوعی مکالمه‌ای در اساس نسخه‌ای تکامل‌یافته از چت‌بات‌ها می‌باشد که هدفش برقراری تعاملی انسان‌گونه با انسان است.

شرکت‌های رسانه‌های اجتماعی باید عملکرد خود را برای اطمینان از هویت کاربر تقویت کنند، در غیر این صورت غرق شدن در حساب‌های تولید شده توسط هوش مصنوعی که از حساب‌های واقعی قابل تشخیص نیستند، تهدیدی جدی خواهد بود.

گروهی از دانشگاهیان، نویسندگان و رهبران فناوری، از جمله ایلان ماسک از توییتر و استیو وزنیاک (Steve Wozniak)، بنیان‌گذار اپل، در اوایل این هفته ابراز نگرانی کردند که سیستم‌های هوش مصنوعی بدون وجود پروتکل‌های ایمنی مناسب، کانال‌های اطلاعاتی را با «تبلیغات و اطلاعات نادرست» پر می‌کنند.
یوروپل (Europol) به عنوان یک نهاد پلیس سراسر اروپا هشدار داده است که چت‌جی‌پی‌تی می‌تواند برای ایجاد تعامل جعلی در رسانه‌های اجتماعی مورد سوء‌استفاده قرار گیرد و برای اهداف تبلیغاتی و انتشار اطلاعات نادرست «ایده آل» به نظر می‌رسد.

استفاده‌ی مجرمانه از آن از تهیه‌ی پیش‌نویس ایمیل‌های فیشینگ گرفته تا نوشتن کد‌های مخرب، مورد توجه قرار گرفته است. به گفته‌ی پوینتنر، پیشرفت‌های بیشتر در هوش مصنوعی راه را برای مجرمان سایبری هموارتر می‌سازد.

اُپن‌اِی‌آی (OpenAI) اخیراًGPT-۴ را منتشر کرده است که قدرتمندتر و پیشرفته‌تر از نسخه‌ی قبلی خود توصیف می‌شود. هم‌چنین از طرفی شاهد گوگل بارد هستیم که یک سرویس هوش مصنوعی آزمایشی مکالمه محور بوده و می‌تواند به سوالات کاربران پاسخ دهد و در گفتگو‌ها شرکت کند. حال انتظار دارید که چگونه بر چشم‌انداز تهدیدات سایبری تأثیر بگذارد؟

درواقع سرعت انتشار این ابزار‌ها بسیار شگفت‌انگیز است. در رابطه با این که آیا آن‌ها می‌توانند چنین روند سرعتی را حفظ کنند، اطمینانی وجود ندارد، اما حداقل در حال حاضر به نظر می‌رسد که مدل‌های بزرگ‌تر و بهتر با قابلیت‌های جدید به زودی عرضه خواهند شد.
چت‌جی‌پی‌تی قبلاً در مرحله‌ی بتا یا آلفا به اینترنت متصل بود و سپس در دسترس عموم قرار می‌گرفت. اما دیگر محدود به داده‌های قبل از سال ۲۰۲۱ نیست، بدین صورت که می‌تواند در اینترنت جستجو‌های فوری انجام داده و با وب‌سایت‌ها تعامل داشته باشد.
زمانی که این بات‌ها به اینترنت متصل شوند، مستقل از این که ما بخواهیم یا نه، می‌توانند به Reddit که یک وبسایت و انجمن خبری اجتماعی است رفته، یک حساب توییتر ایجاد کنند و هر کاری که می‌خواهند انجام دهند.

- آیا فکر می‌کنید اطلاعات نادرست یکی از بزر‌گ‌ترین تهدیدات چت‌بات‌های هوش مصنوعی قلمداد می‌شود؟

خطرات مختلفی وجود دارد، اما من فکر می‌کنم این یکی از بزرگترین‌ها باشد. در حال حاضر دشوار است که در اینترنت بدانید با چه کسی صحبت می‌کنید. این مشکل نتایج قابل ملاحظه‌ای به همراه دارد؛ به گونه‌ای که شما باید مخاطب را یک ربات فرض کنید، تا زمانی که خلاف آن را ثابت کند.

فیشینگ مبتنی بر چت‌جی‌پی‌تی از دیگر موارد نگران کننده است. آیا باید نگران باشیم؟

در یک کلاهبرداری ایمیلی که در آن فردی مسن هدف قرار می‌گیرد، برای اینکه پول از طریق انتقال الکترونیکی به حسابی دیگر واریز گردد باید به گونه‌ای دوستانه عمل کنید.
پیش‌تر نمی‌توانستید چنین عملی را به صورت اتوماتیک پیش ببرید، اما اکنون می‌توانید. این بخش ترسناک ماجرا است چراکه اکنون یک چت‌بات می‌تواند وارد یک مکالمه‌ی رفت و برگشتی شده و بسیار متقاعدکننده و استدلالی به نظر برسد.

چه چیزی مردم را از قربانی شدن در این نوع جدید از تهدیدات سایبری در امان نگه می‌دارد؟

سازمان‌های بزرگ‌تر که در واقع مسئول در امان نگه‌داشتن پلتفرم‌های خود هستند، باید به راه‌حل‌های هویتی توجه داشته باشند تا منحصربه‌فرد به نظر آیند. این که آیا تأیید هویت فقط با تأیید زنده بودن چهره انجام می‌شود یا اینکه واقعاً اسناد را بررسی می‌کند، به خودشان بستگی دارد، اما در بخش هویت، تغییراتی مورد نیاز است.
در عین حال ما به عنوان مصرف‌کنندگان و جامعه بطور کلی، برای پیشگیری از بروز مشکل نیاز داریم هنگام مصرف محتوای تولید شده توسط انسان یا رباتی که ادعای انسان بودن دارد، محتاط‌تر عمل کنیم.

من شنیده‌ام که مردم می‌گویند: «فقط از CAPTCHA (مخفف عبارت Completely Automated Public Turing Test) استفاده کنید. چراکه با وجود این ابزار، تقریباً می‌توان گفت که خطایی رخ نمی‌دهد.»، اما این عقیده درست نیست. جهان به رویه‌ای جدید برای عملکرد CAPTCHA نیاز دارد.

برخی از اقدامات دیگر سازمان‌ها برای جلوگیری از خطرات مرتبط با چت‌جی‌پی‌تی و سایر ربات‌های هوش مصنوعی چیست؟

آن‌ها می‌توانند ابزار‌های تشخیص ربات را به کار گیرند. بدین صورت که می‌توان از طریق دستگاه انگشت‌نگاری به تشخیص الگو‌ها پرداخته و مشاهده کرد که آیا همیشه دستگاهی با همان آی‌پی (IP) و سیگنال‌های یکسان است یا خیر. این روش به شما کمک می‌کند تا این حملات تکراری را شناسایی کنید.
راه حل‌های اختصاصی نیز برای شناسایی ربات وجود دارد. اما آن‌ها درواقع ربات‌های معمولی را هدف قرار می‌دهند که ما در ده سال گذشته با آن‌ها سر و کار داشته‌ایم. این راه حل‌ها لزوماً توانایی شناسایی نسل جدید ربات‌ها را ندارند.

آیا می‌توانید در مورد تجربه‌ی خود با چت‌جی‌پی‌تی و پتانسیل آن برای ایجاد محتوای مخرب توضیحی دهید؟

من با خشنودی می‌توانم گزارش دهم که تاکنون هوش مصنوعی‌های تولیدکننده‌ی تصویر قادر به ایجاد شناسه‌های جعلی (fake ID) نبوده‌اند و از این بابت خیلی خوشحالم.
از نظر حملات ما هنوز حمله‌ای از طرف آن‌ها ندیده‌ایم هرچند که وحشتناک به نظر می‌رسد. اما من فکر می‌کنم چنین روندی در پیش رو باشد.
همیشه بحث هویت در ذهن شرکت‌های رسانه‌های اجتماعی مورد توجه بوده است. اما از صحبت‌هایی که داشتیم، به نظر می‌رسد هرگز به سطحی نرسیده است که بدان پرداخته و اهمیت آن مورد توجه قرار گیرد. چراکه در نهایت، وقتی صحبت از امنیت سایبری می‌شود، همیشه این سوال مطرح است که تا چه حد حاضریم درگیر حل این مشکل شده و زمانی را به آن اختصاص دهیم؟ من فکر می‌کنم اینجاست که ما شاهد تغییری خواهیم بود که برای دور نگه داشتن این ربات‌ها، همه را درگیر خواهد کرد. اما این موج جدید هوش مصنوعی مکالمه‌ای واقعاً مردم را قادر می‌سازد تا اطلاعات نادرست را از طریق رسانه‌های اجتماعی منتقل سازند.

وقتی صحبت از ربات‌های هوش مصنوعی می‌شود، چشم‌انداز تهدیدآمیز پنج سال آینده را چگونه می‌بینید؟

زندگی کلاهبرداران مانند همه‌ی مشاغل دیگر در جهان اتوماتیک شده و از طرف دیگر نیز کار برای کلاهبردار آسان‌تر می‌شود.
وقتی به نقطه‌ای می‌رسیم که تولید تصویر می‌تواند شناسه‌های جعلی ایجاد کند، که در آن ابزار‌هایی هم‌چون CAPTCHA را می‌توان توسط ماشین‌ها فریب داد، آنگاه شاهد سیل محتوای بی‌فایده‌ی اضافی نیز خواهیم بود و این زمانی است که ما شاهد تلاشی برای ایجاد محتوای دقیق‌تر و قابل درک‌تر هستیم.
شرکت‌ها باید فعالیت خود را افزایش داده و در پی یافتن راه‌حلی برای رفع این مشکل باشند. چراکه در غیر این صورت این سیل بی پایان اطلاعات نادرست را شاهد خواهید بود که نمی‌دانید از کجا آمده و مقصودشان چیست.

همه این توانایی را خواهند داشت که چت‌بات‌های کوچک خود را داشته باشند تا دیدگاه آن‌ها را نسبت به جهان نشان داده و سپس شروع به استدلال در این باره نمایند. این امر مستلزم آن است که شرکت‌های رسانه‌های اجتماعی بحث هویت را جدی‌تر بگیرند، یا حداقل کار‌هایی را انجام دهند تا اطمینان حاصل شود که هر انسانی تنها یک حساب کاربری در پلتفرم آن‌ها دارد.

- آیا به نظر شما مقررات دولتی باید نقشی در این امر ایفا کنند؟

این‌طور فکر نمی‌کنم و به نظر من مسئولیت بیشتر بر عهده‌ی شرکت‌هایی است که این پلتفرم‌ها را برای کاربران راه اندازی می‌کنند.
این که آیا آن‌ها این کار را می‌کنند یا خیر، سوال دیگری است. اگر این به نقطه‌ی حساسی برسد و مشکل هویت آنقدر بی‌داد کند که به تهدیدی برای اقتصاد و جامعه مبدل شود، احتمالاً در آن زمان است که شاهد دخالت دولت‌ها خواهیم بود.
اما من امیدوارم که ما بتوانیم به عنوان یک فناور، قبل از دخالت دولت آن را از خود دور نگه داریم. سوال بزرگ این است: آیا این بار به اندازه‌ی کافی هوشمند خواهیم بود که این مشکل را قبل از اینکه حتی پیش بیاید حل کرده و از آن جلوگیری کنیم یا اینکه ابتدا یک فاجعه رخ می‌دهد و سپس اقداماتی برای حل آن صورت می‌گیرد؟

به نظر شما کدام یک پیش از آن دیگری قرار است رخ دهد؟

افراد زیادی وجود دارند که این موج اخیر هوش مصنوعی را به عنوان یک تهدید درک می‌کنند و به همین سبب این موضوعی بحث‌برانگیز بوده و توجه بسیاری را به خود جلب کرده است؛ بنابراین فکر می‌کنم این احتمال وجود دارد که قبل از اینکه این مسئله از کنترل خارج شود، اقدامات هوشمندانه‌ای انجام گیرد.

منبع:


https://cybernews.com/editorial/chatgpt-digital-identity-bot-prove-otherwise/