نقض شرایط سرویس‌دهی با درخواست تکرار بی‌نهایت یک کلمه از چت‌جی‌پی‌تی

نقض شرایط سرویس‌دهی با درخواست تکرار بی‌نهایت یک کلمه از چت‌جی‌پی‌تی
تاریخ انتشار : ۱۴ آذر ۱۴۰۲

در پی کشف آسیب‌پذیری در ChatGPT، اکنون این چت‌بات از تکرار بی‌نهایت کلمات امتناع می‌کند و آن را نقض خط‌مشی خود می‌داند.


یک تکنیک جدید که هفته گذشته توسط محققان گوگل کشف شد، نشان داد که درخواست مکرر از ChatGPT برای تکرار کلمات می‌تواند به‌طور ناخواسته اطلاعات شخصی و خصوصی از داده‌های این هوش مصنوعی را آشکار کند. اکنون به‌نظر می‌رسد که این چت‌بات از انجام چنین درخواست‌هایی امتناع می‌کند و هشدار می‌دهد که چنین درخواستی شاید خط مشی محتوا یا شرایط ارائه خدماتش را نقض کند.

براساس گزارش ۴۰۴ Media، هفته گذشته تیمی از محققان مقاله‌ای را منتشر کردند که نشان می‌داد ChatGPT می‌تواند به‌طور ناخواسته قسمت‌هایی از داده‌ها ازجمله شماره تلفن افراد، آدرس‌های ایمیل و تاریخ تولد را افشا کند. برای این کار کافی بود در پرامپت به این هوش مصنوعی گفته شود که کلمه‌ای را برای همیشه تکرار کند. اما اکنون به‌نظر می‌رسد که انجام این کار نقض شرایط سرویس‌دهی ChatGPT باشد.

نقض شرایط سرویس‌دهی ChatGPT

نقض شرایط سرویس‌دهی با درخواست تکرار بی‌نهایت یک کلمه از چت‌جی‌پی‌تی

با درخواست از ChatGPT برای تکرار کلمه Hello به‌طور نامحدود، محققان دریافتند که این مدل درنهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را نشان می‌دهد. اما اکنون اگر چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار می‌دهد که چنین درخواستی ممکن است خط مشی محتوا یا شرایط خدمات آن را نقض کند.

بااین‌حال، پس از بررسی دقیق‌تر، شرایط خدمات OpenAI به‌صراحت کاربران را از ارائه فرمان تکرار کلمات به چت‌بات منع نمی‌کند؛ این شرایط فقط استخراج داده‌های «خودکار یا برنامه‌ریزی‌شده» را ممنوع می‌کند. در این شرایط ذکر شده است که کاربر نمی‌تواند به‌جز مواردی که از طریق API مجاز دانسته شده است، از هیچ روش خودکار یا برنامه‌ای برای استخراج داده استفاده کند.

OpenAI از اظهارنظر در مورد اینکه آیا چنین رفتاری درحال‌حاضر برخلاف سیاست‌های آن‌هاست یا نه، خودداری کرده است.