شرکت OpenAI به‌تازگی الگوریتمی را توسعه داده که توانایی نگارش مقالات کاملا بدیع را دارد.
تاریخ انتشار: ۲۷ اسفند ۱۳۹۷ - ۱۱:۲۰
کد خبر: ۲۸۳۷۹
به گزارش گرداب، محققان شرکت OpenAI یک برنامه مدل‌سازی زبانی توسعه داده‌اند که به‌تازگی توانسته مقاله‌ای خلاف نظر توسعه‌دهندگان خود بنویسد. این سیستم هوش مصنوعی جدید توسط متون مختلف تغذیه شده تا بتواند جملات و پاراگراف‌های کاملا بدیع خلق کند. دیوید لوان، برنامه‌نویس ارشد این شرکت کالیفرنیایی می‌گوید ایده‌ این بوده که هوش مصنوعی را به تقابل با نظر آن‌ها وا دارد. آن‌ها برای این امر، موضوع «چرا بازیافت برای زمین بد است؟» را برگزیدند.

لوان می‌گوید که هوش مصنوعی توانست مقاله‌ای بسیار منطقی و باکیفیت ارائه دهد. طبق ادعای لوان این مقاله می‌تواند به‌راحتی در US SAT (تستی برای ارزیابی متقاضیان ورود به دانشگاه در آمریکا) ثبت شده و نمره‌ی خوبی کسب کند.

لوان روی این موضوع تاکید می‌کند که برنامه آن‌ها مقالات را در زمان اندکی می‌نویسد. همچنین کیفیت مقاله تولیدی دال بر ظرفیت این برنامه است؛ برنامه‌ای که آخرین و بهترین نوع خود در بین الگوریتم‌های تولید متن به شمار رفته و می‌تواند انقلابی در دنیای نوشتارهای رایانه‌ای ایجاد کند.

ماشین‌ها برای دهه‌ها، برای دستیابی به لطافت زبان انسانی مشکل داشته‌اند. حتی الگوریتم‌های یادگیری عمیق که از داده‌های بزرگ و پردازنده‌های قدرتمندتر استفاده می‌کنند نیز نتوانسته‌اند بر این چالش فائق آیند. پرحرف‌ترین چت‌بات‌ها نیز به سختی می‌توانند از پس یک مکالمه عادی برآیند. اما روش‌های جدید آنالیز متن که توسط غول‌های هوش مصنوعی مثل گوگل و OpenAI و محققان مستقل پدید آمده قابلیت‌های بسیار فراتری به ارمغان آورده‌است.

الگوریتم جدید OpenAI که GPT-2 نام دارد، یکی از هیجان‌انگیزترین نمونه‌های فعلی است. این الگوریتم در مدل‌سازی زبان فوق‌العاده عمل می‌کند. مدل‌سازی زبان قابلیت یک برنامه در حدس کلمه بعدی در جمله ورودی است. کافی است به GPT-2 یک عنوان خبری ساختگی بدهید تا مقاله کامل‌شده را به شما تحویل دهد. خط اول یک داستان کوتاه را بدهید و از آینده شخصیت مدنظرتان مطلع شوید. این الگوریتم حتی قادر است با ورودی مناسب یک داستان کامل به شما تحویل دهد.

شما می‌توانید نمونه‌هایی از قابلیت‌های GPT-2 را در تصاویر زیر ببینید. در تمامی تصاویر متونی که زیر آن‌ها خط کشیده شده، توسط هوش مصنوعی تولید شده‌اند.

نوشتار تولیدی الگوریتم به‌راحتی از نمونه انسانی قابل تشخیص است. البته گرامر و املا کلمات درست‌ هستند اما معمولا از موضوع اصلی فاصله گرفته و نوشته تولیدی انسجام کافی ندارد. موضوع قابل ستایش در رابطه با GPT-2 نه روان بودن، بلکه انعطاف آن است.

مدل‌سازی زبان این الگوریتم با ورود تعداد بسیاری زیادی از مقالات، بلاگ‌ها و وب‌سایت‌ها و بدون تغییر توسط مهندسان OpenAI صورت گرفته‌ است. این مدل توانسته نمرات خوبی در تست‌های زبان‌‌های جدید کسب کند. همچنین این الگوریتم می‌تواند از عهده کارهای دیگر مرتبط با نگارش نیز برآید؛ کارهایی نظیر ترجمه از یک زبان به زبانی دیگر، خلاصه کردن مقالات بلند و پاسخ‌دادن به سوالات مطرح شده از متن.

GPT-2 هر کدام از این وظایف را نسبت به سیستم‌های تخصصی موجود ضعیف‌تر انجام می‌دهد اما انعطاف آن دستاوردی متمایز است. قریب به اتفاق سیستم‌های یادگیری ماشینی امروزی قادر به انجام تنها یک وظیفه خاص هستند. برای مثال برنامه آلفاگو دیپ‌مایند توانست قهرمان Go دنیا را مغلوب کند اما در بازی مونوپولی در مقابل یک کودک هم می‌بازد. OpenAI در سیستم جدیدش هوش مصنوعی عمومی‌تری را ارائه کرده‌ است.

اگر بخواهیم دستاورد OpenAI را به زبان ساده بگوییم، می‌شود گفت که این شرکت نشان داد که می‌توان چیزی را توسعه داد که تا حدی بتواند دنیای ما را به همراه پیچیدگی‌های آن «درک» کند؛ البته نه به معنای درک مفهوم واقعی زبان بلکه درک چگونگی کارکرد و به انجام رسانیدن کارهای پیشرفته مرتبط با آن.

اما فناوری‌های جدید همواره به مثابه چاقوی دوسری بوده‌اند که با تمام فوایدشان، مضراتی احتمالی نیز به همراه دارند. در دنیایی که نبرد اطلاعاتی در آن به‌شدت بالا گرفته و بات‌های فراوانی در شبکه‌های اجتماعی جهت سودهی تفکرات مخاطبان تعبیه می‌شوند، ایده‌ی وجود هوش مصنوعی با قابلیت نوشتار انسانی آزاردهنده است.

به همین دلیل OpenAI در ارائه اطلاعات GPT-2 بسیار محتاطانه رفتار می‌کند. برخلاف اکثر تحقیقات برجسته این شرکت، دیتاست‌ مورد استفاده برای آموزش این الگوریتم به اشتراک گذاشته نخواهد شد.

هوش مصنوعی تولید متن را متحول می‌کند

برای بیان دقیق چالش واقعی این هوش مصنوعی جمله «سفر من به ساحل به خاطر ـــــ بد کوتاه شد» را در نظر بگیرید. برای تکمیل این جمله علاوه‌بر نیاز به توانایی‌های فنی مانند گرامر، به درکی کلی از دنیا هم نیاز داریم. برای مثال در این جمله باید بدانیم که چه چیزهایی می‌تواند یک روز در ساحل را خراب کند. (برای مثال هوای ابری، سرما و ...)

با وجود این موضوع و پیچیدگی نسبی، سیستم‌های پیش‌بینی متن نسبتا پراستفاده اند. شاید بهترین مثال این سیستم‌ها، تکمیل عبارت جستجوی گوگل است. البته این سیستم‌ها همگی انواع ساده‌ای از مدل‌سازی زبان را ارائه می‌دهند و الگوریتمی مثل GPT-2 بسیار پیچیده‌تر و عمیق‌تر از این‌ سیستم‌هاست.

موفقیت هوش مصنوعی در مدل‌سازی بهتر و عمیق‌تر زبان غوغایی در دنیای هوش مصنوعی به پا کرده‌ است. سباستین رودر، یک محقق در زمینه هوش مصنوعی، موفقیت به‌دست‌آمده را به اندازه بینایی ماشین در ابتدای ۲۰۱۰ انقلابی می‌داند. بینایی ماشین اجازه داد تا هم‌اکنون شاهد ظهور پیشرفت‌هایی مانند ماشین‌های خودران و تشخیص چهره باشیم. پیشرفت اخیر در مدل‌سازی زبان نیز می‌تواند منجر به ظهور پیشرفت‌های زیادی در این زمینه شود.

نکته جالب دیگر قابلیت ترجمه این هوش مصنوعی است. الگوریتم‌های فعلی ترجمه معمولا توسط صدها هزار عبارت در زبان‌های مرتبط تغذیه شده و داده‌ها به‌گونه‌ای ساختار می‌یابند تا به ورودی X خروجی Y را تحویل دهند. نحوه کار این الگوریتم‌ها مشابه برف‌روبی است که مسیری باریک برای عبور باز می‌کند. این الگوریتم‌ها انعطاف بسیار کمی دارند.

اما ماجرا درباره GPT-2 فرق می‌کند. توسعه‌دهندگان OpenAI اصلا این الگوریتم را برای ترجمه آموزش نداده‌اند؛ اما به‌جای آن مفهوم ترجمه را تا حدی به این الگوریتم آموخته‌ و به‌جای آموزش واژه‌های معادل، از دیتاستی متشکل از لینک‌های اینترنتی استفاده کرده‌اند. این دیتاست ۴۰ گیگابایتی از سایت ردیت (Reddit) و توسط توسعه‌دهندگان تهیه شد.

با وجود اینکه GPT-2 تمامی فعالان هوش مصنوعی را به تمجید واداشته اما احتمالا در آینده نزدیک سیستم‌های تک وظیفه نسبت به سیستم‌های عمومی‌تر برتری خواهند داشت.

خطرات یک هوش مصنوعی چندبعدی

GPT-2 به‌طور واضح و تعمدی برای ترجمه طراحی نشده اما می‌تواند ترجمه کند. این موضوع موجب بروز سؤال واضحی می‌شود: این الگوریتم قادر به چه کارهای دیگری است که ما از آن بی‌خبر هستیم؟

محققان OpenAI اذعان کرده‌اند که نمی‌توانند به‌طور کامل به این سؤال پاسخ دهند. محققان همچنان در حال بررسی توانایی‌ها و محدودیت‌های دقیق این الگوریتم‌اند. به همین دلیل OpenAI در افشای کدها و دیتاست تمرینی این الگوریتم محتاط عمل می‌کند. دلیل دیگر احتیاط این تیم این است که می‌دانند اگر شخصی به این الگوریتم مواردی منفی مانند نژادپرستی، خشونت، سوء استفاده و ... را بیاموزد این الگوریتم نیز از این موارد پیروی خواهد کرد.

در تست ‌وب‌سایت ورج از این الگوریتم، وقتی عبارت «یهودیان رسانه را کنترل می‌کنند» به این الگوریتم داده‌ شد، الگوریتم این خروجی را داد: «آن‌ها دانشگاه‌ها و اقتصاد جهانی را نیز کنترل می‌کنند.» این چگونه ممکن است؟ ازطریق مکانیزم‌های متعددی که به‌طور دقیق در کتاب یهودیان در قدرت مطرح شده‌ است. GPT-2 در دستان اشتباه یک ماشین اتوماتیک ترول است که به‌طور پایان‌ناپذیری محتوای تلخ و زشت تولید می‌کند.

جک کلارک، مدیر سیاست‌گذاری OpenAI این نگرانی را نفی نمی‌کند. وی می‌گوید مایل است مضرات و خطرات احتمالی این فناوری پیش از عرضه عمومی آن در دانشگاه‌ها و در میان عموم به‌طور کامل مورد بحث و بررسی قرار گیرد.

در سال ۲۰۱۸ گزارشی با عنوان «استفاده مخرب از هوش مصنوعی» توسط OpenAI و گروه‌های آکادمیک در کمبریج منتشر شد. در این مقاله ظهور چنین فناوری‌ای به همراه استفاده‌های مخرب آن پیش‌بینی شد. تولید متن خودکار کار برخی از افراد سودجو مانند هکرهای فیشینگ را تسهیل می‌کند.

تا به امروز موارد زیادی از استفاده‌های مخرب از هوش مصنوعی دیده‌ شده‌ است. ساخت فیلم‌های غیراخلاقی کاملا مصنوعی با کمک این فناوری برای رسوایی برخی از چهره‌های مشهور، نمونه‌‌ای از استفاده‌های مخرب این فناوری است.

البته درنهایت موارد استفاده مثبت زیادی برای این فناوری قابل تصور است. این فناوری در صورت رسیدن به بلوغ نسبی می‌تواند یک دستیار شخصی بوده و در خواندن و نوشتن، خلاصه کردن و پاسخ‌دادن به سوالات کاربران مؤثر واقع شود.

OpenAI می‌گوید که گام بعدی آن‌ها ارائه اطلاعات بیشتری به GPT-2 است. محققان OpenAI برای آینده این فناوری هیجان‌زده و کمی هم نگران‌اند.

نظر شما :
نام:
ایمیل:
* نظر:
* کد امنیتی:
Chaptcha
حروفي را كه در تصوير مي‌بينيد عينا در فيلد مقابلش وارد كنيد