به گزارش
گرداب، محققان شرکت OpenAI یک برنامه مدلسازی زبانی توسعه دادهاند که بهتازگی توانسته مقالهای خلاف نظر توسعهدهندگان خود بنویسد. این سیستم هوش مصنوعی جدید توسط متون مختلف تغذیه شده تا بتواند جملات و پاراگرافهای کاملا بدیع خلق کند. دیوید لوان، برنامهنویس ارشد این شرکت کالیفرنیایی میگوید ایده این بوده که هوش مصنوعی را به تقابل با نظر آنها وا دارد. آنها برای این امر، موضوع «چرا بازیافت برای زمین بد است؟» را برگزیدند.
لوان میگوید که هوش مصنوعی توانست مقالهای بسیار منطقی و باکیفیت ارائه دهد. طبق ادعای لوان این مقاله میتواند بهراحتی در US SAT (تستی برای ارزیابی متقاضیان ورود به دانشگاه در آمریکا) ثبت شده و نمرهی خوبی کسب کند.
لوان روی این موضوع تاکید میکند که برنامه آنها مقالات را در زمان اندکی مینویسد. همچنین کیفیت مقاله تولیدی دال بر ظرفیت این برنامه است؛ برنامهای که آخرین و بهترین نوع خود در بین الگوریتمهای تولید متن به شمار رفته و میتواند انقلابی در دنیای نوشتارهای رایانهای ایجاد کند.
ماشینها برای دههها، برای دستیابی به لطافت زبان انسانی مشکل داشتهاند. حتی الگوریتمهای یادگیری عمیق که از دادههای بزرگ و پردازندههای قدرتمندتر استفاده میکنند نیز نتوانستهاند بر این چالش فائق آیند. پرحرفترین چتباتها نیز به سختی میتوانند از پس یک مکالمه عادی برآیند. اما روشهای جدید آنالیز متن که توسط غولهای هوش مصنوعی مثل گوگل و OpenAI و محققان مستقل پدید آمده قابلیتهای بسیار فراتری به ارمغان آوردهاست.
الگوریتم جدید OpenAI که GPT-2 نام دارد، یکی از هیجانانگیزترین نمونههای فعلی است. این الگوریتم در مدلسازی زبان فوقالعاده عمل میکند. مدلسازی زبان قابلیت یک برنامه در حدس کلمه بعدی در جمله ورودی است. کافی است به GPT-2 یک عنوان خبری ساختگی بدهید تا مقاله کاملشده را به شما تحویل دهد. خط اول یک داستان کوتاه را بدهید و از آینده شخصیت مدنظرتان مطلع شوید. این الگوریتم حتی قادر است با ورودی مناسب یک داستان کامل به شما تحویل دهد.
شما میتوانید نمونههایی از قابلیتهای GPT-2 را در تصاویر زیر ببینید. در تمامی تصاویر متونی که زیر آنها خط کشیده شده، توسط هوش مصنوعی تولید شدهاند.
نوشتار تولیدی الگوریتم بهراحتی از نمونه انسانی قابل تشخیص است. البته گرامر و املا کلمات درست هستند اما معمولا از موضوع اصلی فاصله گرفته و نوشته تولیدی انسجام کافی ندارد. موضوع قابل ستایش در رابطه با GPT-2 نه روان بودن، بلکه انعطاف آن است.
مدلسازی زبان این الگوریتم با ورود تعداد بسیاری زیادی از مقالات، بلاگها و وبسایتها و بدون تغییر توسط مهندسان OpenAI صورت گرفته است. این مدل توانسته نمرات خوبی در تستهای زبانهای جدید کسب کند. همچنین این الگوریتم میتواند از عهده کارهای دیگر مرتبط با نگارش نیز برآید؛ کارهایی نظیر ترجمه از یک زبان به زبانی دیگر، خلاصه کردن مقالات بلند و پاسخدادن به سوالات مطرح شده از متن.
GPT-2 هر کدام از این وظایف را نسبت به سیستمهای تخصصی موجود ضعیفتر انجام میدهد اما انعطاف آن دستاوردی متمایز است. قریب به اتفاق سیستمهای یادگیری ماشینی امروزی قادر به انجام تنها یک وظیفه خاص هستند. برای مثال برنامه آلفاگو دیپمایند توانست قهرمان Go دنیا را مغلوب کند اما در بازی مونوپولی در مقابل یک کودک هم میبازد. OpenAI در سیستم جدیدش هوش مصنوعی عمومیتری را ارائه کرده است.
اگر بخواهیم دستاورد OpenAI را به زبان ساده بگوییم، میشود گفت که این شرکت نشان داد که میتوان چیزی را توسعه داد که تا حدی بتواند دنیای ما را به همراه پیچیدگیهای آن «درک» کند؛ البته نه به معنای درک مفهوم واقعی زبان بلکه درک چگونگی کارکرد و به انجام رسانیدن کارهای پیشرفته مرتبط با آن.
اما فناوریهای جدید همواره به مثابه چاقوی دوسری بودهاند که با تمام فوایدشان، مضراتی احتمالی نیز به همراه دارند. در دنیایی که نبرد اطلاعاتی در آن بهشدت بالا گرفته و باتهای فراوانی در شبکههای اجتماعی جهت سودهی تفکرات مخاطبان تعبیه میشوند، ایدهی وجود هوش مصنوعی با قابلیت نوشتار انسانی آزاردهنده است.
به همین دلیل OpenAI در ارائه اطلاعات GPT-2 بسیار محتاطانه رفتار میکند. برخلاف اکثر تحقیقات برجسته این شرکت، دیتاست مورد استفاده برای آموزش این الگوریتم به اشتراک گذاشته نخواهد شد.
هوش مصنوعی تولید متن را متحول میکند
برای بیان دقیق چالش واقعی این هوش مصنوعی جمله «سفر من به ساحل به خاطر ـــــ بد کوتاه شد» را در نظر بگیرید. برای تکمیل این جمله علاوهبر نیاز به تواناییهای فنی مانند گرامر، به درکی کلی از دنیا هم نیاز داریم. برای مثال در این جمله باید بدانیم که چه چیزهایی میتواند یک روز در ساحل را خراب کند. (برای مثال هوای ابری، سرما و ...)
با وجود این موضوع و پیچیدگی نسبی، سیستمهای پیشبینی متن نسبتا پراستفاده اند. شاید بهترین مثال این سیستمها، تکمیل عبارت جستجوی گوگل است. البته این سیستمها همگی انواع سادهای از مدلسازی زبان را ارائه میدهند و الگوریتمی مثل GPT-2 بسیار پیچیدهتر و عمیقتر از این سیستمهاست.
موفقیت هوش مصنوعی در مدلسازی بهتر و عمیقتر زبان غوغایی در دنیای هوش مصنوعی به پا کرده است. سباستین رودر، یک محقق در زمینه هوش مصنوعی، موفقیت بهدستآمده را به اندازه بینایی ماشین در ابتدای ۲۰۱۰ انقلابی میداند. بینایی ماشین اجازه داد تا هماکنون شاهد ظهور پیشرفتهایی مانند ماشینهای خودران و تشخیص چهره باشیم. پیشرفت اخیر در مدلسازی زبان نیز میتواند منجر به ظهور پیشرفتهای زیادی در این زمینه شود.
نکته جالب دیگر قابلیت ترجمه این هوش مصنوعی است. الگوریتمهای فعلی ترجمه معمولا توسط صدها هزار عبارت در زبانهای مرتبط تغذیه شده و دادهها بهگونهای ساختار مییابند تا به ورودی X خروجی Y را تحویل دهند. نحوه کار این الگوریتمها مشابه برفروبی است که مسیری باریک برای عبور باز میکند. این الگوریتمها انعطاف بسیار کمی دارند.
اما ماجرا درباره GPT-2 فرق میکند. توسعهدهندگان OpenAI اصلا این الگوریتم را برای ترجمه آموزش ندادهاند؛ اما بهجای آن مفهوم ترجمه را تا حدی به این الگوریتم آموخته و بهجای آموزش واژههای معادل، از دیتاستی متشکل از لینکهای اینترنتی استفاده کردهاند. این دیتاست ۴۰ گیگابایتی از سایت ردیت (Reddit) و توسط توسعهدهندگان تهیه شد.
با وجود اینکه GPT-2 تمامی فعالان هوش مصنوعی را به تمجید واداشته اما احتمالا در آینده نزدیک سیستمهای تک وظیفه نسبت به سیستمهای عمومیتر برتری خواهند داشت.
خطرات یک هوش مصنوعی چندبعدی
GPT-2 بهطور واضح و تعمدی برای ترجمه طراحی نشده اما میتواند ترجمه کند. این موضوع موجب بروز سؤال واضحی میشود: این الگوریتم قادر به چه کارهای دیگری است که ما از آن بیخبر هستیم؟
محققان OpenAI اذعان کردهاند که نمیتوانند بهطور کامل به این سؤال پاسخ دهند. محققان همچنان در حال بررسی تواناییها و محدودیتهای دقیق این الگوریتماند. به همین دلیل OpenAI در افشای کدها و دیتاست تمرینی این الگوریتم محتاط عمل میکند. دلیل دیگر احتیاط این تیم این است که میدانند اگر شخصی به این الگوریتم مواردی منفی مانند نژادپرستی، خشونت، سوء استفاده و ... را بیاموزد این الگوریتم نیز از این موارد پیروی خواهد کرد.
در تست وبسایت ورج از این الگوریتم، وقتی عبارت «یهودیان رسانه را کنترل میکنند» به این الگوریتم داده شد، الگوریتم این خروجی را داد: «آنها دانشگاهها و اقتصاد جهانی را نیز کنترل میکنند.» این چگونه ممکن است؟ ازطریق مکانیزمهای متعددی که بهطور دقیق در کتاب یهودیان در قدرت مطرح شده است. GPT-2 در دستان اشتباه یک ماشین اتوماتیک ترول است که بهطور پایانناپذیری محتوای تلخ و زشت تولید میکند.
جک کلارک، مدیر سیاستگذاری OpenAI این نگرانی را نفی نمیکند. وی میگوید مایل است مضرات و خطرات احتمالی این فناوری پیش از عرضه عمومی آن در دانشگاهها و در میان عموم بهطور کامل مورد بحث و بررسی قرار گیرد.
در سال ۲۰۱۸ گزارشی با عنوان «استفاده مخرب از هوش مصنوعی» توسط OpenAI و گروههای آکادمیک در کمبریج منتشر شد. در این مقاله ظهور چنین فناوریای به همراه استفادههای مخرب آن پیشبینی شد. تولید متن خودکار کار برخی از افراد سودجو مانند هکرهای فیشینگ را تسهیل میکند.
تا به امروز موارد زیادی از استفادههای مخرب از هوش مصنوعی دیده شده است. ساخت فیلمهای غیراخلاقی کاملا مصنوعی با کمک این فناوری برای رسوایی برخی از چهرههای مشهور، نمونهای از استفادههای مخرب این فناوری است.
البته درنهایت موارد استفاده مثبت زیادی برای این فناوری قابل تصور است. این فناوری در صورت رسیدن به بلوغ نسبی میتواند یک دستیار شخصی بوده و در خواندن و نوشتن، خلاصه کردن و پاسخدادن به سوالات کاربران مؤثر واقع شود.
OpenAI میگوید که گام بعدی آنها ارائه اطلاعات بیشتری به GPT-2 است. محققان OpenAI برای آینده این فناوری هیجانزده و کمی هم نگراناند.