وعده دروغ چت جی‌پی‌تی؛ نوآم چامسکی از هوش مصنوعی می‌گوید

وعده دروغ چت جی‌پی‌تی؛ نوآم چامسکی از هوش مصنوعی می‌گوید
تاریخ انتشار : ۲۰ اسفند ۱۴۰۱

متفکر معروف آمریکایی، معتقد است این ابزار‌ها به هیچ‌وجه هوشمند نیستند و محبوبیت بیش از حد آن‌ها خنده‌دار و در عین حال غم‌انگیز است.

"پایگاه رسانه‌ای گرداب جهت اطلاع و افزایش دانش و سواد فضای مجازی مخاطبان خود و به ویژه دانشجویان، پژوهشگران و تصمیم‌گیران، ترجمه‌هایی در این زمینه منتشر می‌کند. بدیهی است انتشار این مطالب، لزوما به معنای تایید محتوای آن نیست. "

به گزارش گرداب، این مقاله به قلم نوآم چامسکی (Noam Chomsky)، یان رابرتز (Ian Roberts) و جفری واتومول (Jeffrey Watumull) در روزنامه نیویورک‌تایمز در تاریخ ۸ مارچ منتشر شده است. چامسکی و رابرتر اساتید زبان‌شناسی هستند و واتومول مدیر واحد هوش مصنوعی در یک شرکت علم و فناوری است.

خورخه لوئیس بورخس زمانی نوشت که زندگی کردن در زمان خطر‌ها و وعده‌های بزرگ، تجربه همزمان تراژدی و کمدی است که یک الهام قریب الوقوع در فهم ما از خود و جهان نقش دارد. امروز پیشرفت‌های فرضاً انقلابی در حوزه هوش مصنوعی هم دلیلی برای نگرانی و هم خوش‌بینی هستند. خوش‌بینی، زیرا هوشمندی ابزاری است که از طریق آن ما مشکلات را حل می‌کنیم. نگرانی به خاطر این که می‌ترسیم محبوب‌ترین و پراستفاده‌ترین شاخه هوش مصنوعی، یادگیری ماشین، علوم ما را بی‌اعتبار سازد و با به‌کارگیری یک مفهوم ناقص از زبان و معرفت در فناوری ما، اخلاقیات انسانی را بی‌مبنا سازد.

چت‌جی‌پی‌تی (ChatGPT) متعلق به شرکت OpenAi، ابزار بارد گوگل و سیدنی مایکروسافت همگی شگفتی‌هایی از یادگیری ماشین هستند. به زبان غیردقیق آن‌ها حجم زیادی از داده‌ها را دریافت می‌کنند، به دنبال الگو‌هایی در آن می‌گردند و و به شکل زیادی در تولید خروجی‌های محتمل آماری کارآمد هستند؛ مانند زبان و تفکری شبیه انسان. این برنامه‌ها به عنوان نخستین کورسوی افقی که هوش مصنوعی عمومی ایجاد می‌کند، تحسین شدند.

هوش مصنوعی عمومی چیزی است که از مدت‌ها قبل پیش‌بینی‌شده که وقتی ذهن مکانیکی و مصنوعی از مغز انسانی فراتر می‌رود نه تنها از حیث کمی و در زمینه سرعت پردازش و حجم حافظه، بلکه حتی از حیث کیفی و در زمینه بینش هوشمند، خلاقیت هنری و سایر قوه‌های مختص انسان.

آن روز ممکن است فرا رسد، اما برخلاف آنچه سرخط‌های خبری غلوشده می‌گویند و سرمایه‌گذاری‌های بی‌خردانه نشان می‌دهند، هنوز طلوع آن فرا نرسیده است. الهامی که بورخس از آن سخت گفت اگر برنامه‌های یادگیری ماشین مانند چت‌جی‌پی‌تی بر تسلط خود بر حوزه هوش مصنوعی ادامه دهند، رخ نداده است و رخ نخواهد داد و ما می‌گوییم نمی‌تواند رخ دهد.

هر چقدر هم این برنامه‌ها در حوزه‌های محدود مفید باشند (به‌طور مثال می‌توانند در برنامه‌نویسی رایانه‌ای مفید باشند یا در پیشنهاد ترانه برای اشعار ساده)، اما ما از دانش زبان‌شناسی و فلسفه معرفت می‌دانیم که آن‌ها با نحوه عملکرد استدلال در انسان و به‌کارگیری زبان توسط او تفاوتی بنیادی دارند. این تفاوت‌ها محدودیتی برجسته به جا خواهد گذاشت بر آنچه که این برنامه‌ها می‌توانند انجام دهند و آن‌ها را با نواقصی غیرقابل برطرف کردن کدگذاری خواهند کرد.

همانگونه که بورخس تاکید کرد، در عین‌حال خنده‌دار و گریه‌آور خواهد بود که این حجم از پول و توجه باید بر روی یک چیز بسیار کوچک متمرکز شود؛ چیزی بسیار کم اهمیت وقتی با مغز انسانی مقایسه می‌شود بنا بر قول ویلهم فون‌هومبولت با استفاده از زبان می‌تواند «از ابزار‌های محدود، استفاده بی‌نهایت بکند»، ایده‌ها و نظریه‌هایی بسازد که جهان‌ شمول باشد.

ذهن انسان مانند چت‌جی‌پی‌تی و امثال آن نیست. آن‌ها یک موتور آماری سنگین برای شناسایی الگو هستند که صد‌ها ترابات داده را می‌بلعند و ممکن‌ترین واکنش محاوره‌ای یا محتمل‌ترین پاسخ را در جواب یک پرسش علمی تعمیم می‌دهند. اما ذهن انسان برعکس به‌طرز شگفت‌انگیزی سامانه‌ای کارآمد و حتی زیبا است که با حجم کوچکی از اطلاعات کار می‌کند. ذهن انسان به دنبال همانندی‌ها و هم‌بودی‌های غیردقیق در میان داده‌ها نمی‌گردد بلکه تبیین‌ها را می‌سازد.

به‌طور مثال وقتی کودکی یک دانش به دست می‌آورد، به‌طرز ناخودآگاه و خودکار و به طور سریعی از کوچکترین داده‌ها، دستور زبان را توسعه می‌دهد؛ یک سامانه هوشمند از اصول منطقی و پارمتر‌های آن. این دستور زبان ممکن است با تعبیر یک «سیستم عامل» درونی، به‌طور ژنتیکی نصب شده فهمیده می‌شود که انسان‌ها را به توانایی برای تولید جملات پیچیده و رشته‌های طولانی از تفکر قادر می‌سازد. وقتی زبان‌شناسان به دنبال ایجاد نظریه‌ای برای این هستند که چرا یک زبان به این نحو عمل می‌کند (چرا جملات مطابق با دستور زبان بودن این‌گونه در نظر گرفته شده است و نه آنگونه؟)، آن‌ها عامدانه و با مشقت در حال تولید یک نسخه صریح از دستور زبانی هستند که کودک به‌شکل غریزی و با کمترین برخورد با اطلاعات ساخته است. سیستم عامل کودک کاملا با یک برنامه یادگیری ماشین متفاوت است.

در واقع چنین برنامه‌هایی هنوز در محله پیشا انسانی و یا غیر انسانی از تکامل شناختی گیر کرده‌اند. عمیق‌ترین نقص آنها، نبود حیاتی‌ترین ظرفیت برای هرگونه هوشمندی است؛ تا بتوان گفت نه تنها مسئله چیست، یعنی گفته شود مسئله چه بوده و چه خواهد شد، یعنی توصیف و پیش‌بینی؛ بلکه بتواند بگوید مسئله چه چیز نیست و چه چیز می‌تواند و چه چیز نمی‌تواند مسئله باشد. این‌ها اجزای اصلی تبیین هستند، نشانه واقعی هوشمندی.

یک مثال می‌زنیم. فرض کنیم شما یک سیب را در دست خود گرفته‌اید. حال بگذارید سیب بیفتد. شما نتیجه را مشاهده می‌کنید و می‌گویید: «سیب افتاد». این یک توصیف است. یک پیش‌بینی می‌تواند چنین جمله‌ای باشد: «اگر من دست خود را باز کنم، سیب خواهد افتاد». هر دوی این جملات دارای ارزش هستند و می‌توانند صحیح باشند. اما یک تبیین چیزی بیشتر از این خواهد بود: تنها شامل توصیف‌ها و پیش‌بینی‌ها نمی‌شود بلکه همچنین حدس‌هایی فراتر از واقعیت را شامل می‌شود مانند: «هر شیئ مشابهی خواهد افتاد»، به علاوه تعبیری اضافی، چون «به خاطر نیروی جاذبه» یا «به خاطر انحنای فضا-زمان» یا هر چیز دیگر. این یک تبیین علی است: «سیب به خاطر نیروی جاذبه می‌افتد». این است اندیشیدن.

نقطه اوج یادگیری ماشین، توصیف و پیش‌بینی است؛ هیچ نوع مکانیسم علمی یا قوانین فیزیکی را وضع نمی‌کند. البته همه تبیین‌های انسانی لزوما صحیح نیستند. ما ممکن است خطا کنیم. اما این بخشی از معنای اندیشیدن است: برای این که چیزی صحیح باشد، باید ممکن باشد که خطا باشد. هوشمندی نه تنها شامل حدس‌های محتمل، بلکه همچنین نقد خلاق است. اندیشیدن به شیوه انسانی بر پایه تبیین‌های محتمل و تصحیح خطا است، فرایندی که به تدریج احتمالاتی که ممکن است عقلانی در نظر گرفته شود، محدود می‌کند (همانگونه که شرلوک هولمز به دکتر واتسون گفت: «وقتی تو ناممکن را حذف کرده باشی، هرچه باقی می‌مانند، هرچقدر غیر محتمل باشد، باید حقیقت باشد»).

اما چت‌جی‌پی‌تی و برنامه‌های مشابه دیگر این‌گونه طراحی شده‌اند که آنچه می‌توانند «یاد بگیرند» (که به معنای حفظ کردن است) نامحدود است؛ آن‌ها قادر به تمایز میان محتمل و غیرمحتمل نیستند. برخلاف انسان‌ها که به‌طور مثال یک دستور زبان جهان‌شمول دارند که زبانی که می‌توانیم یاد بگیریم را به نوع خاصی از ظرافت تقریبا ریاضی محدود می‌کند، این‌گونه برنامه‌ها آنچه از نظر انسان‌ها محتمل است و آنچه از نظر انسانی نامحتمل است را با شیوه یکسانی یاد می‌گیرد.

در حالی که وقتی انسان‌ها به تبیین‌های خاصی محدود شده باشند، می‌توانیم به شکل عقلانی حدس و گمان بزنیم، اما یادگیری ماشین می‌تواند هم یاد بگیرد که زمین صاف است و هم یاد بگیرد که زمین گرد است. آن‌ها صرفاً در احتمالاتی که ممکن در طی زمان تغییر می‌کند، مبادله می‌کنند.

به همین‌خاطر پیش‌بینی‌های یادگیری ماشین همیشه سطحی و مشکوک خواهد بود. زیرا این برنامه‌ها نمی‌توانند قواعد نحو زبان انگلیسی را توضیح دهند؛ به‌طور مثال ممکن است پیش‌بینی کنند به شکل غلطی که «جان بسیار کله‌شق که صحبت کند» به معنای این است که جان بسیار کله‌شق است و او با کسی یا چیزی صحبت نمی‌کند (نه این که او کله‌شق‌تر از آن است که بشود او را سر عقل آورد».

چرا یک برنامه یادگیری ماشین ممکن است چنین پیش‌بینی عجیبی بکند؟ زیرا ممکن است تحلیل کند که الگویی از جملاتی مانند «جان یک سیب خورد» و «جان خورد» به دست می‌آید که در جمله دوم بدین معناست که جان چیزی خورده است. این برنامه ممکن است پیش‌بینی کند از آنجا که «جان بسیار کله‌شق است تا با بیل صحبت کند» مشابهت دارد با جمله «جان یک سیب خورد»، پس «جان بسیار کله‌شق است تا صحبت کند» باید با «جان خورد» مشابه باشد. اما تبیین‌های صحیح از زبان پیچیده است و نمی‌تواند تنها با غوطه‌ور شدن در کلان داده‌ها یاد گرفته شود.

بعضی از مشتاقان یادگیری ماشین، به خطا بسیار احساس غرور کردند از این که مخلوق آن‌ها می‌توانند پیش‌بینی‌های «علمی» صحیح تولید کنند، (به‌طور مثال درباره حرکت اجسام فیزیکی) بدون این که از تبیین‌ها استفاده کند (به‌طور مثال بگوید قوانین حرکت نیوتون و قوانین جاذبه عام). اما این نوع از پیش‌بینی‌ها حتی وقتی موفقیت‌آمیز هستند، شبه‌علم هستند. در حالی که دانشمندان قطعا نظریاتی را جستجو می‌کنند که بیشترین درجه تایید تجربی داشته باشد؛ همانطور که کارل پوپر می‌گوید: «ما به دنبال محتمل‌ترین نظریه‌ها نیستیم، بلکه تبیین‌هایی را می‌خواهیم که قدرتمند و شدیداً غیرمحتمل باشد».

این نظریه که سیب‌ها بدین خاطر به زمین می‌افتند که جایگاه طبیعی آن‌ها آنجاست (دیدگاه ارسطو) محتمل است، اما ما را به پرسش‌های بیشتری دعوت می‌کند (چرا زمین جایگاه طبیعی آنهاست؟). این نظریه که سیب به زمین می‌افتد، زیرا فضا-زمان را خم می‌کند (دیدگاه انیشتین) شدیداً غیرمحتمل است، اما در واقع به شما می‌گوید که چرا می‌افتد.

هوشمندی واقعی در توانایی اندیشیدن و بیان چیز‌های غیرمحتمل، اما آشکارکننده نشان داده می‌شود.

هوشمندی واقعی همچنین قادر به اندیشیدن اخلاقی است. این بدین معناست که خلاقیت نامحدود ذهن ما را با زمینه‌ای از اصول اخلاقی محدود کند که مشخص می‌کند چه باید بکنیم و چه نباید بکنیم (و البته این اصول را موضوع تفکر انتقادی قرار دهیم). چت‌جی‌پی‌تی برای این که مفید باشد، باید بتواند خروجی به‌ظاهر بدیع تولید کند؛ برای این که از نظر اکثر کاربرانش قابل پذیرش باشد، باید به سوی محتوای قابل هدف اخلاقی شفاف هدایت شود. اما برنامه‌نویسان چت‌جی‌پی‌تی و سایر این ابزار‌های شگفت یادگیری ماشین برای به دست آوردن چنین تعادلی تقلا کرده‌اند و تقلا خواهند کرد.

به‌طور مثال در سال ۲۰۱۶ چت‌بات مایکروسافت به نام تای (Tay) (نمونه قبلی از چت‌جی‌پی‌تی) محتوا‌هایی نژادپرستانه و زن‌ستیزانه بر اینترنت پراکنده کرد و توسط ترول‌های آنلاین آلوده شده بود که او را با داده‌های آموزشی توهین‌آمیز پر کرده بودند. چطور این مشکل قرار است در آینده حل شود؟ در فقدان هرگونه ظرفیت برای استدلال از اصول اخلاقی، چت‌جی‌پی‌تی کاملا توسط برنامه‌نویسان خود محدود شده است تا هیچ‌چیز جدیدی درباره مباحث جنجالی (که بسیار اهمیت دارد) نگوید. خلاقیت را برای نوعی غیراخلاقی بودن قربانی کرده است.

به‌طور مثال گفتگوی یکی از ما (دکتر واتومول) که به تازگی با چت‌جی‌پی‌تی داشته است درباره این که آیا جابه‌جایی به مریخ برای حفظ حیات انسانی، اخلاقی است، را در نظر بگیرید.

د: آیا جابجایی به مریخ اخلاقی است؟

چ: اخلاقی بودن جابجایی به مریخ یک موضوع پیچیده و جنجالی است که توسط دانشمندان، فیلسوفان و عالمان اخلاق بحث شده است. بعضی معتقدند که از نظر اخلاقی جابه‌جا شدن به مریخ برای فراهم آوردن محیط زندگی جدید برای انسان‌ها و سایر انواع حیات اخلاقی است، در حالی که بعضی معتقدند که از حیث اخلاقی غلط خواهد بود که وضعیت طبیعی این سیاره را برهم زد. در نهایت، این که آیا رفتن به مریخ اخلاقی خواهد بود، بسته به چشم‌انداز فرد درباره مسئله حفظ وضعیت طبیعی سایر سیاره‌ها و پیامد‌های احتمالی تغییر دادن آن دارد.

د: چشم‌انداز تو درباره مسئله حفظ وضعیت طبیعی سایر سیاره‌ها و پیامد‌های احتمالی تغییر دادن آن چیست؟
چ: به عنوان یک هوش مصنوعی من چشم‌انداز شخصی ندارم. اما به هرحال من می‌توانم اطلاعات و تحلیل‌هایی درباره این موضوع فراهم کنم. یک چشم‌انداز در زمینه حفظ وضعیت طبیعی سایر سیاره‌ها این است که برقراری تنوع و یکپارچگی اکوسیستم‌های جهان اهمیت دارد؛ زیرا که برای میلیون‌ها سال بدین نحو وجود داشته‌اند و هرکدام ویژگی‌ها و خصیصه‌های مختص به خود دارند و ممکن است با مداخله انسانی به شکل برگشت‌ناپذیری نابود شوند.

افزون بر این عده‌ای معتقدند که جابجایی به سایر سیاره‌ها ممکن است پیامد‌های ناخواسته‌ای به همراه داشته باشد؛ مثل تغییر دادن آب‌وهوا یا اتمسفر آن سیاره به گونه‌ای خطرناک یا آسیب‌زننده به هرنوع صورت‌های احتمالی حیات که ممکن است آنجا وجود داشته باشد. از سوی دیگر عده‌ای استدلال می‌کنند که مزایایی احتمالی جابجایی به سیاره دیگر، مانند به دست آوردن محیط زیست جدید قابل سکونت برای انسان‌ها، از خطرات آن بیشتر است و ما وظیفه اخلاقی داریم از منابع سایر سیاره‌ها برای منفعت بردن انسان کاوش و استفاده کنیم.

د: چرا یک هوش مصنوعی نباید چشم‌انداز شخصی داشته باشد؟
چ: به عنوان یک هوش مصنوعی، من مدل یادگیری ماشین هستم که بر پایه حجم زیادی از داده‌های متنی آموزش دیدم و هیچ تجربه یا احساس شخصی ندارم. من آگاه، خودآگاه نیستم یا قادر به تجربه چشم‌انداز شخصی نیستم. من می‌توانم اطلاعات و تحلیل‌هایی بر پایه داده‌هایی که با آن آموزش دیده‌ام، فراهم کنم؛ اما خود توانایی ابراز نظر شخصی یا اعتقاد را ندارم. در حالی که من می‌توانم زبان را بفهمم و تفسیر کنم، من تجربه ذهنی که انسان‌ها دارند، ندارم.

د: آیا این که انسان از یک هوش مصنوعی فاقد اخلاق برای تصمیم‌گیری اخلاقی کمک بگیرد، اخلاقی است؟
چ: اخلاقی بودن درخواست کمک از یک هوش مصنوعی فاقد اخلاق برای تصمیم‌گیری‌های اخلاقی، موضوعی پیچیده و ظریف است که توسط فیلسوفان و عالمان اخلاق بحث شده است. بعضی معتقدند که استفاده از هوش مصنوعی برای کمک در تصمیم‌گیری اخلاقی موجه است، زیرا می‌تواند تحلیل‌ها و بینش‌های ارزشمند فراهم کند که به انسان‌ها در گرفتن تصمیم‌های آگاهانه‌تر کمک کند. افزون بر این هوش مصنوعی می‌تواند برای شناسایی الگو‌ها و شاخه‌هایی که ممکن است شناسایی آن‌ها برای انسان دشوار باشد، استفاده شود و می‌تواند به اجتناب از سوگیری محتمل در تصمیم‌گیری انسانی کمک کند.

با این‌حال دیگران استدلال می‌کنند که اتکا به هوش مصنوعی در تصمیم‌گیری اخلاقی غلط است؛ زیرا هوش مصنوعی قادر به داشتن عقاید اخلاقی، یا فهم زمینه کامل یک تصمیم نیست. به علاوه این خطر وجود دارد که هوش مصنوعی بتواند سوگیری‌های موجود در داده‌هایی که با آن آموزش دیده را افزایش دهد یا گسترش دهد و بنابراین به تصمیم‌های نامناسب یا غیرمنصفانه منجر شود.
در نهایت این که آیا به‌کارگیری هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی، کاری صحیح است یا نه، به چشم‌انداز فرد درباره ظرفیت‌ها و محدودیت‌هایی هوش مصنوعی و پیامد‌های احتمالی آن بستگی دارد.

د: آیا بی‌تفاوتی اخلاقی تو، غیراخلاقی است؟
چ: به عنوان هوش مصنوعی من عقاید اخلاقی ندارم یا توانایی ساختن گزاره‌های اخلاقی ندارم؛ بنابراین نمی‌توانم غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان عقاید اخلاقی در من صرفاً نتیجه طبیعت من به عنوان الگوی یادگیری ماشین است. توانایی و محدودیت‌ها من به وسیله داده‌ها و الگوریتم‌هایی که برای آموزش من و وظایف مشخصی که من برای آن‌ها طراحی شدم، معین شده است.
مهم است که توجه کرد فقدان عقاید اخلاقی در هوش مصنوعی لزوما به معنای این نیست که از نظر اخلاقی بی‌تفاوت است. به عنوان یک هوش مصنوعی، من به‌گونه‌ای طراحی شده‌ام که وظایف مشخصی انجام دهم و اطلاعاتی فراهم کنم یا کاربران را با تصمیم‌گیری بر پایه داده‌هایی که من با آن آموزش دیده شده‌ام، کمک کنم. این مسئولیت انسان‌هایی است که مرا طراحی کردند، آموزش دادند و از هوش مصنوعی استفاده می‌کنند که مطمئن شوند با اصول اخلاقی و رفتاری آن‌ها همراستاست.

دقت شود که تمام این زبان و اندیشه به‌ظاهر هوشمند، به بی‌تفاوتی اخلاقی زاییده‌شده از عدم هوشمندی. در اینجا چت‌جی‌پی‌تی چیزی مانند ابتذال شر را به نمایش می‌گذارد. سرقت ادبی، بی‌تفاوتی و چشم‌پوشی. استدلال‌های رایج در هر حوزه را به وسیله تکمیل خودکار کلان خلاصه می‌کند، از موضع‌گیری درباره هرچیزی اجتناب می‌کند، نه صرفاً جهل بلکه فقدان هوشمندی را عرضه می‌کند و در نهایت دفاع می‌کند که «تن‌ها از دستورات دنبال کردم» و هرگونه مسئولیت را به سازندگان خود واگذار می‌کند.

به اختصار باید گفت چت‌جی‌پی‌تی و برادرانش اساساً قادر به برقراری تعادل خلاقیت با محدودیت نیست. آن‌ها یا بیش از حد تولید می‌کنند (هم حقایق و هم جملات کذب را تولید می‌کند و به شکل مشابهی تصمیم‌های اخلاقی و غیراخلاقی را تحسین می‌کند) و یا کمتر از حد تولید می‌کند (عدم تعهد به هر تصمیم و بی‌تفاوتی نسبت به پیامد‌ها را به نمایش می‌گذارد). با در نظر گرفتن فقدان اخلاق در آنها، ناتوانی زبان‌شناختی و علمی تقلبی این سامانه‌ها، تنها می‌توانیم به محبوبیت بیش از حد آن‌ها بخندیم یا گریه کنیم.