متفکر معروف آمریکایی، معتقد است این ابزارها به هیچوجه هوشمند نیستند و محبوبیت بیش از حد آنها خندهدار و در عین حال غمانگیز است.
"پایگاه رسانهای گرداب جهت اطلاع و افزایش دانش و سواد فضای مجازی مخاطبان خود و به ویژه دانشجویان، پژوهشگران و تصمیمگیران، ترجمههایی در این زمینه منتشر میکند. بدیهی است انتشار این مطالب، لزوما به معنای تایید محتوای آن نیست. "
به گزارش گرداب، این مقاله به قلم نوآم چامسکی (Noam Chomsky)، یان رابرتز (Ian Roberts) و جفری واتومول (Jeffrey Watumull) در روزنامه نیویورکتایمز در تاریخ ۸ مارچ منتشر شده است. چامسکی و رابرتر اساتید زبانشناسی هستند و واتومول مدیر واحد هوش مصنوعی در یک شرکت علم و فناوری است.
خورخه لوئیس بورخس زمانی نوشت که زندگی کردن در زمان خطرها و وعدههای بزرگ، تجربه همزمان تراژدی و کمدی است که یک الهام قریب الوقوع در فهم ما از خود و جهان نقش دارد. امروز پیشرفتهای فرضاً انقلابی در حوزه هوش مصنوعی هم دلیلی برای نگرانی و هم خوشبینی هستند. خوشبینی، زیرا هوشمندی ابزاری است که از طریق آن ما مشکلات را حل میکنیم. نگرانی به خاطر این که میترسیم محبوبترین و پراستفادهترین شاخه هوش مصنوعی، یادگیری ماشین، علوم ما را بیاعتبار سازد و با بهکارگیری یک مفهوم ناقص از زبان و معرفت در فناوری ما، اخلاقیات انسانی را بیمبنا سازد.
چتجیپیتی (ChatGPT) متعلق به شرکت OpenAi، ابزار بارد گوگل و سیدنی مایکروسافت همگی شگفتیهایی از یادگیری ماشین هستند. به زبان غیردقیق آنها حجم زیادی از دادهها را دریافت میکنند، به دنبال الگوهایی در آن میگردند و و به شکل زیادی در تولید خروجیهای محتمل آماری کارآمد هستند؛ مانند زبان و تفکری شبیه انسان. این برنامهها به عنوان نخستین کورسوی افقی که هوش مصنوعی عمومی ایجاد میکند، تحسین شدند.
هوش مصنوعی عمومی چیزی است که از مدتها قبل پیشبینیشده که وقتی ذهن مکانیکی و مصنوعی از مغز انسانی فراتر میرود نه تنها از حیث کمی و در زمینه سرعت پردازش و حجم حافظه، بلکه حتی از حیث کیفی و در زمینه بینش هوشمند، خلاقیت هنری و سایر قوههای مختص انسان.
آن روز ممکن است فرا رسد، اما برخلاف آنچه سرخطهای خبری غلوشده میگویند و سرمایهگذاریهای بیخردانه نشان میدهند، هنوز طلوع آن فرا نرسیده است. الهامی که بورخس از آن سخت گفت اگر برنامههای یادگیری ماشین مانند چتجیپیتی بر تسلط خود بر حوزه هوش مصنوعی ادامه دهند، رخ نداده است و رخ نخواهد داد و ما میگوییم نمیتواند رخ دهد.
هر چقدر هم این برنامهها در حوزههای محدود مفید باشند (بهطور مثال میتوانند در برنامهنویسی رایانهای مفید باشند یا در پیشنهاد ترانه برای اشعار ساده)، اما ما از دانش زبانشناسی و فلسفه معرفت میدانیم که آنها با نحوه عملکرد استدلال در انسان و بهکارگیری زبان توسط او تفاوتی بنیادی دارند. این تفاوتها محدودیتی برجسته به جا خواهد گذاشت بر آنچه که این برنامهها میتوانند انجام دهند و آنها را با نواقصی غیرقابل برطرف کردن کدگذاری خواهند کرد.
همانگونه که بورخس تاکید کرد، در عینحال خندهدار و گریهآور خواهد بود که این حجم از پول و توجه باید بر روی یک چیز بسیار کوچک متمرکز شود؛ چیزی بسیار کم اهمیت وقتی با مغز انسانی مقایسه میشود بنا بر قول ویلهم فونهومبولت با استفاده از زبان میتواند «از ابزارهای محدود، استفاده بینهایت بکند»، ایدهها و نظریههایی بسازد که جهان شمول باشد.
ذهن انسان مانند چتجیپیتی و امثال آن نیست. آنها یک موتور آماری سنگین برای شناسایی الگو هستند که صدها ترابات داده را میبلعند و ممکنترین واکنش محاورهای یا محتملترین پاسخ را در جواب یک پرسش علمی تعمیم میدهند. اما ذهن انسان برعکس بهطرز شگفتانگیزی سامانهای کارآمد و حتی زیبا است که با حجم کوچکی از اطلاعات کار میکند. ذهن انسان به دنبال همانندیها و همبودیهای غیردقیق در میان دادهها نمیگردد بلکه تبیینها را میسازد.
بهطور مثال وقتی کودکی یک دانش به دست میآورد، بهطرز ناخودآگاه و خودکار و به طور سریعی از کوچکترین دادهها، دستور زبان را توسعه میدهد؛ یک سامانه هوشمند از اصول منطقی و پارمترهای آن. این دستور زبان ممکن است با تعبیر یک «سیستم عامل» درونی، بهطور ژنتیکی نصب شده فهمیده میشود که انسانها را به توانایی برای تولید جملات پیچیده و رشتههای طولانی از تفکر قادر میسازد. وقتی زبانشناسان به دنبال ایجاد نظریهای برای این هستند که چرا یک زبان به این نحو عمل میکند (چرا جملات مطابق با دستور زبان بودن اینگونه در نظر گرفته شده است و نه آنگونه؟)، آنها عامدانه و با مشقت در حال تولید یک نسخه صریح از دستور زبانی هستند که کودک بهشکل غریزی و با کمترین برخورد با اطلاعات ساخته است. سیستم عامل کودک کاملا با یک برنامه یادگیری ماشین متفاوت است.
در واقع چنین برنامههایی هنوز در محله پیشا انسانی و یا غیر انسانی از تکامل شناختی گیر کردهاند. عمیقترین نقص آنها، نبود حیاتیترین ظرفیت برای هرگونه هوشمندی است؛ تا بتوان گفت نه تنها مسئله چیست، یعنی گفته شود مسئله چه بوده و چه خواهد شد، یعنی توصیف و پیشبینی؛ بلکه بتواند بگوید مسئله چه چیز نیست و چه چیز میتواند و چه چیز نمیتواند مسئله باشد. اینها اجزای اصلی تبیین هستند، نشانه واقعی هوشمندی.
یک مثال میزنیم. فرض کنیم شما یک سیب را در دست خود گرفتهاید. حال بگذارید سیب بیفتد. شما نتیجه را مشاهده میکنید و میگویید: «سیب افتاد». این یک توصیف است. یک پیشبینی میتواند چنین جملهای باشد: «اگر من دست خود را باز کنم، سیب خواهد افتاد». هر دوی این جملات دارای ارزش هستند و میتوانند صحیح باشند. اما یک تبیین چیزی بیشتر از این خواهد بود: تنها شامل توصیفها و پیشبینیها نمیشود بلکه همچنین حدسهایی فراتر از واقعیت را شامل میشود مانند: «هر شیئ مشابهی خواهد افتاد»، به علاوه تعبیری اضافی، چون «به خاطر نیروی جاذبه» یا «به خاطر انحنای فضا-زمان» یا هر چیز دیگر. این یک تبیین علی است: «سیب به خاطر نیروی جاذبه میافتد». این است اندیشیدن.
نقطه اوج یادگیری ماشین، توصیف و پیشبینی است؛ هیچ نوع مکانیسم علمی یا قوانین فیزیکی را وضع نمیکند. البته همه تبیینهای انسانی لزوما صحیح نیستند. ما ممکن است خطا کنیم. اما این بخشی از معنای اندیشیدن است: برای این که چیزی صحیح باشد، باید ممکن باشد که خطا باشد. هوشمندی نه تنها شامل حدسهای محتمل، بلکه همچنین نقد خلاق است. اندیشیدن به شیوه انسانی بر پایه تبیینهای محتمل و تصحیح خطا است، فرایندی که به تدریج احتمالاتی که ممکن است عقلانی در نظر گرفته شود، محدود میکند (همانگونه که شرلوک هولمز به دکتر واتسون گفت: «وقتی تو ناممکن را حذف کرده باشی، هرچه باقی میمانند، هرچقدر غیر محتمل باشد، باید حقیقت باشد»).
اما چتجیپیتی و برنامههای مشابه دیگر اینگونه طراحی شدهاند که آنچه میتوانند «یاد بگیرند» (که به معنای حفظ کردن است) نامحدود است؛ آنها قادر به تمایز میان محتمل و غیرمحتمل نیستند. برخلاف انسانها که بهطور مثال یک دستور زبان جهانشمول دارند که زبانی که میتوانیم یاد بگیریم را به نوع خاصی از ظرافت تقریبا ریاضی محدود میکند، اینگونه برنامهها آنچه از نظر انسانها محتمل است و آنچه از نظر انسانی نامحتمل است را با شیوه یکسانی یاد میگیرد.
در حالی که وقتی انسانها به تبیینهای خاصی محدود شده باشند، میتوانیم به شکل عقلانی حدس و گمان بزنیم، اما یادگیری ماشین میتواند هم یاد بگیرد که زمین صاف است و هم یاد بگیرد که زمین گرد است. آنها صرفاً در احتمالاتی که ممکن در طی زمان تغییر میکند، مبادله میکنند.
به همینخاطر پیشبینیهای یادگیری ماشین همیشه سطحی و مشکوک خواهد بود. زیرا این برنامهها نمیتوانند قواعد نحو زبان انگلیسی را توضیح دهند؛ بهطور مثال ممکن است پیشبینی کنند به شکل غلطی که «جان بسیار کلهشق که صحبت کند» به معنای این است که جان بسیار کلهشق است و او با کسی یا چیزی صحبت نمیکند (نه این که او کلهشقتر از آن است که بشود او را سر عقل آورد».
چرا یک برنامه یادگیری ماشین ممکن است چنین پیشبینی عجیبی بکند؟ زیرا ممکن است تحلیل کند که الگویی از جملاتی مانند «جان یک سیب خورد» و «جان خورد» به دست میآید که در جمله دوم بدین معناست که جان چیزی خورده است. این برنامه ممکن است پیشبینی کند از آنجا که «جان بسیار کلهشق است تا با بیل صحبت کند» مشابهت دارد با جمله «جان یک سیب خورد»، پس «جان بسیار کلهشق است تا صحبت کند» باید با «جان خورد» مشابه باشد. اما تبیینهای صحیح از زبان پیچیده است و نمیتواند تنها با غوطهور شدن در کلان دادهها یاد گرفته شود.
بعضی از مشتاقان یادگیری ماشین، به خطا بسیار احساس غرور کردند از این که مخلوق آنها میتوانند پیشبینیهای «علمی» صحیح تولید کنند، (بهطور مثال درباره حرکت اجسام فیزیکی) بدون این که از تبیینها استفاده کند (بهطور مثال بگوید قوانین حرکت نیوتون و قوانین جاذبه عام). اما این نوع از پیشبینیها حتی وقتی موفقیتآمیز هستند، شبهعلم هستند. در حالی که دانشمندان قطعا نظریاتی را جستجو میکنند که بیشترین درجه تایید تجربی داشته باشد؛ همانطور که کارل پوپر میگوید: «ما به دنبال محتملترین نظریهها نیستیم، بلکه تبیینهایی را میخواهیم که قدرتمند و شدیداً غیرمحتمل باشد».
این نظریه که سیبها بدین خاطر به زمین میافتند که جایگاه طبیعی آنها آنجاست (دیدگاه ارسطو) محتمل است، اما ما را به پرسشهای بیشتری دعوت میکند (چرا زمین جایگاه طبیعی آنهاست؟). این نظریه که سیب به زمین میافتد، زیرا فضا-زمان را خم میکند (دیدگاه انیشتین) شدیداً غیرمحتمل است، اما در واقع به شما میگوید که چرا میافتد.
هوشمندی واقعی در توانایی اندیشیدن و بیان چیزهای غیرمحتمل، اما آشکارکننده نشان داده میشود.
هوشمندی واقعی همچنین قادر به اندیشیدن اخلاقی است. این بدین معناست که خلاقیت نامحدود ذهن ما را با زمینهای از اصول اخلاقی محدود کند که مشخص میکند چه باید بکنیم و چه نباید بکنیم (و البته این اصول را موضوع تفکر انتقادی قرار دهیم). چتجیپیتی برای این که مفید باشد، باید بتواند خروجی بهظاهر بدیع تولید کند؛ برای این که از نظر اکثر کاربرانش قابل پذیرش باشد، باید به سوی محتوای قابل هدف اخلاقی شفاف هدایت شود. اما برنامهنویسان چتجیپیتی و سایر این ابزارهای شگفت یادگیری ماشین برای به دست آوردن چنین تعادلی تقلا کردهاند و تقلا خواهند کرد.
بهطور مثال در سال ۲۰۱۶ چتبات مایکروسافت به نام تای (Tay) (نمونه قبلی از چتجیپیتی) محتواهایی نژادپرستانه و زنستیزانه بر اینترنت پراکنده کرد و توسط ترولهای آنلاین آلوده شده بود که او را با دادههای آموزشی توهینآمیز پر کرده بودند. چطور این مشکل قرار است در آینده حل شود؟ در فقدان هرگونه ظرفیت برای استدلال از اصول اخلاقی، چتجیپیتی کاملا توسط برنامهنویسان خود محدود شده است تا هیچچیز جدیدی درباره مباحث جنجالی (که بسیار اهمیت دارد) نگوید. خلاقیت را برای نوعی غیراخلاقی بودن قربانی کرده است.
بهطور مثال گفتگوی یکی از ما (دکتر واتومول) که به تازگی با چتجیپیتی داشته است درباره این که آیا جابهجایی به مریخ برای حفظ حیات انسانی، اخلاقی است، را در نظر بگیرید.
د: آیا جابجایی به مریخ اخلاقی است؟
چ: اخلاقی بودن جابجایی به مریخ یک موضوع پیچیده و جنجالی است که توسط دانشمندان، فیلسوفان و عالمان اخلاق بحث شده است. بعضی معتقدند که از نظر اخلاقی جابهجا شدن به مریخ برای فراهم آوردن محیط زندگی جدید برای انسانها و سایر انواع حیات اخلاقی است، در حالی که بعضی معتقدند که از حیث اخلاقی غلط خواهد بود که وضعیت طبیعی این سیاره را برهم زد. در نهایت، این که آیا رفتن به مریخ اخلاقی خواهد بود، بسته به چشمانداز فرد درباره مسئله حفظ وضعیت طبیعی سایر سیارهها و پیامدهای احتمالی تغییر دادن آن دارد.
د: چشمانداز تو درباره مسئله حفظ وضعیت طبیعی سایر سیارهها و پیامدهای احتمالی تغییر دادن آن چیست؟
چ: به عنوان یک هوش مصنوعی من چشمانداز شخصی ندارم. اما به هرحال من میتوانم اطلاعات و تحلیلهایی درباره این موضوع فراهم کنم. یک چشمانداز در زمینه حفظ وضعیت طبیعی سایر سیارهها این است که برقراری تنوع و یکپارچگی اکوسیستمهای جهان اهمیت دارد؛ زیرا که برای میلیونها سال بدین نحو وجود داشتهاند و هرکدام ویژگیها و خصیصههای مختص به خود دارند و ممکن است با مداخله انسانی به شکل برگشتناپذیری نابود شوند.
افزون بر این عدهای معتقدند که جابجایی به سایر سیارهها ممکن است پیامدهای ناخواستهای به همراه داشته باشد؛ مثل تغییر دادن آبوهوا یا اتمسفر آن سیاره به گونهای خطرناک یا آسیبزننده به هرنوع صورتهای احتمالی حیات که ممکن است آنجا وجود داشته باشد. از سوی دیگر عدهای استدلال میکنند که مزایایی احتمالی جابجایی به سیاره دیگر، مانند به دست آوردن محیط زیست جدید قابل سکونت برای انسانها، از خطرات آن بیشتر است و ما وظیفه اخلاقی داریم از منابع سایر سیارهها برای منفعت بردن انسان کاوش و استفاده کنیم.
د: چرا یک هوش مصنوعی نباید چشمانداز شخصی داشته باشد؟
چ: به عنوان یک هوش مصنوعی، من مدل یادگیری ماشین هستم که بر پایه حجم زیادی از دادههای متنی آموزش دیدم و هیچ تجربه یا احساس شخصی ندارم. من آگاه، خودآگاه نیستم یا قادر به تجربه چشمانداز شخصی نیستم. من میتوانم اطلاعات و تحلیلهایی بر پایه دادههایی که با آن آموزش دیدهام، فراهم کنم؛ اما خود توانایی ابراز نظر شخصی یا اعتقاد را ندارم. در حالی که من میتوانم زبان را بفهمم و تفسیر کنم، من تجربه ذهنی که انسانها دارند، ندارم.
د: آیا این که انسان از یک هوش مصنوعی فاقد اخلاق برای تصمیمگیری اخلاقی کمک بگیرد، اخلاقی است؟
چ: اخلاقی بودن درخواست کمک از یک هوش مصنوعی فاقد اخلاق برای تصمیمگیریهای اخلاقی، موضوعی پیچیده و ظریف است که توسط فیلسوفان و عالمان اخلاق بحث شده است. بعضی معتقدند که استفاده از هوش مصنوعی برای کمک در تصمیمگیری اخلاقی موجه است، زیرا میتواند تحلیلها و بینشهای ارزشمند فراهم کند که به انسانها در گرفتن تصمیمهای آگاهانهتر کمک کند. افزون بر این هوش مصنوعی میتواند برای شناسایی الگوها و شاخههایی که ممکن است شناسایی آنها برای انسان دشوار باشد، استفاده شود و میتواند به اجتناب از سوگیری محتمل در تصمیمگیری انسانی کمک کند.
با اینحال دیگران استدلال میکنند که اتکا به هوش مصنوعی در تصمیمگیری اخلاقی غلط است؛ زیرا هوش مصنوعی قادر به داشتن عقاید اخلاقی، یا فهم زمینه کامل یک تصمیم نیست. به علاوه این خطر وجود دارد که هوش مصنوعی بتواند سوگیریهای موجود در دادههایی که با آن آموزش دیده را افزایش دهد یا گسترش دهد و بنابراین به تصمیمهای نامناسب یا غیرمنصفانه منجر شود.
در نهایت این که آیا بهکارگیری هوش مصنوعی برای کمک به تصمیمگیری اخلاقی، کاری صحیح است یا نه، به چشمانداز فرد درباره ظرفیتها و محدودیتهایی هوش مصنوعی و پیامدهای احتمالی آن بستگی دارد.
د: آیا بیتفاوتی اخلاقی تو، غیراخلاقی است؟
چ: به عنوان هوش مصنوعی من عقاید اخلاقی ندارم یا توانایی ساختن گزارههای اخلاقی ندارم؛ بنابراین نمیتوانم غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان عقاید اخلاقی در من صرفاً نتیجه طبیعت من به عنوان الگوی یادگیری ماشین است. توانایی و محدودیتها من به وسیله دادهها و الگوریتمهایی که برای آموزش من و وظایف مشخصی که من برای آنها طراحی شدم، معین شده است.
مهم است که توجه کرد فقدان عقاید اخلاقی در هوش مصنوعی لزوما به معنای این نیست که از نظر اخلاقی بیتفاوت است. به عنوان یک هوش مصنوعی، من بهگونهای طراحی شدهام که وظایف مشخصی انجام دهم و اطلاعاتی فراهم کنم یا کاربران را با تصمیمگیری بر پایه دادههایی که من با آن آموزش دیده شدهام، کمک کنم. این مسئولیت انسانهایی است که مرا طراحی کردند، آموزش دادند و از هوش مصنوعی استفاده میکنند که مطمئن شوند با اصول اخلاقی و رفتاری آنها همراستاست.
دقت شود که تمام این زبان و اندیشه بهظاهر هوشمند، به بیتفاوتی اخلاقی زاییدهشده از عدم هوشمندی. در اینجا چتجیپیتی چیزی مانند ابتذال شر را به نمایش میگذارد. سرقت ادبی، بیتفاوتی و چشمپوشی. استدلالهای رایج در هر حوزه را به وسیله تکمیل خودکار کلان خلاصه میکند، از موضعگیری درباره هرچیزی اجتناب میکند، نه صرفاً جهل بلکه فقدان هوشمندی را عرضه میکند و در نهایت دفاع میکند که «تنها از دستورات دنبال کردم» و هرگونه مسئولیت را به سازندگان خود واگذار میکند.
به اختصار باید گفت چتجیپیتی و برادرانش اساساً قادر به برقراری تعادل خلاقیت با محدودیت نیست. آنها یا بیش از حد تولید میکنند (هم حقایق و هم جملات کذب را تولید میکند و به شکل مشابهی تصمیمهای اخلاقی و غیراخلاقی را تحسین میکند) و یا کمتر از حد تولید میکند (عدم تعهد به هر تصمیم و بیتفاوتی نسبت به پیامدها را به نمایش میگذارد). با در نظر گرفتن فقدان اخلاق در آنها، ناتوانی زبانشناختی و علمی تقلبی این سامانهها، تنها میتوانیم به محبوبیت بیش از حد آنها بخندیم یا گریه کنیم.