Gerdab.IR | گرداب

امکان تشخیص نژاد از طریق هوش مصنوعی

امکان تشخیص نژاد از طریق هوش مصنوعی
تاریخ انتشار : ۰۳ شهريور ۱۴۰۰

یک گروه بین‌المللی از پزشکان و دانشمندان کامپیوتر اعلام کردند که سیستم‌های هوش مصنوعی‌ای که برای آنالیز تصاویر اشعه ایکس، سی‌تی اسکن، ماموگرافی و سایر تصاویر پزشکی استفاده می‌شوند

به گزارش گرداب، با توجه به این که سازمان غذا و داروی آمریکا در نظر دارد تا از تجهیزات پزشکی با هوش مصنوعی استفاده کند، تحقیقات جدید نشان می‌دهد که سیستم‌های هوش مصنوعی پزشکی می‌تواند عملکرد متفاوتی روی نژاد‌های مختلف افراد داشته باشد. به گونه‌ای که انسان نمی‌تواند علت عملکرد متفاوت این سیستم‌ها را تشخیص دهد.

اخیراً یک گروه بین‌المللی از پزشکان و دانشمندان کامپیوتر اعلام کردند که سیستم‌های هوش مصنوعی‌ای که برای آنالیز تصاویر اشعه ایکس، سی‌تی اسکن، ماموگرافی و سایر تصاویر پزشکی استفاده می‌شوند می‌توانند نژاد بیمار را با دقت بالایی و تنها از روی این تصاویر حدس بزنند. حتی زمانی که کیفیت تصاویر آن‌قدر پایین بود که ویژگی‌های آناتومیکی با چشم انسان قابل تشخیص نبودند، این سیستم توانست تا پیش‌بینی‌های دقیقی درباره‌ی نژاد بیمار ارائه دهد.

نکته‌ی نگران‌کننده این است که این تیم نتوانسته دلیل پیش‌بینی‌های دقیق نژادی سیستم‌های هوش مصنوعی را پیدا کند. دکتر جودی گیچویا که یکی از نویسندگان گزارش این تحقیق و رادیولوژیست در دانشگاه اموری است، به Motherboard گفت: «این بدان معناست که ما نمی‌توانیم جلوی سوگیری سیستم را بگیریم.

مشکل توانایی تشخیص نژاد بیمار توسط سیستم نیست، بلکه توانایی هوش مصنوعی در تشخیص نژاد بیماران با استفاده از تصاویر و مدل‌های کم‌کیفیت و پیش پا افتاده است. اگر سیستم شروع به یادگیری چنین ویژگی‌هایی کرده باشد، همه‌ی تلاشی که ما برای کم کردن نژادپرستی سیستماتیک انجام داده‌ایم به طور طبیعی در الگوریتم قرار خواهد گرفت».

در سال‌های اخیر، تحقیقات دیگری درباره‌ی سوگیری نژادی در الگوریتم‌های هوش مصنوعی پزشکی انجام شده بود و در تمام آن موارد دلیل سوگیری توضیح داده شد. برای مثال، در یک مطالعه مشخص شد که الگوریتم سیستم‌های پزشکی نمی‌تواند به درستی شدت بیماری یک بیمار سیاه‌پوست را پیش‌بینی کند، زیرا تمام پیش‌بینی‌های سیستم براساس سوابق داده‌های پزشکی موجود انجام می‌گیرد. به طور کلی، بیمارستان‌ها کم‌تر به بیماران سیاه‌پوست رسیدگی می‌کنند.

دکتر گیچویا و تیمش تلاش زیادی کردند تا توضیحی برای یافته‌های خود پیدا کنند. آن‌ها حتی این موضوع را که شاید پیش‌بینی نژاد بیماران به دلیل تفاوت‌های بیولوژیکی مانند سفت‌تر بودن بافت سینه باشد، بررسی کردند. اعضای تیم تصاویر را بررسی کردند تا ببینند آیا پیش‌بینی مدل‌های هوش مصنوعی به کیفیت یا وضوح تصویر بستگی دارد یا خیر، زیرا تصاویر مربوط به بیماران سیاه‌پوست، کم‌کیفیت بودند. هیچ یک از بررسی‌های آن‌ها نتوانست دلیل این پدیده را توضیح دهد.

انسان‌شناس دانشگاه نیویورک، خدیجه فریمن گفت: «یافته‌های این تحقیق، نحوه‌ی کم کردن تعصبات نژادی در سیستم‌های تشخیص هوش مصنوعی را پیچیده‌تر می‌کند». بسیاری از سازندگان هوش مصنوعی در این زمینه امیدوارند بتوانند با حذف داده‌هایی که نشانگر تفاوت نژادی است (مانند کدپستی) و تنظیم سیستم‌های خود براساس داده‌هایی که در واقع نماینده‌ی جمعیت کلی است، سیستم‌هایی ایجاد کنند که موضوع نژادپرستی را در زمینه‌ی پزشکی از بین ببرد.

فریمن می‌گوید: «این راه‌حل‌های اولیه که به نظر ما کافی و خوب می‌رسند شاید در واقع کافی نباشند». در ماه ژانویه ۲۰۲۱، سازمان غذا و داروی آمریکا اعلام کرد که قصد دارد تا نرم‌افزار تجهیزات پزشکی خود را به گونه‌ای تغییر دهد تا امکان استفاده از الگوریتم‌های پیشرفته‌تر و پیچیده‌تر وجود داشته باشد. در حال حاضر، سازمان غذا و دارو فقط دستگاه‌های پزشکی‌ای را تایید می‌کند که طبق مجموعه داده‌های خاصی عمل می‌کنند و با پردازش داده‌های جدید، تغییر نمی‌کنند.

اما این سازمان احتمالاً به زودی اجازه‌ی استفاده از الگوریتم‌های غیرثابت را خواهد داد که با گذشت زمان و دریافت داده‌های جدید، تکامل می‌یابند. الگوریتم‌هایی که قبلاً مورد تایید قرار گرفته‌اند نیز اغلب بررسی نمی‌شوند تا مشخص شود که آیا عملکرد متفاوتی برای افراد با نژاد‌های مختلف دارند یا خیر.

دکتر بیب آلن از دانشگاه بیرمنگام آمریکا به Motherboard گفت که تحقیق انجام شده توسط گیچویا و تیم او بار دیگر نشان می‌دهد که سازمان غذا و دارو باید تجهیزات پزشکی هوش مصنوعی را تحت نظر قرار داده و آن‌ها را از لحاظ سوگیری نژادی دائماً آزمایش کند.

آلن گفت: «مفهوم هوش مصنوعی خودمختار واقعاً نگران‌کننده است. از کجا می‌خواهید بدانید که دور از چشم شما چه کار می‌کند؟ سازندگان این نوع دستگاه‌ها باید توجه بیش‌تری به این نوع اطلاعات و داده‌ها داشته باشند».

منبع: The Vice