دیدبان

اخلاق و هوش مصنوعی

اخلاق و هوش مصنوعی

دیدبان؛ در هجدهم مارس 2018، حوالی ساعت ده شب، اِلین هرتسبرگ با دوچرخه در حال عبور از خیابانی در شهر تمپ آریزونا بود که با یک دستگاه اتومبیل خودران تصادف کرد و کشته شد. هرچند پُشت فرمان عاملی انسانی قرار داشت، اما یک سیستم خودکار- یعنی هوش مصنوعی- کنترل کامل ماشین را به عهده داشت. این واقعه، مانند دیگر وقایعی که به تعامل انسان و فناوری‌های هوش مصنوعی ارتباط دارند، برخی پرسش‌های اخلاقی و پیشاحقوقی را برمی‌انگیزاند. برنامه‌نویسان سیستم برای اینکه محصولاتشان جان انسان‌ها را نگیرد، باید دارای چه الزامات اخلاقی خاصی باشند؟ چه کسی مسئول مرگ هرتسبرگ است؟ شخصی که در صندلی راننده نشسته بود؟ کارخانه‌ای که قابلیت‌های ماشین را تِست می‌کرد؟ طراحان سیستم هوش مصنوعی؟ و یا حتّی تولید‌کنندگان تجهیزات حس‌گر نصب‌شده بر روی خودرو؟

«هوش مصنوعی» به سیستم‌هایی اشاره دارد که می‌توانند علائم و نشانه‌هایی را از محیط دریافت کنند و بر اساس ورودی‌های دریافتی، اقدام به حلّ مسأله، ارزیابی ریسک، پیش‌بینی و عمل نمایند. پیش از دوران کامپیوترهای قدرتمند و داده‌های بزرگ، چنین سیستم‌هایی به وسیلۀ انسان‌ها برنامه‌ریزی می‌شدند و تابع قواعد ایجادشده توسط افراد بودند. اما توسعۀ فناوری منجر به توسعۀ رویکردهای جدیدی شده است. یکی از این رویکردها، «یادگیریِ ماشین» [2] است. یادگیری ماشین اکنون فعال‌ترین حوزۀ هوش مصنوعی است که در آن روش‌های آماری، سیستم را قادر به «یادگیری» از داده‌ها و تصمیم‌گیری می‌کنند؛ بدون اینکه که مستقیماً برنامه‌نویسی شده باشند. چنین سیستم‌هایی یک «الگوریتم»- مجموعه مراحل حل مسأله- را با یک «پایگاه دانش» [3]- اطلاعات مورد استفادۀ الگوریتم برای ساخت مدلی از جهان- جفت می‌کنند.

دغدغه‌های اخلاقی ناشی از این پیشرفت‌ها ناظر به کاربرد هوش مصنوعی در پهبادهای نظامی مرگبار و ریسک هوش مصنوعی در رابطه با نابودی سیستم‌های مالی جهانی است. راه دور نرویم! هوش مصنوعی حتّی نگرانی‌هایی را در رابطه با بیکاری هم برانگیخته است. چرا که سیستم‌های خودکار ممکن است جایگزین میلیون‌ها رانندۀ حمل و نقل شوند و در نتیجه فعالیت ماشین‌های سبک باربری را از دور خارج کنند. ورای این ملاحظات گستردۀ اجتماعی و سیاسی، متخصصان داده نسبت به اموری نظیر یکجانبه‌نگری، استفادۀ اخلاقی از فناوری و ماهیت تعامل میان سیستم‌های هوش مصنوعی و انسان‌ها نیز دغدغۀ جدی دارند؛ البته اگر بنا باشد این سیستم‌ها در مادی‌ترین کاربردها هم به صورت اخلاقی و درست سازمان یابند.

یک تغییر اجتماعی ظاهراً معمولی را در نظر بگیرید: به ماشین‌ها قدرت تصمیم‌گیری‌‌های معمول تأثیرگذار بر زندگی مردم داده شده است. هوش مصنوعی می‌تواند پرسش‌های وسیع مربوط به داده‌ها را تجمیع و ارزیابی کند؛ داده‌هایی که گاهی انسان‌ها بدون کمک گرفتن از ماشین ظرفیت تحلیل آن را ندارند. این امر هوش مصنوعی را قادر می‌سازد توصیه‌های استخدامی ارائه کرده و یا اعتبار متقاضیان وام را ظرف چند ثانیه تعیین کند و یا احتمال تخطی دوبارۀ مجرمان را پیش‌بینی نماید.

چنین کاربردهایی مسائل اخلاقی دردسرسازی را برمی‌انگیزاند. زیرا سیستم‌های هوش مصنوعی می‌توانند آنچه را که از داده‌های جهان واقعی آموخته‌اند تقویت کنند، حتّی مخاطرات شناخته‌شده‌ای نظیر تبعیض جنسی یا نژادی را تشدید نمایند. همچنین امکان دارد این سیستم‌ها در مواجهه با سناریوهای ناآشنا قضاوت‌های نادرستی انجام دهند. همچنین از آنجا که بسیاری از این سیستم‌ها به صورت «جعبه سیاه» طراحی شده‌اند و دلایل نهفته در پس تصمیماتشان به راحتی برای انسان‌ها دسترسی‌پذیر و قابل‌فهم نیست، طرح پرسش یا تحقیق در مورد آن‌ها دشوار است.

مثال‌های زیادی وجود دارد. در سال 2014 شرکت «آمازون» برای شناسایی مهندسان نرم‌افزاری که احتمالاً از آن‌ها دعوت به کار می‌کند، یک ابزار استخدامی طراحی کرد. این سیستم به سرعت دچار یکجانبه‌نگری و تبعیض علیه زنان شد، به طوری که شرکت آمازون در سال 2017 آن را متوقف کرد. در سال 2016 شرکت پروپابلیکا به تحلیل یک سیستم تجاری که احتمال تخطی مجدد مجرمان را پیش‌بینی می‌کرد پرداخت. این سیستم به قُضات در ارائۀ بهتر احکام قضایی کمک می‌کرد. پس از انجام تحلیل، این نتیجه به دست آمد که سیستم مذکور علیه سیاه‌پوستان تبعیض قائل می‌شود. در طی دو سال گذشته، ماشین‌های خودرانی که عملکردشان مبتنی بر یادگیری از داده‌ها و قواعد طراحی‌شده بوده است، در مواجهه با بازخوردهای حسی ناآشنا و یا ورودی‌هایی که سیستم‌ راهنما توان تفسیر آن‌ها را ندارد، باعث به تصادفات مرگبار شده‌اند. اینکه طراحان تجاری معمولاً از ارائۀ کُدهای سیستم‌ خود- به بهانۀ انحصاری بودن حقوق معنوی- امتناع می‌ورزند، نوع دیگری از عدم شفافیت است که بیشتر جنبۀ قانونی دارد تا فنّی.

در این میان هیچ کدام از پیشرفت‌های فناورانه به خودی خود مسألۀ اساسی و بنیادین هوش مصنوعی را حل نمی‌کند: حتّی الگوریتم طراحی‌شده بر اساس تفکر دقیق نیز تصمیماتش را بر اساس ورودی‌ها دریافتی از جهان واقعیِ ناکامل، غیرقابل‌پیش‌بینی، خاص و ناقص سامان می‌دهد.

خود متخصصان علوم کامپیوتر زودتر از دیگران فهمیدند که مهندسی پس از طراحی سیستم قدرت پاسخگویی به چنین مسائلی را ندارد. پیشرفت‌های وسیعی در حوزه‌هایی نظیر حفظ محرمانۀ داده‌ها و شناخت دقیق محدودیت‌های منصفانه بودن الگوریتم‌ها رخ داده است. امّا با وجود این برای درک لزوم لحاظ کردن مسائل اخلاقی پیش از استقرار سیستم‌ها، یک درس رسمی فلسفۀ اخلاق به تعداد زیادی از کلاس‌های علوم کامپیوتر دانشگاه هاروارد اضافه شده است؛ درسی که توسط پژوهش‌گران پسادکتری و دانشجویان تحصیلات تکمیلی تدریس می‌شود. در میان دانشمندان علوم دادۀ دانشگاه هاروارد، بحث‌های گسترده‌ای در مورد تاثیر اجتماعی هوش مصنوعی بر جهان همچنین در جریان است. این مباحث در طرح جدید اخلاق و حکم‌رانیِ هوش مصنوعی که توسط مرکز برکمان کلاین، وابسته به مدرسۀ حقوق دانشگاه هارواد، با همکاری آزمایشگاه هوش مصنوعی دانشگاه ام آی تی راه‌اندازی شده نیز در حال پیگیری است. این توجه روزافزون به اخلاق توسط یکی از اعضای قدیمی هیئت علمی علوم کامپیوتر آغاز شده است.

از ارتباط تا همکاری و اخلاق

باربارا گروسز، صاحب کرسی استادی هیجینز در علوم طبیعی بیان می‌کند: «چند سال پیش، مشغول ملاقات دوستانم در ماکروسافت بودم- شوهر ایشان تولیدکنندۀ سیستم‌های بصری کامپیوتر است- برای یافتن مکانی برای پیاده‌روی با اتومبیل حرکت کردیم. در آزادراه، جلوی ما یک ماشین حمل و نقل قرار داشت که به پشت آن یک توالت همراه نصب شده بود و یک دوچرخه نیز روی توالت همراه بسته شده بود. شوهرم به فکر فرو رفت که «سیستم من باید در مقابل چنین چیزی چه کاری انجام دهد؟ آیا باید بداند در مقابل آن چگونه واکنش نشان دهد؟» پاسخ احتمالاً منفی است. بعید است چنین تصویری بتواند بخشی از «تجربۀ» سیستم باشد- یعنی بخشی از مجموعۀ گستردۀ تصاویری باشد که با مشقّت توسط انسان‌ها وارد سیستم شده‌اند، چیزی که تشکیل‌دهندۀ داده‌های آموزشی سیستم است. شکنندگی سیستم‌های هوش مصنوعی کنونی با هوش انسانی که بسیار قوی است- و می‌تواند چیزی را در یک بافت یاد بگیرد و به سرعت آن را در بافت دیگری تطبیق دهد- در تقابل شدید قرار دارد. حتی اگر کامپیوترها قادر به تشخیص دوچرخه‌ها از کامیون‌ها و توالت‌های مسافرتی باشند، باز هم در تشخیص اینکه آن‌ها چگونه می‌توانند به یکدیگر متصل شوند و در آزادراه حرکت کنند مشکل دارند؛ در زمانی که دوچرخه‌ای که در مسیر جنبی حرکت می‌کند تنها 60 مایل در ساعت سرعت دارد (کشف این آسیب‌پذیری داده‌ای موضوع هوش مصنوعی و حملات تهاجمی است). به عبارت دیگر هوش مصنوعی فاقد شهود متعارف و قدرت استدلال است- ولو اینکه قادر به کشف‌های شگفت‌انگیزی باشد که هیچ انسانی نمی‌تواند آن‌ها را انجام دهد، مانند کشف روابط مرتبۀ سوم یا مراتب بالاتر در سیستم‌های زیستی (یعنی در مواردی که سه یا بیش از سه متغیر باید در تعامل با یکدیگر کار کنند تا نتیجه‌ای حاصل شود). او اینچنین جمع‌بندی می‌کند: «فکر ربات‌هایی که جانشین انسان می‌شوند را هم نکنید. ترس ما از سیستم‌های زبان‌بسته‌ و نادانی که مردم فکر می‌کنند هوشمند هستند بیش از سیستم‌های هوشمندی است که محدودیت‌های خود را درک می‌کنند».

گروسز که ابتدا در دانشگاه کرنر به تحصیل ریاضیات و سپس در برکلی به مطالعۀ علوم کامپیوتر پرداخته است، از سال 1973- یعنی از زمان استخدامش به عنوان پژوهشگر ریاضی توسط مرکز هوش مصنوعی اس آی آر اینترنشنال- بر مسائل هوش مصنوعی متمرکز بوده است. او جایزۀ «لایف اَچیومنت» انجمن زبان‌شناسی محاسباتی را در سال 2017 اخذ کرده است. گروسز به عنوان معمار بزرگ یکی از شاخه‌های هوش مصنوعی که به نحوۀ تولید و تفسیر گفتار و نوشتار توسط کامپیوترها می‌پردازد. کامپیوترهایی که می‌توانند بسیاری از روش‌هایی را که سیستم‌های دارای ظرفیت زبانی مانند Google ،Alexa و Siri از به کارگیری آن‌ها قاصرند به سرعت به کار گیرند. مثلا سیستم‌های مذکور می‌توانند نشان دهند نزدیک‌ترین اورژانس کجاست، ولی این راهنمایی برای شخصی که قوزک پایش شکسته چندان مفید نیست.

کارهای گروسز در حوزۀ ارتباط هوش مصنوعی و زبان، پیش از شکل‌گیری «رویکرد مبتنی بر داده» به زبان طبیعی مطرح شده است و به همین دلیل او «رویکردی مبتنی بر مدل» را بسط داده که در آن گفتگوی انسانی به نحوی بازنمود می‌شود که کامپیوترها قادر به فهم آن هستند. این فعالیت‌ها برای حوزۀ مورد پژوهش او بسیار ارزشمند است، زیرا باعث شده گروسز به طور عمیقی بر ماهیت تعامل انسان و کامپیوتر بیندیشد. همچنین این فعالیت‌ بعدها- با توجه به آینده‌ای که در آن کامپیوترها و انسان‌ها ممکن است با یکدیگر کار کنند- ارزشمند خواهند بود؛ زیرا در در ارائۀ مدل‌های نظریِ سیستم‌های هوش مصنوعی برای همکاری تیمی با انسان‌ها به کار می‌آیند.

کارهای او در رابطه با مدل‌های محاسباتی گفتگو بسیار فراتر از برنامه‌نویسی قواعد دستوری است. فهم قصد گوینده برای مشخص کردن ساختار گفتگو و به تبع کشف معنای یک گفتار انسانی یکی از راهبردهای کلیدی کشف‌شده توسط او بود. گروسز بیان می‌کند گفتگوی واقعی پر از انحراف از موضوع و تغییر نقطۀ تمرکز است. به عنوان یک مثال قابل توجه او به ضبط گفتگوی برنامه‌ریزی نشده‌ای اقدام نموده است که که در آن شخصی تلاش می‌کند از طریق یک ماشین‌ تحریرِ دورکار به فرد دیگری بگوید چگونه یک کمپرسور هوا را سر هم کند (در اثناء مکالمه یکی از طرفین ضمیر «آن» را حدود نیم ساعت برای اشاره به چیزی که قبلاً مورد اشاره قرار نگرفته به کار می‌برد و هر دو طرف دقیقاً می‌دانند چه چیزی مراد است). او توضیح می‌دهد که توجه به زیر و بم صدا کلید فهم برخی عبارات مبهم است. مثلا تعبیر «تو یک شاهزادۀ واقعی هستی» ممکن است به معنای تحت اللفظی و یا با نیش و کنایه به کار رود و بنابراین باید شیوۀ فهم آن را به کامپیوتر آموزش داد.

از این پژوهش میان‌رشته‌ای اصول عامی در باب ماهیت تعامل میان انسان و ماشین به دست می‌آید. مثلاً گروسز به همراه یک دانشجوی دورۀ دکتری به نام اک کامار [4] رای هدایت تبادل اطلاعات میان انسان و کامپیوتر نظریه‌ای را در باب «مدیریت وقفه و تعلیق» بسط داده‌اند؛ با این هدف که ارتباط میان آن‌ها کاراتر شود. در طول یک دورۀ طولانی کاری او به این باور رسیده که بهترین استفاده از هوش مصنوعی از ترکیب سیستم‌های هوش مصنوعی با تیم‌های انسانی به دست می‌آید. در تصویر گروسز از آینده سرعت و توان آماری کامپیوترهای هوشمند با استعدادهای درونی انسان ترکیب می‌شوند، نه اینکه ماشین‌ها و انسان‌ها رو در روی هم قرار بگیرند- در توصیفات معمول سیستم‌های هوش مصنوعی، قهرمانان جهان را در بازی شطرنج یا گو (Go) شکست می‌دهند و یا سیستم‌های مذکور جایگزین افراد در محل کار می‌شوند. این رویکرد ترکیبیِ گروسز خط پیشرو در زمینۀ سیستم‌های هوش مصنوعی است.

گروسز شروع به آزمایش سیستم‌های هوش مصنوعی تیم-پایه در حیطۀ مراقبت‌های بهداشتی کرد؛ او به همراه یک پزشک اطفال از دانشگاه استانفورد پروژه‌ای را آغاز کردند که عهده‌دار سامان‌دهی مراقبت از کودکان دارای بیماری‌های نادر بود؛ کودکانی که علاوه بر والدین توسط بسیاری از دیگر افراد نظیر متخصصان طبی، کمک‌های خانگی، فیزیوتراپ‌ها و معلمان مدرسه نیز پرستاری می‌شدند. گروسز بیان می‌کند فرایند مراقبت سال‌ها طول می‌کشد و «من با هیچ انسانی برخورد نکرده‌ام که بتواند به طور همزمان پیگیر وضعیت پانزده نفر و همۀ کارهایی که در طول دوره‌های طولانی انجام می‌دهند باشد».

گروسز به همراه «اُرفه امیر»، دانشجوی دکتری خود (که اکنون عضو هیئت علمی تکنیون است)، شروع به تحلیل نحوۀ عملکرد تیم‌های مراقبت از بیمار نمودند. آن‌ها برای هدایت تعاملات افراد انسانی و سیستم‌های هوش مصنوعی طراحی‌شده برای سازمان‌دهی اطلاعات مربوط به مراقبت کودکان، نظریه‌ای را ارائه کردند. گروسز در اینجا نیز، مانند کارهایی که در مورد زبان انجام انجام دادهبود، با اصول عام و کلی آغاز کرد. «به لحاظ نظری هدف ما فهم بهتر نحوۀ به مشارکت گذاشتن اطلاعات» در فضای تیمی چندعضوی «و سپس ساختن ابزارهایی برای والدین و پزشکان است».

یکی از انگاره‌های کلیدی که او و همکارش «ساریت کروز»، استاد دانشگاه بارایلان، بسط دادند این بود که اعضای تیم نباید عهده‌دار وظیفه‌ای شوند که فاقد دانش پیش‌نیاز و یا توان انجام آن هستند. این خصیصۀ یک کار تیمی خوب انسانی است و همچنین خصیصۀ کلیدی «سیستم‌های هوشمندی است که حدود خود را می‌دانند»، «مسألۀ هوش مصنوعی و دیگر فناوری‌هایی جهان این است که نمی‌توانند کاری را که به آن‌ها محوّل شده انجام دهند». ربات‌های چَت‌کنندۀ مربوط به خدمات آنلاین مشتری که از طریق پیام متنیِ «از فهم خواستۀ شما ناتوانیم»، واکنش نشان می‌دهند نمونه‌ای از این قبیل هستند. او اظهار می‌کند سیستم‌های مذکور می‌توانستند جور دیگری طراحی شوند، طوری که اولین تعاملات با یک فرد انسانی باشد که از طریق یک کامپیوتر تقویت شده است، آن شخص می‌تواند با مشتری وارد رابطه شود و به انجام کاری بپردازد که کامپیوتر در مورد آن دچار بدفهمی شده است. در این هنگام سیستم شخص را قادر به ارائۀ پاسخ سریع‌تر می‌کند. رعایت نکردن اصول طراحی سیستم‌های هوشمند، موجب می‌شود برخی از سیستم توقع کارهایی را داشته باشند که توان انجام آن را ندارد و یا سیستم‌ها به طرق خام و نامناسب مورد استفاده قرار می‌گیرند.

رویکرد میان‌رشته‌ای قوی گروسز به پژوهش، که از زبان‌شناسی، فلسفه، روان‌شناسی، اقتصاد و حتّی اندکی مردم‌شناسی و جامعه‌شناسی نیز متأثر است، باعث شده او در مورد اینکه کدام رشته به نحو بهتری آموزش طراحی سیستم‌های هوش مصنوعی را محقق می‌کند تامل کند. هرچند او از سال 1987 تا 2001، در دورانی که کاربرد هوش مصنوعی موضوعی صرفاً نظری بود، به تدریس دورۀ مقدماتی هوش مصنوعی مشغول بوده است. امّا در در سال‌های 2013 و 2014 هنگامی که او مجددا این دورۀ درسی را آغاز کرد جهان کاملا تغییر کرده بود و سیستم‌های عملیاتی هوش مصنوعی کاملاً مستقر شده بودند. گروسز دریافت که زمینۀ خوبی برای تدریس در حوزۀ اثر متقابل چالش‌های اخلاقی ناشی از هوش مصنوعی و طراحی سیستم‌های خوب وجود دارد.

این امر منجر به یکی از مهم‌ترین مساعدت‌های گروسز به تدریس علوم کامپیوتر در دانشگاه هاروارد شد. اینکه اخلاق باید به طور سفت و سخت به هر دورۀ درسی اضافه شود. در پاییز 2015 او یک دورۀ درسی جدید را معرفی کرد: «طراحی سیستم‌های هوشمند و چالش‌های اخلاقی». در سال بعد، 140 نفر متقاضی کلاسی با گنجایش تعریف‌شدۀ 25 نفر بودند و این امر موجب شد او دیگر همکارانش را به گنجاندن تدریس اخلاق در دورۀ درسی خود، تشویق کند. از آنجا که آن‌ها فاقد زمینۀ کافی در تدریس اخلاق بودند، او با «آلیسون سیمونز» استاد فلسفۀ ولکات که سرپرستی گروه فلسفه را نیز به عهده داشت، شروع به همکاری کرد. آن دو با یکدیگر، به همراه همکارانشان در رشته‌های مربوطه مشغول فعالیت شدند؛ همکارانی که شامل اساتید علوم کامپیوتری بودند که مشتاق گنجاندن اخلاق به عنوان بخشی از برنامۀ درسی خود و همچنین آموزش داده شدن در زمینۀ اخلاق توسط دانشجویان تحصیلات تکمیلی فلسفه بودند.

او بیان می‌کند هدف طرح «گنجاندن اخلاقِ علوم کامپیوتر» (embedded ethiCs)، این است که به کسانی که سیستم‌های هوش مصنوعی آینده را می‌سازند بیاموزد چگونه پرسش‌های اخلاقی را بشناسند و در مورد آن‌ها تأمل کنند (اکنون در میان دانشجویان کارشناسی، دانشجویان علوم کامپیوتر از نظر تراکم در ردۀ دوم دانشگاه هاروارد قرار دارند و اگر دانشجویان رشته‌های مرتبط نظیر آمار و ریاضیات کاربردی را هم در نظر بگیریم، مجموعۀ ثبت نامی‌های این رشته‌ها بسیار بیشتر از اقتصاد که در جایگاه اول قرار دارد می‌شود). او بیان می‌کند: «بسیاری از این چالش‌های اخلاقی یک پاسخ واحد صحیح ندارند، بنابراین همانطور که دانشجویان مهارت‌های اساسی محاسباتی و مربوط به کامپیوتر را می‌آموزند، بنا دارم به آن‌ها مهارت‌های اساسی استدلال اخلاقی را بیاموزم». در بهار 2017، چهار کلاس علوم کامپیوتر، شامل مباحث اخلاقی نیز بودند. در پاییز همان سال 5 کلاس، در بهار 2018 هشت کلاس و اکنون در مجموع 18 کلاس علوم کامپیوتر با مباحث اخلاقی وجود دارد؛ کلاس‌هایی که موضوعاتی از برنامه‌ریزی سیستم‌ها را به یادگیری ماشین، تأثیر آن بر محرمانه‌ بودن اطلاعات، عدالت، شبکه‌های اجتماعی و مسألۀ سانسور، ربات‌ها و مسألۀ کار و تعامل میان انسان و کامپیوتر پیوند می‌دهد.

پیمایش دانشجویان این کلاس‌ها نشان می‌دهد که بین80 تا 90 درصد آن‌ها از گنجاندن آموزش اخلاق اعلام رضایت کرده‌اند و میزان بیشتری از آن را مطالبه می‌کنند. گروسز بیان می‌کند «آرزوی من این است که هر کلاس علوم کامپیوتر- شاید تنها با یک یا دو استثناء- بخشی از درس را به اخلاق اختصاص دهد» به نحوی که همۀ کسانی که در حوزه‌ای تخصصی مشغول به کار هستند درک نمایند «اخلاق در همه جا به درد می‌خورد نه تنها در هوش مصنوعی». او و همکارانش می‌خواهند دانشجویان یاد بگیرند برای درگیری با مشکلاتی نظیر تبعیض و یکسویه‌نگری و ضرورت تفسیرپذیری انسانی در هوش مصنوعی، آن‌ها باید سیستم‌هایی را با اصول اخلاقی‌ای که از ابتدا در ذهنشان هست بسازند.

تبدیل شدن به رانندۀ بوستون

«جاناتان زیترین»، استاد کرسی بمیس در حقوق بین الملل و استاد علوم کامپیوتر و همچنین رئیس هیئت علمی اینترنت و جامعه، وابسته به مرکز برکمان کلاین، از منظر پرسش‌های پیشاحقوقی به دنبال تحقق این هدف بوده است. در بهار 2015 او به صورت مشترک با «جوی ایتو»، مدیر آزمایشگاه رسانۀ ام آی تی، کلاسی را برگزار کردند و در آن به کاوش پیرامون اینکه چگونه فناوری‌های هوش مصنوعی می‌بایست منافع عمومی را لحاظ کنند پرداختند. وسائل نقلیۀ خودکار یک مطالعۀ موردی برجسته است که دانشجویان را مجبور به مواجهه با پیچیدگی‌های پیش رو می‌کند، پیچیدگی‌هایی فراتر از مسألۀ واگن برقی [5] که در آن ناچارید تصمیم بگیرید چه کسی بمیرد و چه کسی نجات بیابد.

زیترین توضیح می‌دهد زمانی که یک ماشین واقعاً خودکار است «هنگامی که برای اشخاص قرار توقیف صادر می‌شود، این یعنی دفعۀ بعدی که آن‌ها وارد یک اتومبیل خودکار می‌شوند، درها قفل می‌شوند و ماشین آن‌ها را به نزدیک‌ترین ایستگاه پلیس می‌رساند». اگر کسی در ماشین اعلام وضعیت اورژانسی کند چه می‌شود؟ آیا ماشین می‌تواند با سرعت هفتاد مایل در ساعت آن‌ها را از مسیر خیابان‌های شهر به بیمارستان برساند، در حالی که همۀ اتومبیل‌های دیگر در حال حرکت هستند.

دانشجویان کلاس زیترین می‌کردند از پیش می‌دانند بحث در باب وسائل نقلیۀ خودکار چگونه حل و فصل خواهد شد. اما زمانی که او یک سوال بسیار ساده، یعنی اینکه «آیا راننده باید قادر به آموزش دادن ماشین برای حرکت با سرعت هشتاد مایل باشد؟» را مطرح کرد، آن‌ها با یک دوراهی اخلاقی مواجه شدند؟ اگر پاسخ مثبت باشد و ماشین در سرعت مذکور دچار تصادف شود، آیا راننده مسئول است؟ آیا سازندۀ ماشین به دلیل تعبیۀ قابلیت سرعت گرفتن ماشین نیز مسئولیت دارد؟ زیترین توجّه می‌دهد که «مردم همیشه می‌توانند هنگام رانندگی سرعت خود را افزایش دهند، امّا ما با توجه به دانستن این نکته که در چنین مواردی کاری از دست ما برنمی‌آید، به طور ضمنی آسوده‌خاطر هستیم». «نکتۀ اولیۀ قابل‌فهم [در باب ماشین‌های خودکار] این است که اوه! راننده‌ای وجود ندارد و ما نمی‌توانیم یک موجود غیرجاندار را مقصّر چیزی بدانیم. گویی مسئولیت اندکی وجود دارد»، در حالی که فی الواقع «مسئولیت‌ بسیار گسترده و زیادی وجود دارد». تولیدکنندگان، طراحان هوش مصنوعی، سیاست‌گذاران و راننده، همگی می‌توانند مسئول باشند.

زیترین توضیح می‌دهد اگر یک وسیلۀ نقلیه با سیستم هوش مصنوعی، با توجه به چیزهایی که از تجربیات خود در جاده می‌آموزد، به صورت دینامیک رفتارش را تغییر دهد، وضعیت پیچیده‌تر می‌شود. «ممکن است اگر به اندازۀ کافی در بوستون رانندگی کند، تبدیل به یک رانندۀ بوستون شود». این در مورد بسیاری از سیستم‌های یادگیری هوشمند صدق می‌کند و در این زمینه پرسش‌های حقوقی همچنان بی‌پاسخ باقی می‌مانند. او اظهار می‌کند شاید اگر طراح هوش مصنوعی و یا دیگر مشارکت‌کنندگان، سیستم یادگیرندۀ خاصی را طراحی کنند که در آن رفتارها همیشه قابل پیش‌بینی نباشد، کاربران این سیستم که فاقد قطعیت است، تا حدّی مسئول باشند.

زیترین چنین ادامه می‌دهد «این موضوع ترکیبی از پژوهش‌های میان‌رشته‌ای است». در مرکز برکمان کلاین و آزمایشگاه رسانۀ ام آی تی، او و همکارانش گروهی را با نام «اَسمبلی» ایجاد کرده‌اند که تولیدکنندگان نرم‌افزار در دیگر کمپانی‌های را در طول چند ماه، و ضمن یک فرصت مطالعاتی،‌ جمع می‌کرد؛ به این منظور که آن‌ها با دانشجویان و با یکدیگر بر روی برخی معمّاهای مربوط به هوش مصنوعی و دیگر حوزه‌های علوم داده کار کنند. «قراردادن آموزش اخلاق بخشی از تلاشی گسترده‌تر در جهت زمینه‌سازی برای مواجهۀ دانشجویان سراسر دانشگاه با یکدیگر است. این امر موجب می‌شود که دانشجویان با تکیه بر مطالب تخصصی که در دانشکده‌های خود آموخته‌اند، به صورت تیمی در مورد مسائل اخلاقی کار کنند».

«به نظر من این بخشی از چیزی است که تدریس‌ها و تحقیقات باربارا [گروسز] را به این اندازه تأثیرگذار کرده» و به تبع همیشگی کرده است. آموزۀ او این نیست که چگونه وارد یک سیستم کامپیوتری یا قسمتی از نرم‌افزار شویم تا آن را درست کنیم. درس او تأمّل در باب گسترۀ وسیع‌تری در باب نحوۀ تعامل مردم و فناوری‌هاست. آن‌ها می‌توانند مسئول باشند؟ آن‌ها می‌توانند فهم شوند؟ آن‌ها می‌توانند مُنصف باشند؟

یکجانبه‌نگری سیستماتیک و مهندسی اجتماعی

مسألۀ عدالت در سیستم‌های خودکار به شکل برجسته‌ای خود را در مراسم افتتاحیۀ کنفرانس اکتبر علوم دادۀ هاروارد (HDSC) نشان داد. جایی که «دیوید پارک»، استاد علوم کامپیوتر کلونی، اصول راهنمای مطالعۀ علوم داده در هاروارد را ترسیم کرد: مطالعۀ علوم داده باید ناظر به مسائل اخلاقی باشد که شامل محرمانه‌بودن هم می‌شود. این مطالعات نباید یکجانبه‌نگری‌های موجود را استمرار بخشند و دائمی کنند. آن‌ها باید شفاف باشند. امّا ایجاد سیستم‌های یادگیرندۀ هوش مصنوعی که این اصول را تجسّم می‌بخشند دشوار است. پیچیدگی سیستم، با بیش از هزاران متغیّر، ممکن است فهم درست را تقریباً تبدیل به امری محال کند و تبعیض‌ها و یکجانبه‌گری‌ها در مجموعه‌ داده‌هایی که یادگیری هوش مصنوعی بر آن‌ها ابتناء دارد، به سادگی تقویت می‌شوند.

دلایل زیادی برای اینکه افراد بخواهند به «زیر روکش هوش مصنوعی نگاهی بیندازد» و دریابند چگونه سیستم تصمیم خاصی را اتخاذ می‌کند، وجود دارد. دلایلی از قبیل ارزیابی علّت شکل‌گیری خروجی‌های یکجانبه‌نگرانه، آزمایش‌های ایمنی قبل از راه‌اندازی سیستم‌ها در بیمارستان و یا میزان پاسخ‌گویی سیستم پس از تصادف با یک ماشین خودران.

آنچه دقیقاً روشن نیست میزان سختی و پیچیدگی چنین پژوهش و تحقیقی است. «فینال دوشی-والز»، استادیار علوم کامپیوتر، نمودار درختی یک تصمیم نسبتاً ساده، با عمق چهار سطحی، را که با تکیه بر پنج ورودی به پرسش‌هایی پاسخ می‌داد روی پردۀ نمایش قرار داد. اگر این فرآیند به درستی اجرا می‌شد، دستورالعمل نهایی بلند کردن دست چپ بود. تعداد اندکی از حضّار کنفرانس قادر به همراهی کردن با مراحل مذکور بودند. سپس او نمودار درختی تصمیم‌گیری بسیار پیچیده‌تری، با عمق 25 سطحی، را نشان داد؛ با پنج پارامتر جدید که مسیر نمودارهای درختی به پاسخ صحیح را مشخص می‌کرد- یک کار ساده برای کامپیوتر. امّا زمانی که او از مخاطبین پرسید آیا کسی می‌توان با کلمات شرح دهد که چرا چنین تصمیمی گرفته شده است هیچ کس پاسخ نداد. حتّی زمانی که مسیر درست به یک تصمیم پررنگ شد، توصیف تأثیرات پیچیدۀ تعاملات ورودی‌ها بر خروجی- با ادبیات یک فرد ناآشنا با علوم کامپیوتر- بسیار دشوار است. این تنها در مورد مدل‌های بسیار ساده مانند نمودار درختی تصمیم‌گیری صدق می‌کند، نه در مورد معماری‌های مدرن عمیق با ملیون‌ها پارامتر. ایجاد تکنیک‌هایی برای به دست آوردن توضیحاتی از مدل‌های دلبخواهی- یعنی سیستم‌های قابل طیف‌بندی شدن با تعداد دلبخواه از متغیّرها، وظایف و خروجی‌ها- موضوع تحقیقات او در آزمایشگاهش می‌باشد.

«سینتیا دِوُرک»، استاد علوم کامپیوتر مک‌کی در کنفرانس مذکور ضمن صحبت از عدالت الگوریتمی توضیح داد که یکجانبه‌نگری مجموعه مسائل دیگری هم را دارد. مثلاً در هر مکانی که تنوّع جمعیتی وجود دارد (مثلاً از نظر قومیّت، دین و نژاد)، الگوریتمی که صلاحیت اخذ وام را بررسی می‌کند باید با هر گروه به شیوۀ یکسان برخورد نماید. اما در سیستم‌های «یادگیری ماشین»، الگوریتم (فرآیند گام به گام حل یک مسأله) تنها بخشی از یک سیستم را تشکیل می‌دهد. بخش دیگر داده‌ها هستند. در یک سیستم هوش مصنوعی که به طور خودکار در باب پرداخت وام تصمیم می‌گیرد، بخش الگوریتمی می‌تواند در رابطه با هر گروه کاملاً بدون یکجانبه‌نگری و منصفانه باشد. اما پس از اینکه الگوریتم از داده‌ها چیزهایی را آموخت ممکن است نتیجۀ کلّی ناعادلانه باشد. دِوُرک توضیح می‌دهد که «کامپیوترها به واقعیت‌های زمینه‌ای دسترسی [6] ندارند». اگر در داده‌هایی که برای تصمیم‌گیری استفاده می‌شود یکجانبه‌نگری وجود داشته باشد، تصمیم هم ممکن است یکجانبه باشد.

راه‌هایی برای مدیریت این مسأله وجود دارد. یک راه انتخاب دقیق خواص متغیّرهایی است که الگوریتم اجازۀ بررسی آن‌ها را دارد (زیپ‌کدها، که به عنوان پروکسی‌های رِیس هم شناخته می‌شوند، معمولا حذف می‌شوند). با وجود این یکجانبه‌نگری باز هم راهی برای برگشت دارد و می‌تواند از طریق همبستگی با دیگر متغیّرهای مورد استفادۀ الگوریتم دوباره ظاهر شود. مانند نام‌های خانوادگی که با داده‌های جغرافیایی سرشماری ترکیب می‌شود.

دِوُرک بیان می‌کند یکجانبه‌نگری علیه «گروه‌ها» غالباً از طریق طراحی الگوریتم‌های کوچک قابل اداره است، امّا اطمینان از برقراری عدالت نسبت به «افراد» بسیار دشوارتر است. زیرا هر تصمیم الگوریتمی خطی را ترسیم می‌کند و چنانکه دِوُرک می‌گوید همواره دو فرد از دو گروه متفاوت وجود دارند که به خط مذکور نزدیک‌اند. آن‌ها از همه جهت به هم شبیه هستند و هر کدامشان در یک طرف خطر قرار دارد و سرانجام تنها به یکی از آن‌ها وام تعلق می‌گیرد.

در برخی موارد تصحیح یکجانبه‌نگری از طریق طراحی سیستم رویکردی ناقص است. سیستم استخدامی طراحی شده توسط «ییلینگ چی»، استاد علوم کامپیوتر مک‌کی و «لیلی هیو»، دانشجوی تحصیلات تکمیلی، را در نظر بگیرید. این سیستم برای حذف تبعیض و یکجانبه نگری علیه آفریقایی- آمریکایی ها که به لحاظ تاریخی محروم بوده اند طراحی‌شده است. چنانکه که هیو مطرح می کند: الگوریتم ها که ابزارهایی کاملا بهینه شده هستند، می توانند چیزهایی را به ارث ببرند، درونی کنند، بازتولید نمایند و یا نابرابری ها را تشدید کنند. مثلا در بازار کار نوعی نابرابری وجود دارد که بدون دخالت فناوری «یادگیری ماشین» استمرار یافته است، در اینجا ماشین این نابرابری ها را تثبیت می‌کند. پاسخ آن‌ها، تفکر در مورد عدالتِ الگوریتمی را در سطحی فراتر از علوم کامپیوتر و ضمن یک نگرش وسیع میان‌رشته‌ای و سیستمی قرار داده. آن‌ها برای فهم نابرابری در بازار کار از ابزارهای اقتصادی و جامعه‌شناختی استفاده می‌کنند.

چن در حوزۀ محاسبۀ اجتماعی کار می‌کند، شاخه‌ای از علوم داده که بر تأثیر رفتار انسانی بر ورودی‌های الگوریتم‌ها تأکید می‌کند. انسان‌ها «به دنبال منفعت شخصی، مستقل، در معرض خطا می‌باشند و به اندازۀ کافی قابل پیشبینی» نیستند تا تحت هر شرایطی تحقق عدالت را تضمین کنند. به همین دلیل چِن به این نکته فکر می‌کند که چگونه می‌توان یکجانبه‌نگری را از داده‌های آموزشی- اطلاعات جهان واقعی و مورد استفادۀ یک الگوریتم- خارج کرد.

او و هیو بر مسألۀ فعالیت‌های ایجابی در فرآیند استخدام تمرکز کردند. یک راه حل ساده برای خنثی کردن محرومیت تاریخی یک گروه اقلیت این است که- با فرض یکسان بودن دیگر شرایط- در تصمیمات ناظر به استخدام از آن گروه طرفداری کنیم (این خود ممکن است نسبت به گروه اکثریت غیرمنصفانه به نظر برسد، امّا مادامی که عدالت در استخدام حاصل شود قابل قبول است). چن و هیو در مرحلۀ بعد عنصر انسانی را بررسی کردند. توجه داشته باشید که بسیاری از اعضای گروه‌های اقلیّت به دانشگاه نمی‌روند، با این استدلال «که دانشگاه گران است و به دلیل تبعیض، اگر هم مدرکی بگیرم باز هم احتمال به دست آوردن یک شغل خوب پایین است». در ضمن کارفرمایان نیز ممکن است اعتقاد داشته باشند «اعضای گروه‌های اقلیّت تحصیلات کمتری دارند و به دلیل سخت‌کوشی کم، خوب عمل نمی‌کنند». نکتۀ چن و هیو این است که بنا بر بی‌عدالتی موجود، تصمیم یک عضو گروه اقلیّت برای نرفتن به دانشگاه باز هم عقلانی است. این تصمیم تصوّرات قبلی کارفرما در مورد کل گروه را تقویت می‌کند. باز کردن این مدل تأثیرات بازخورد دشوار نیست. این دقیقاً همان نوع داده‌هایی است که یک الگوریتم، با توجّه به استخدام‌های موفق گذشته و مرتبط کردن آن‌ها با مدرک دانشگاهی، تقویت می‌کند.

پاسخی که چن و هیو پیشنهاد می‌کنند صرفاً مبتنی بر ریاضیات نیست، بلکه این مهندسی اجتماعی است که از یک الگوریتم برای تغییر واقعیت‌های زمینه‌ای استفاده می‌کنند. پاسخ آن‌ها تصدیق‌کنندۀ این امر است که خنثی کردن یکجانبه‌نگری در اطلاعات تا چه اندازه دشوار است. پیشنهاد پژوهشگران ایجاد یک بازار کار موقتی است. چن بیان می‌‌کند این بازار را به عنوان یک دورۀ کارآموزی تصور کنید که در آن هر متقاضی باید دو سال پیش از استخدام دائمی، نقش ایفاء کند. ورود به استخر کارآموزی می‌بایست مقیّد به یک «قید عادلانۀ» ساده باشد، یعنی الگوریتمی که طبق آن کارفرما باید از میان «اعداد نمایای» گروه‌های اقلیت و اکثریت، دست به انتخاب بزند. در پایان دورۀ کارآموزی، استخدام از استخر کارآموزان بدون توجه به عضویت گروهی، صرفاً باید مبتنی بر داده‌های مربوط به عملکرد باشد. چن توضیح می‌دهد، از آنجا که گروه‌ها در سطح جمعیت‌های بزرگ به یک اندازه مستعد هستند، دو گروه سرانجام به برابری می‌رسند.

هیو توضیح می‌دهد «چیزی که این مقاله با آن سر جنگ دارد، این تصوّرِ- شایع در میان جامعۀ متخصصان هوش مصنوعی و یادگیری ماشین- است که هر چیزی در نهایت مسأله‌ای در مورد بهینگی، پیش‌بینی و یا طبقه‌بندی است. زمانی که شما اینچنین عمل می‌کنید- اگر بر اساس شیوۀ استاندارد یادگیری ماشین عمل کنید- نابرابری را تشدید می‌کنید».

هیو سال گذشته در کلاس گروسز با عنوان هوش مصنوعی و اخلاق به عنوان مدرس همکار حضور داشت (با مدرس همکار فلسفه یعنی جفری برندز به طور مشترک تدریس می‌کرد). او می‌گوید مردم باید دریابند «ساخت فناوری‌ها و شیوه‌ای که آن‌ها را به اجرا در می‌آوریم خود کنش‌هایی سیاسی هستند. آن‌ها در خلأ- و به عنوان ابزارهای که گاهی خوب و گاهی بد هستند- وجود ندارند. به نظر من این نوع تفکر در باب فناوری واقعاً خام است».

هیو تأکید می‌کند خواه فناوری بر اساس قطعات ویدئویی امکان تشخیص چهرۀ افراد مظنون را فراهم کند و خواه آموزش متناسب با سبک‌های متفاوت یادگیری و یا توصیه‌های طبّی را ارائه نماید «آنچه می‌بایست به آن بیندیشیم این است که فناوری‌ها چگونه ارزش‌ها و مفروضات خاصی را تعبیه می‌کنند. اولین گام روشن‌گری است: اینکه تصور که پرسش‌هایی اخلاقی و پرسش‌هایی نامرتبط با اخلاق وجود دارند صحیح نیست، بلکه در هر چیزی که طراحی می‌کنیم، پرسش‌های هنجاری مطرح می‌شوند، در هر مرحله از مسیر». وارد کردن این آگاهی به کارهای کلاسی برای اطمینان از اینکه «جهان ساخته‌شده با فناوری بسیار گسترده، همان جهانی است که می‌خواهیم در آن زندگی کنیم» امری حیاتی است.

ترجمه: صالح کریمی مهرآبادی

نویسنده: جان شاو [1]

[1]- John Shaw

[2]- machine learning

[3]- Knowledge base

[4]- او اکنون پژوهش‌گر ارشد بخش پژوهش مایکروسافت است.

[5]- مسألۀ واگن برقی یک آزمایش فکری در حوزۀ اخلاق است. طبق یک نسخه از آن، شما نظاره‌گر حرکت یک واگن برقی به سمت پنج انسان دست و پا بسته بر روی ریل هستید. در مسیر انحرافی ریل نیز یک نفر ایستاده است. شما میان دو کار مخیّرید: الف- بگذارید قطار به مسیر خود ادامه داده و پنج فرد بی گناه دست و پا بسته را از بین ببرد. ب- دستگیرۀ تغییر ریل را بکشید و قطار را به سمت یک نفر هدایت کرده و موجب از بین رفتن او شوید.

[6]- ground truth

مرتبط‌ها

راهکارهای تضعیف قدرت روسیه

قدرت نرم قطر با استفاده از ابزار اسلام‌گرایی

ترامپ: بزرگ‌ترین مشکل ناتو

پیامدهای انفجار در بندر فُجَیره امارات

معامله‌ای پس از یک قرن مبارزه

ترکیه، اخوان المسلمین و دولت ترامپ