دیدبان؛ در هجدهم مارس 2018، حوالی ساعت ده شب، اِلین هرتسبرگ با دوچرخه در حال عبور از خیابانی در شهر تمپ آریزونا بود که با یک دستگاه اتومبیل خودران تصادف کرد و کشته شد. هرچند پُشت فرمان عاملی انسانی قرار داشت، اما یک سیستم خودکار- یعنی هوش مصنوعی- کنترل کامل ماشین را به عهده داشت. این واقعه، مانند دیگر وقایعی که به تعامل انسان و فناوریهای هوش مصنوعی ارتباط دارند، برخی پرسشهای اخلاقی و پیشاحقوقی را برمیانگیزاند. برنامهنویسان سیستم برای اینکه محصولاتشان جان انسانها را نگیرد، باید دارای چه الزامات اخلاقی خاصی باشند؟ چه کسی مسئول مرگ هرتسبرگ است؟ شخصی که در صندلی راننده نشسته بود؟ کارخانهای که قابلیتهای ماشین را تِست میکرد؟ طراحان سیستم هوش مصنوعی؟ و یا حتّی تولیدکنندگان تجهیزات حسگر نصبشده بر روی خودرو؟
«هوش مصنوعی» به سیستمهایی اشاره دارد که میتوانند علائم و نشانههایی را از محیط دریافت کنند و بر اساس ورودیهای دریافتی، اقدام به حلّ مسأله، ارزیابی ریسک، پیشبینی و عمل نمایند. پیش از دوران کامپیوترهای قدرتمند و دادههای بزرگ، چنین سیستمهایی به وسیلۀ انسانها برنامهریزی میشدند و تابع قواعد ایجادشده توسط افراد بودند. اما توسعۀ فناوری منجر به توسعۀ رویکردهای جدیدی شده است. یکی از این رویکردها، «یادگیریِ ماشین» [2] است. یادگیری ماشین اکنون فعالترین حوزۀ هوش مصنوعی است که در آن روشهای آماری، سیستم را قادر به «یادگیری» از دادهها و تصمیمگیری میکنند؛ بدون اینکه که مستقیماً برنامهنویسی شده باشند. چنین سیستمهایی یک «الگوریتم»- مجموعه مراحل حل مسأله- را با یک «پایگاه دانش» [3]- اطلاعات مورد استفادۀ الگوریتم برای ساخت مدلی از جهان- جفت میکنند.
دغدغههای اخلاقی ناشی از این پیشرفتها ناظر به کاربرد هوش مصنوعی در پهبادهای نظامی مرگبار و ریسک هوش مصنوعی در رابطه با نابودی سیستمهای مالی جهانی است. راه دور نرویم! هوش مصنوعی حتّی نگرانیهایی را در رابطه با بیکاری هم برانگیخته است. چرا که سیستمهای خودکار ممکن است جایگزین میلیونها رانندۀ حمل و نقل شوند و در نتیجه فعالیت ماشینهای سبک باربری را از دور خارج کنند. ورای این ملاحظات گستردۀ اجتماعی و سیاسی، متخصصان داده نسبت به اموری نظیر یکجانبهنگری، استفادۀ اخلاقی از فناوری و ماهیت تعامل میان سیستمهای هوش مصنوعی و انسانها نیز دغدغۀ جدی دارند؛ البته اگر بنا باشد این سیستمها در مادیترین کاربردها هم به صورت اخلاقی و درست سازمان یابند.
یک تغییر اجتماعی ظاهراً معمولی را در نظر بگیرید: به ماشینها قدرت تصمیمگیریهای معمول تأثیرگذار بر زندگی مردم داده شده است. هوش مصنوعی میتواند پرسشهای وسیع مربوط به دادهها را تجمیع و ارزیابی کند؛ دادههایی که گاهی انسانها بدون کمک گرفتن از ماشین ظرفیت تحلیل آن را ندارند. این امر هوش مصنوعی را قادر میسازد توصیههای استخدامی ارائه کرده و یا اعتبار متقاضیان وام را ظرف چند ثانیه تعیین کند و یا احتمال تخطی دوبارۀ مجرمان را پیشبینی نماید.
چنین کاربردهایی مسائل اخلاقی دردسرسازی را برمیانگیزاند. زیرا سیستمهای هوش مصنوعی میتوانند آنچه را که از دادههای جهان واقعی آموختهاند تقویت کنند، حتّی مخاطرات شناختهشدهای نظیر تبعیض جنسی یا نژادی را تشدید نمایند. همچنین امکان دارد این سیستمها در مواجهه با سناریوهای ناآشنا قضاوتهای نادرستی انجام دهند. همچنین از آنجا که بسیاری از این سیستمها به صورت «جعبه سیاه» طراحی شدهاند و دلایل نهفته در پس تصمیماتشان به راحتی برای انسانها دسترسیپذیر و قابلفهم نیست، طرح پرسش یا تحقیق در مورد آنها دشوار است.
مثالهای زیادی وجود دارد. در سال 2014 شرکت «آمازون» برای شناسایی مهندسان نرمافزاری که احتمالاً از آنها دعوت به کار میکند، یک ابزار استخدامی طراحی کرد. این سیستم به سرعت دچار یکجانبهنگری و تبعیض علیه زنان شد، به طوری که شرکت آمازون در سال 2017 آن را متوقف کرد. در سال 2016 شرکت پروپابلیکا به تحلیل یک سیستم تجاری که احتمال تخطی مجدد مجرمان را پیشبینی میکرد پرداخت. این سیستم به قُضات در ارائۀ بهتر احکام قضایی کمک میکرد. پس از انجام تحلیل، این نتیجه به دست آمد که سیستم مذکور علیه سیاهپوستان تبعیض قائل میشود. در طی دو سال گذشته، ماشینهای خودرانی که عملکردشان مبتنی بر یادگیری از دادهها و قواعد طراحیشده بوده است، در مواجهه با بازخوردهای حسی ناآشنا و یا ورودیهایی که سیستم راهنما توان تفسیر آنها را ندارد، باعث به تصادفات مرگبار شدهاند. اینکه طراحان تجاری معمولاً از ارائۀ کُدهای سیستم خود- به بهانۀ انحصاری بودن حقوق معنوی- امتناع میورزند، نوع دیگری از عدم شفافیت است که بیشتر جنبۀ قانونی دارد تا فنّی.
در این میان هیچ کدام از پیشرفتهای فناورانه به خودی خود مسألۀ اساسی و بنیادین هوش مصنوعی را حل نمیکند: حتّی الگوریتم طراحیشده بر اساس تفکر دقیق نیز تصمیماتش را بر اساس ورودیها دریافتی از جهان واقعیِ ناکامل، غیرقابلپیشبینی، خاص و ناقص سامان میدهد.
خود متخصصان علوم کامپیوتر زودتر از دیگران فهمیدند که مهندسی پس از طراحی سیستم قدرت پاسخگویی به چنین مسائلی را ندارد. پیشرفتهای وسیعی در حوزههایی نظیر حفظ محرمانۀ دادهها و شناخت دقیق محدودیتهای منصفانه بودن الگوریتمها رخ داده است. امّا با وجود این برای درک لزوم لحاظ کردن مسائل اخلاقی پیش از استقرار سیستمها، یک درس رسمی فلسفۀ اخلاق به تعداد زیادی از کلاسهای علوم کامپیوتر دانشگاه هاروارد اضافه شده است؛ درسی که توسط پژوهشگران پسادکتری و دانشجویان تحصیلات تکمیلی تدریس میشود. در میان دانشمندان علوم دادۀ دانشگاه هاروارد، بحثهای گستردهای در مورد تاثیر اجتماعی هوش مصنوعی بر جهان همچنین در جریان است. این مباحث در طرح جدید اخلاق و حکمرانیِ هوش مصنوعی که توسط مرکز برکمان کلاین، وابسته به مدرسۀ حقوق دانشگاه هارواد، با همکاری آزمایشگاه هوش مصنوعی دانشگاه ام آی تی راهاندازی شده نیز در حال پیگیری است. این توجه روزافزون به اخلاق توسط یکی از اعضای قدیمی هیئت علمی علوم کامپیوتر آغاز شده است.
از ارتباط تا همکاری و اخلاق
باربارا گروسز، صاحب کرسی استادی هیجینز در علوم طبیعی بیان میکند: «چند سال پیش، مشغول ملاقات دوستانم در ماکروسافت بودم- شوهر ایشان تولیدکنندۀ سیستمهای بصری کامپیوتر است- برای یافتن مکانی برای پیادهروی با اتومبیل حرکت کردیم. در آزادراه، جلوی ما یک ماشین حمل و نقل قرار داشت که به پشت آن یک توالت همراه نصب شده بود و یک دوچرخه نیز روی توالت همراه بسته شده بود. شوهرم به فکر فرو رفت که «سیستم من باید در مقابل چنین چیزی چه کاری انجام دهد؟ آیا باید بداند در مقابل آن چگونه واکنش نشان دهد؟» پاسخ احتمالاً منفی است. بعید است چنین تصویری بتواند بخشی از «تجربۀ» سیستم باشد- یعنی بخشی از مجموعۀ گستردۀ تصاویری باشد که با مشقّت توسط انسانها وارد سیستم شدهاند، چیزی که تشکیلدهندۀ دادههای آموزشی سیستم است. شکنندگی سیستمهای هوش مصنوعی کنونی با هوش انسانی که بسیار قوی است- و میتواند چیزی را در یک بافت یاد بگیرد و به سرعت آن را در بافت دیگری تطبیق دهد- در تقابل شدید قرار دارد. حتی اگر کامپیوترها قادر به تشخیص دوچرخهها از کامیونها و توالتهای مسافرتی باشند، باز هم در تشخیص اینکه آنها چگونه میتوانند به یکدیگر متصل شوند و در آزادراه حرکت کنند مشکل دارند؛ در زمانی که دوچرخهای که در مسیر جنبی حرکت میکند تنها 60 مایل در ساعت سرعت دارد (کشف این آسیبپذیری دادهای موضوع هوش مصنوعی و حملات تهاجمی است). به عبارت دیگر هوش مصنوعی فاقد شهود متعارف و قدرت استدلال است- ولو اینکه قادر به کشفهای شگفتانگیزی باشد که هیچ انسانی نمیتواند آنها را انجام دهد، مانند کشف روابط مرتبۀ سوم یا مراتب بالاتر در سیستمهای زیستی (یعنی در مواردی که سه یا بیش از سه متغیر باید در تعامل با یکدیگر کار کنند تا نتیجهای حاصل شود). او اینچنین جمعبندی میکند: «فکر رباتهایی که جانشین انسان میشوند را هم نکنید. ترس ما از سیستمهای زبانبسته و نادانی که مردم فکر میکنند هوشمند هستند بیش از سیستمهای هوشمندی است که محدودیتهای خود را درک میکنند».
گروسز که ابتدا در دانشگاه کرنر به تحصیل ریاضیات و سپس در برکلی به مطالعۀ علوم کامپیوتر پرداخته است، از سال 1973- یعنی از زمان استخدامش به عنوان پژوهشگر ریاضی توسط مرکز هوش مصنوعی اس آی آر اینترنشنال- بر مسائل هوش مصنوعی متمرکز بوده است. او جایزۀ «لایف اَچیومنت» انجمن زبانشناسی محاسباتی را در سال 2017 اخذ کرده است. گروسز به عنوان معمار بزرگ یکی از شاخههای هوش مصنوعی که به نحوۀ تولید و تفسیر گفتار و نوشتار توسط کامپیوترها میپردازد. کامپیوترهایی که میتوانند بسیاری از روشهایی را که سیستمهای دارای ظرفیت زبانی مانند Google ،Alexa و Siri از به کارگیری آنها قاصرند به سرعت به کار گیرند. مثلا سیستمهای مذکور میتوانند نشان دهند نزدیکترین اورژانس کجاست، ولی این راهنمایی برای شخصی که قوزک پایش شکسته چندان مفید نیست.
کارهای گروسز در حوزۀ ارتباط هوش مصنوعی و زبان، پیش از شکلگیری «رویکرد مبتنی بر داده» به زبان طبیعی مطرح شده است و به همین دلیل او «رویکردی مبتنی بر مدل» را بسط داده که در آن گفتگوی انسانی به نحوی بازنمود میشود که کامپیوترها قادر به فهم آن هستند. این فعالیتها برای حوزۀ مورد پژوهش او بسیار ارزشمند است، زیرا باعث شده گروسز به طور عمیقی بر ماهیت تعامل انسان و کامپیوتر بیندیشد. همچنین این فعالیت بعدها- با توجه به آیندهای که در آن کامپیوترها و انسانها ممکن است با یکدیگر کار کنند- ارزشمند خواهند بود؛ زیرا در در ارائۀ مدلهای نظریِ سیستمهای هوش مصنوعی برای همکاری تیمی با انسانها به کار میآیند.
کارهای او در رابطه با مدلهای محاسباتی گفتگو بسیار فراتر از برنامهنویسی قواعد دستوری است. فهم قصد گوینده برای مشخص کردن ساختار گفتگو و به تبع کشف معنای یک گفتار انسانی یکی از راهبردهای کلیدی کشفشده توسط او بود. گروسز بیان میکند گفتگوی واقعی پر از انحراف از موضوع و تغییر نقطۀ تمرکز است. به عنوان یک مثال قابل توجه او به ضبط گفتگوی برنامهریزی نشدهای اقدام نموده است که که در آن شخصی تلاش میکند از طریق یک ماشین تحریرِ دورکار به فرد دیگری بگوید چگونه یک کمپرسور هوا را سر هم کند (در اثناء مکالمه یکی از طرفین ضمیر «آن» را حدود نیم ساعت برای اشاره به چیزی که قبلاً مورد اشاره قرار نگرفته به کار میبرد و هر دو طرف دقیقاً میدانند چه چیزی مراد است). او توضیح میدهد که توجه به زیر و بم صدا کلید فهم برخی عبارات مبهم است. مثلا تعبیر «تو یک شاهزادۀ واقعی هستی» ممکن است به معنای تحت اللفظی و یا با نیش و کنایه به کار رود و بنابراین باید شیوۀ فهم آن را به کامپیوتر آموزش داد.
از این پژوهش میانرشتهای اصول عامی در باب ماهیت تعامل میان انسان و ماشین به دست میآید. مثلاً گروسز به همراه یک دانشجوی دورۀ دکتری به نام اک کامار [4] رای هدایت تبادل اطلاعات میان انسان و کامپیوتر نظریهای را در باب «مدیریت وقفه و تعلیق» بسط دادهاند؛ با این هدف که ارتباط میان آنها کاراتر شود. در طول یک دورۀ طولانی کاری او به این باور رسیده که بهترین استفاده از هوش مصنوعی از ترکیب سیستمهای هوش مصنوعی با تیمهای انسانی به دست میآید. در تصویر گروسز از آینده سرعت و توان آماری کامپیوترهای هوشمند با استعدادهای درونی انسان ترکیب میشوند، نه اینکه ماشینها و انسانها رو در روی هم قرار بگیرند- در توصیفات معمول سیستمهای هوش مصنوعی، قهرمانان جهان را در بازی شطرنج یا گو (Go) شکست میدهند و یا سیستمهای مذکور جایگزین افراد در محل کار میشوند. این رویکرد ترکیبیِ گروسز خط پیشرو در زمینۀ سیستمهای هوش مصنوعی است.
گروسز شروع به آزمایش سیستمهای هوش مصنوعی تیم-پایه در حیطۀ مراقبتهای بهداشتی کرد؛ او به همراه یک پزشک اطفال از دانشگاه استانفورد پروژهای را آغاز کردند که عهدهدار ساماندهی مراقبت از کودکان دارای بیماریهای نادر بود؛ کودکانی که علاوه بر والدین توسط بسیاری از دیگر افراد نظیر متخصصان طبی، کمکهای خانگی، فیزیوتراپها و معلمان مدرسه نیز پرستاری میشدند. گروسز بیان میکند فرایند مراقبت سالها طول میکشد و «من با هیچ انسانی برخورد نکردهام که بتواند به طور همزمان پیگیر وضعیت پانزده نفر و همۀ کارهایی که در طول دورههای طولانی انجام میدهند باشد».
گروسز به همراه «اُرفه امیر»، دانشجوی دکتری خود (که اکنون عضو هیئت علمی تکنیون است)، شروع به تحلیل نحوۀ عملکرد تیمهای مراقبت از بیمار نمودند. آنها برای هدایت تعاملات افراد انسانی و سیستمهای هوش مصنوعی طراحیشده برای سازماندهی اطلاعات مربوط به مراقبت کودکان، نظریهای را ارائه کردند. گروسز در اینجا نیز، مانند کارهایی که در مورد زبان انجام انجام دادهبود، با اصول عام و کلی آغاز کرد. «به لحاظ نظری هدف ما فهم بهتر نحوۀ به مشارکت گذاشتن اطلاعات» در فضای تیمی چندعضوی «و سپس ساختن ابزارهایی برای والدین و پزشکان است».
یکی از انگارههای کلیدی که او و همکارش «ساریت کروز»، استاد دانشگاه بارایلان، بسط دادند این بود که اعضای تیم نباید عهدهدار وظیفهای شوند که فاقد دانش پیشنیاز و یا توان انجام آن هستند. این خصیصۀ یک کار تیمی خوب انسانی است و همچنین خصیصۀ کلیدی «سیستمهای هوشمندی است که حدود خود را میدانند»، «مسألۀ هوش مصنوعی و دیگر فناوریهایی جهان این است که نمیتوانند کاری را که به آنها محوّل شده انجام دهند». رباتهای چَتکنندۀ مربوط به خدمات آنلاین مشتری که از طریق پیام متنیِ «از فهم خواستۀ شما ناتوانیم»، واکنش نشان میدهند نمونهای از این قبیل هستند. او اظهار میکند سیستمهای مذکور میتوانستند جور دیگری طراحی شوند، طوری که اولین تعاملات با یک فرد انسانی باشد که از طریق یک کامپیوتر تقویت شده است، آن شخص میتواند با مشتری وارد رابطه شود و به انجام کاری بپردازد که کامپیوتر در مورد آن دچار بدفهمی شده است. در این هنگام سیستم شخص را قادر به ارائۀ پاسخ سریعتر میکند. رعایت نکردن اصول طراحی سیستمهای هوشمند، موجب میشود برخی از سیستم توقع کارهایی را داشته باشند که توان انجام آن را ندارد و یا سیستمها به طرق خام و نامناسب مورد استفاده قرار میگیرند.
رویکرد میانرشتهای قوی گروسز به پژوهش، که از زبانشناسی، فلسفه، روانشناسی، اقتصاد و حتّی اندکی مردمشناسی و جامعهشناسی نیز متأثر است، باعث شده او در مورد اینکه کدام رشته به نحو بهتری آموزش طراحی سیستمهای هوش مصنوعی را محقق میکند تامل کند. هرچند او از سال 1987 تا 2001، در دورانی که کاربرد هوش مصنوعی موضوعی صرفاً نظری بود، به تدریس دورۀ مقدماتی هوش مصنوعی مشغول بوده است. امّا در در سالهای 2013 و 2014 هنگامی که او مجددا این دورۀ درسی را آغاز کرد جهان کاملا تغییر کرده بود و سیستمهای عملیاتی هوش مصنوعی کاملاً مستقر شده بودند. گروسز دریافت که زمینۀ خوبی برای تدریس در حوزۀ اثر متقابل چالشهای اخلاقی ناشی از هوش مصنوعی و طراحی سیستمهای خوب وجود دارد.
این امر منجر به یکی از مهمترین مساعدتهای گروسز به تدریس علوم کامپیوتر در دانشگاه هاروارد شد. اینکه اخلاق باید به طور سفت و سخت به هر دورۀ درسی اضافه شود. در پاییز 2015 او یک دورۀ درسی جدید را معرفی کرد: «طراحی سیستمهای هوشمند و چالشهای اخلاقی». در سال بعد، 140 نفر متقاضی کلاسی با گنجایش تعریفشدۀ 25 نفر بودند و این امر موجب شد او دیگر همکارانش را به گنجاندن تدریس اخلاق در دورۀ درسی خود، تشویق کند. از آنجا که آنها فاقد زمینۀ کافی در تدریس اخلاق بودند، او با «آلیسون سیمونز» استاد فلسفۀ ولکات که سرپرستی گروه فلسفه را نیز به عهده داشت، شروع به همکاری کرد. آن دو با یکدیگر، به همراه همکارانشان در رشتههای مربوطه مشغول فعالیت شدند؛ همکارانی که شامل اساتید علوم کامپیوتری بودند که مشتاق گنجاندن اخلاق به عنوان بخشی از برنامۀ درسی خود و همچنین آموزش داده شدن در زمینۀ اخلاق توسط دانشجویان تحصیلات تکمیلی فلسفه بودند.
او بیان میکند هدف طرح «گنجاندن اخلاقِ علوم کامپیوتر» (embedded ethiCs)، این است که به کسانی که سیستمهای هوش مصنوعی آینده را میسازند بیاموزد چگونه پرسشهای اخلاقی را بشناسند و در مورد آنها تأمل کنند (اکنون در میان دانشجویان کارشناسی، دانشجویان علوم کامپیوتر از نظر تراکم در ردۀ دوم دانشگاه هاروارد قرار دارند و اگر دانشجویان رشتههای مرتبط نظیر آمار و ریاضیات کاربردی را هم در نظر بگیریم، مجموعۀ ثبت نامیهای این رشتهها بسیار بیشتر از اقتصاد که در جایگاه اول قرار دارد میشود). او بیان میکند: «بسیاری از این چالشهای اخلاقی یک پاسخ واحد صحیح ندارند، بنابراین همانطور که دانشجویان مهارتهای اساسی محاسباتی و مربوط به کامپیوتر را میآموزند، بنا دارم به آنها مهارتهای اساسی استدلال اخلاقی را بیاموزم». در بهار 2017، چهار کلاس علوم کامپیوتر، شامل مباحث اخلاقی نیز بودند. در پاییز همان سال 5 کلاس، در بهار 2018 هشت کلاس و اکنون در مجموع 18 کلاس علوم کامپیوتر با مباحث اخلاقی وجود دارد؛ کلاسهایی که موضوعاتی از برنامهریزی سیستمها را به یادگیری ماشین، تأثیر آن بر محرمانه بودن اطلاعات، عدالت، شبکههای اجتماعی و مسألۀ سانسور، رباتها و مسألۀ کار و تعامل میان انسان و کامپیوتر پیوند میدهد.
پیمایش دانشجویان این کلاسها نشان میدهد که بین80 تا 90 درصد آنها از گنجاندن آموزش اخلاق اعلام رضایت کردهاند و میزان بیشتری از آن را مطالبه میکنند. گروسز بیان میکند «آرزوی من این است که هر کلاس علوم کامپیوتر- شاید تنها با یک یا دو استثناء- بخشی از درس را به اخلاق اختصاص دهد» به نحوی که همۀ کسانی که در حوزهای تخصصی مشغول به کار هستند درک نمایند «اخلاق در همه جا به درد میخورد نه تنها در هوش مصنوعی». او و همکارانش میخواهند دانشجویان یاد بگیرند برای درگیری با مشکلاتی نظیر تبعیض و یکسویهنگری و ضرورت تفسیرپذیری انسانی در هوش مصنوعی، آنها باید سیستمهایی را با اصول اخلاقیای که از ابتدا در ذهنشان هست بسازند.
تبدیل شدن به رانندۀ بوستون
«جاناتان زیترین»، استاد کرسی بمیس در حقوق بین الملل و استاد علوم کامپیوتر و همچنین رئیس هیئت علمی اینترنت و جامعه، وابسته به مرکز برکمان کلاین، از منظر پرسشهای پیشاحقوقی به دنبال تحقق این هدف بوده است. در بهار 2015 او به صورت مشترک با «جوی ایتو»، مدیر آزمایشگاه رسانۀ ام آی تی، کلاسی را برگزار کردند و در آن به کاوش پیرامون اینکه چگونه فناوریهای هوش مصنوعی میبایست منافع عمومی را لحاظ کنند پرداختند. وسائل نقلیۀ خودکار یک مطالعۀ موردی برجسته است که دانشجویان را مجبور به مواجهه با پیچیدگیهای پیش رو میکند، پیچیدگیهایی فراتر از مسألۀ واگن برقی [5] که در آن ناچارید تصمیم بگیرید چه کسی بمیرد و چه کسی نجات بیابد.
زیترین توضیح میدهد زمانی که یک ماشین واقعاً خودکار است «هنگامی که برای اشخاص قرار توقیف صادر میشود، این یعنی دفعۀ بعدی که آنها وارد یک اتومبیل خودکار میشوند، درها قفل میشوند و ماشین آنها را به نزدیکترین ایستگاه پلیس میرساند». اگر کسی در ماشین اعلام وضعیت اورژانسی کند چه میشود؟ آیا ماشین میتواند با سرعت هفتاد مایل در ساعت آنها را از مسیر خیابانهای شهر به بیمارستان برساند، در حالی که همۀ اتومبیلهای دیگر در حال حرکت هستند.
دانشجویان کلاس زیترین میکردند از پیش میدانند بحث در باب وسائل نقلیۀ خودکار چگونه حل و فصل خواهد شد. اما زمانی که او یک سوال بسیار ساده، یعنی اینکه «آیا راننده باید قادر به آموزش دادن ماشین برای حرکت با سرعت هشتاد مایل باشد؟» را مطرح کرد، آنها با یک دوراهی اخلاقی مواجه شدند؟ اگر پاسخ مثبت باشد و ماشین در سرعت مذکور دچار تصادف شود، آیا راننده مسئول است؟ آیا سازندۀ ماشین به دلیل تعبیۀ قابلیت سرعت گرفتن ماشین نیز مسئولیت دارد؟ زیترین توجّه میدهد که «مردم همیشه میتوانند هنگام رانندگی سرعت خود را افزایش دهند، امّا ما با توجه به دانستن این نکته که در چنین مواردی کاری از دست ما برنمیآید، به طور ضمنی آسودهخاطر هستیم». «نکتۀ اولیۀ قابلفهم [در باب ماشینهای خودکار] این است که اوه! رانندهای وجود ندارد و ما نمیتوانیم یک موجود غیرجاندار را مقصّر چیزی بدانیم. گویی مسئولیت اندکی وجود دارد»، در حالی که فی الواقع «مسئولیت بسیار گسترده و زیادی وجود دارد». تولیدکنندگان، طراحان هوش مصنوعی، سیاستگذاران و راننده، همگی میتوانند مسئول باشند.
زیترین توضیح میدهد اگر یک وسیلۀ نقلیه با سیستم هوش مصنوعی، با توجه به چیزهایی که از تجربیات خود در جاده میآموزد، به صورت دینامیک رفتارش را تغییر دهد، وضعیت پیچیدهتر میشود. «ممکن است اگر به اندازۀ کافی در بوستون رانندگی کند، تبدیل به یک رانندۀ بوستون شود». این در مورد بسیاری از سیستمهای یادگیری هوشمند صدق میکند و در این زمینه پرسشهای حقوقی همچنان بیپاسخ باقی میمانند. او اظهار میکند شاید اگر طراح هوش مصنوعی و یا دیگر مشارکتکنندگان، سیستم یادگیرندۀ خاصی را طراحی کنند که در آن رفتارها همیشه قابل پیشبینی نباشد، کاربران این سیستم که فاقد قطعیت است، تا حدّی مسئول باشند.
زیترین چنین ادامه میدهد «این موضوع ترکیبی از پژوهشهای میانرشتهای است». در مرکز برکمان کلاین و آزمایشگاه رسانۀ ام آی تی، او و همکارانش گروهی را با نام «اَسمبلی» ایجاد کردهاند که تولیدکنندگان نرمافزار در دیگر کمپانیهای را در طول چند ماه، و ضمن یک فرصت مطالعاتی، جمع میکرد؛ به این منظور که آنها با دانشجویان و با یکدیگر بر روی برخی معمّاهای مربوط به هوش مصنوعی و دیگر حوزههای علوم داده کار کنند. «قراردادن آموزش اخلاق بخشی از تلاشی گستردهتر در جهت زمینهسازی برای مواجهۀ دانشجویان سراسر دانشگاه با یکدیگر است. این امر موجب میشود که دانشجویان با تکیه بر مطالب تخصصی که در دانشکدههای خود آموختهاند، به صورت تیمی در مورد مسائل اخلاقی کار کنند».
«به نظر من این بخشی از چیزی است که تدریسها و تحقیقات باربارا [گروسز] را به این اندازه تأثیرگذار کرده» و به تبع همیشگی کرده است. آموزۀ او این نیست که چگونه وارد یک سیستم کامپیوتری یا قسمتی از نرمافزار شویم تا آن را درست کنیم. درس او تأمّل در باب گسترۀ وسیعتری در باب نحوۀ تعامل مردم و فناوریهاست. آنها میتوانند مسئول باشند؟ آنها میتوانند فهم شوند؟ آنها میتوانند مُنصف باشند؟
یکجانبهنگری سیستماتیک و مهندسی اجتماعی
مسألۀ عدالت در سیستمهای خودکار به شکل برجستهای خود را در مراسم افتتاحیۀ کنفرانس اکتبر علوم دادۀ هاروارد (HDSC) نشان داد. جایی که «دیوید پارک»، استاد علوم کامپیوتر کلونی، اصول راهنمای مطالعۀ علوم داده در هاروارد را ترسیم کرد: مطالعۀ علوم داده باید ناظر به مسائل اخلاقی باشد که شامل محرمانهبودن هم میشود. این مطالعات نباید یکجانبهنگریهای موجود را استمرار بخشند و دائمی کنند. آنها باید شفاف باشند. امّا ایجاد سیستمهای یادگیرندۀ هوش مصنوعی که این اصول را تجسّم میبخشند دشوار است. پیچیدگی سیستم، با بیش از هزاران متغیّر، ممکن است فهم درست را تقریباً تبدیل به امری محال کند و تبعیضها و یکجانبهگریها در مجموعه دادههایی که یادگیری هوش مصنوعی بر آنها ابتناء دارد، به سادگی تقویت میشوند.
دلایل زیادی برای اینکه افراد بخواهند به «زیر روکش هوش مصنوعی نگاهی بیندازد» و دریابند چگونه سیستم تصمیم خاصی را اتخاذ میکند، وجود دارد. دلایلی از قبیل ارزیابی علّت شکلگیری خروجیهای یکجانبهنگرانه، آزمایشهای ایمنی قبل از راهاندازی سیستمها در بیمارستان و یا میزان پاسخگویی سیستم پس از تصادف با یک ماشین خودران.
آنچه دقیقاً روشن نیست میزان سختی و پیچیدگی چنین پژوهش و تحقیقی است. «فینال دوشی-والز»، استادیار علوم کامپیوتر، نمودار درختی یک تصمیم نسبتاً ساده، با عمق چهار سطحی، را که با تکیه بر پنج ورودی به پرسشهایی پاسخ میداد روی پردۀ نمایش قرار داد. اگر این فرآیند به درستی اجرا میشد، دستورالعمل نهایی بلند کردن دست چپ بود. تعداد اندکی از حضّار کنفرانس قادر به همراهی کردن با مراحل مذکور بودند. سپس او نمودار درختی تصمیمگیری بسیار پیچیدهتری، با عمق 25 سطحی، را نشان داد؛ با پنج پارامتر جدید که مسیر نمودارهای درختی به پاسخ صحیح را مشخص میکرد- یک کار ساده برای کامپیوتر. امّا زمانی که او از مخاطبین پرسید آیا کسی میتوان با کلمات شرح دهد که چرا چنین تصمیمی گرفته شده است هیچ کس پاسخ نداد. حتّی زمانی که مسیر درست به یک تصمیم پررنگ شد، توصیف تأثیرات پیچیدۀ تعاملات ورودیها بر خروجی- با ادبیات یک فرد ناآشنا با علوم کامپیوتر- بسیار دشوار است. این تنها در مورد مدلهای بسیار ساده مانند نمودار درختی تصمیمگیری صدق میکند، نه در مورد معماریهای مدرن عمیق با ملیونها پارامتر. ایجاد تکنیکهایی برای به دست آوردن توضیحاتی از مدلهای دلبخواهی- یعنی سیستمهای قابل طیفبندی شدن با تعداد دلبخواه از متغیّرها، وظایف و خروجیها- موضوع تحقیقات او در آزمایشگاهش میباشد.
«سینتیا دِوُرک»، استاد علوم کامپیوتر مککی در کنفرانس مذکور ضمن صحبت از عدالت الگوریتمی توضیح داد که یکجانبهنگری مجموعه مسائل دیگری هم را دارد. مثلاً در هر مکانی که تنوّع جمعیتی وجود دارد (مثلاً از نظر قومیّت، دین و نژاد)، الگوریتمی که صلاحیت اخذ وام را بررسی میکند باید با هر گروه به شیوۀ یکسان برخورد نماید. اما در سیستمهای «یادگیری ماشین»، الگوریتم (فرآیند گام به گام حل یک مسأله) تنها بخشی از یک سیستم را تشکیل میدهد. بخش دیگر دادهها هستند. در یک سیستم هوش مصنوعی که به طور خودکار در باب پرداخت وام تصمیم میگیرد، بخش الگوریتمی میتواند در رابطه با هر گروه کاملاً بدون یکجانبهنگری و منصفانه باشد. اما پس از اینکه الگوریتم از دادهها چیزهایی را آموخت ممکن است نتیجۀ کلّی ناعادلانه باشد. دِوُرک توضیح میدهد که «کامپیوترها به واقعیتهای زمینهای دسترسی [6] ندارند». اگر در دادههایی که برای تصمیمگیری استفاده میشود یکجانبهنگری وجود داشته باشد، تصمیم هم ممکن است یکجانبه باشد.
راههایی برای مدیریت این مسأله وجود دارد. یک راه انتخاب دقیق خواص متغیّرهایی است که الگوریتم اجازۀ بررسی آنها را دارد (زیپکدها، که به عنوان پروکسیهای رِیس هم شناخته میشوند، معمولا حذف میشوند). با وجود این یکجانبهنگری باز هم راهی برای برگشت دارد و میتواند از طریق همبستگی با دیگر متغیّرهای مورد استفادۀ الگوریتم دوباره ظاهر شود. مانند نامهای خانوادگی که با دادههای جغرافیایی سرشماری ترکیب میشود.
دِوُرک بیان میکند یکجانبهنگری علیه «گروهها» غالباً از طریق طراحی الگوریتمهای کوچک قابل اداره است، امّا اطمینان از برقراری عدالت نسبت به «افراد» بسیار دشوارتر است. زیرا هر تصمیم الگوریتمی خطی را ترسیم میکند و چنانکه دِوُرک میگوید همواره دو فرد از دو گروه متفاوت وجود دارند که به خط مذکور نزدیکاند. آنها از همه جهت به هم شبیه هستند و هر کدامشان در یک طرف خطر قرار دارد و سرانجام تنها به یکی از آنها وام تعلق میگیرد.
در برخی موارد تصحیح یکجانبهنگری از طریق طراحی سیستم رویکردی ناقص است. سیستم استخدامی طراحی شده توسط «ییلینگ چی»، استاد علوم کامپیوتر مککی و «لیلی هیو»، دانشجوی تحصیلات تکمیلی، را در نظر بگیرید. این سیستم برای حذف تبعیض و یکجانبه نگری علیه آفریقایی- آمریکایی ها که به لحاظ تاریخی محروم بوده اند طراحیشده است. چنانکه که هیو مطرح می کند: الگوریتم ها که ابزارهایی کاملا بهینه شده هستند، می توانند چیزهایی را به ارث ببرند، درونی کنند، بازتولید نمایند و یا نابرابری ها را تشدید کنند. مثلا در بازار کار نوعی نابرابری وجود دارد که بدون دخالت فناوری «یادگیری ماشین» استمرار یافته است، در اینجا ماشین این نابرابری ها را تثبیت میکند. پاسخ آنها، تفکر در مورد عدالتِ الگوریتمی را در سطحی فراتر از علوم کامپیوتر و ضمن یک نگرش وسیع میانرشتهای و سیستمی قرار داده. آنها برای فهم نابرابری در بازار کار از ابزارهای اقتصادی و جامعهشناختی استفاده میکنند.
چن در حوزۀ محاسبۀ اجتماعی کار میکند، شاخهای از علوم داده که بر تأثیر رفتار انسانی بر ورودیهای الگوریتمها تأکید میکند. انسانها «به دنبال منفعت شخصی، مستقل، در معرض خطا میباشند و به اندازۀ کافی قابل پیشبینی» نیستند تا تحت هر شرایطی تحقق عدالت را تضمین کنند. به همین دلیل چِن به این نکته فکر میکند که چگونه میتوان یکجانبهنگری را از دادههای آموزشی- اطلاعات جهان واقعی و مورد استفادۀ یک الگوریتم- خارج کرد.
او و هیو بر مسألۀ فعالیتهای ایجابی در فرآیند استخدام تمرکز کردند. یک راه حل ساده برای خنثی کردن محرومیت تاریخی یک گروه اقلیت این است که- با فرض یکسان بودن دیگر شرایط- در تصمیمات ناظر به استخدام از آن گروه طرفداری کنیم (این خود ممکن است نسبت به گروه اکثریت غیرمنصفانه به نظر برسد، امّا مادامی که عدالت در استخدام حاصل شود قابل قبول است). چن و هیو در مرحلۀ بعد عنصر انسانی را بررسی کردند. توجه داشته باشید که بسیاری از اعضای گروههای اقلیّت به دانشگاه نمیروند، با این استدلال «که دانشگاه گران است و به دلیل تبعیض، اگر هم مدرکی بگیرم باز هم احتمال به دست آوردن یک شغل خوب پایین است». در ضمن کارفرمایان نیز ممکن است اعتقاد داشته باشند «اعضای گروههای اقلیّت تحصیلات کمتری دارند و به دلیل سختکوشی کم، خوب عمل نمیکنند». نکتۀ چن و هیو این است که بنا بر بیعدالتی موجود، تصمیم یک عضو گروه اقلیّت برای نرفتن به دانشگاه باز هم عقلانی است. این تصمیم تصوّرات قبلی کارفرما در مورد کل گروه را تقویت میکند. باز کردن این مدل تأثیرات بازخورد دشوار نیست. این دقیقاً همان نوع دادههایی است که یک الگوریتم، با توجّه به استخدامهای موفق گذشته و مرتبط کردن آنها با مدرک دانشگاهی، تقویت میکند.
پاسخی که چن و هیو پیشنهاد میکنند صرفاً مبتنی بر ریاضیات نیست، بلکه این مهندسی اجتماعی است که از یک الگوریتم برای تغییر واقعیتهای زمینهای استفاده میکنند. پاسخ آنها تصدیقکنندۀ این امر است که خنثی کردن یکجانبهنگری در اطلاعات تا چه اندازه دشوار است. پیشنهاد پژوهشگران ایجاد یک بازار کار موقتی است. چن بیان میکند این بازار را به عنوان یک دورۀ کارآموزی تصور کنید که در آن هر متقاضی باید دو سال پیش از استخدام دائمی، نقش ایفاء کند. ورود به استخر کارآموزی میبایست مقیّد به یک «قید عادلانۀ» ساده باشد، یعنی الگوریتمی که طبق آن کارفرما باید از میان «اعداد نمایای» گروههای اقلیت و اکثریت، دست به انتخاب بزند. در پایان دورۀ کارآموزی، استخدام از استخر کارآموزان بدون توجه به عضویت گروهی، صرفاً باید مبتنی بر دادههای مربوط به عملکرد باشد. چن توضیح میدهد، از آنجا که گروهها در سطح جمعیتهای بزرگ به یک اندازه مستعد هستند، دو گروه سرانجام به برابری میرسند.
هیو توضیح میدهد «چیزی که این مقاله با آن سر جنگ دارد، این تصوّرِ- شایع در میان جامعۀ متخصصان هوش مصنوعی و یادگیری ماشین- است که هر چیزی در نهایت مسألهای در مورد بهینگی، پیشبینی و یا طبقهبندی است. زمانی که شما اینچنین عمل میکنید- اگر بر اساس شیوۀ استاندارد یادگیری ماشین عمل کنید- نابرابری را تشدید میکنید».
هیو سال گذشته در کلاس گروسز با عنوان هوش مصنوعی و اخلاق به عنوان مدرس همکار حضور داشت (با مدرس همکار فلسفه یعنی جفری برندز به طور مشترک تدریس میکرد). او میگوید مردم باید دریابند «ساخت فناوریها و شیوهای که آنها را به اجرا در میآوریم خود کنشهایی سیاسی هستند. آنها در خلأ- و به عنوان ابزارهای که گاهی خوب و گاهی بد هستند- وجود ندارند. به نظر من این نوع تفکر در باب فناوری واقعاً خام است».
هیو تأکید میکند خواه فناوری بر اساس قطعات ویدئویی امکان تشخیص چهرۀ افراد مظنون را فراهم کند و خواه آموزش متناسب با سبکهای متفاوت یادگیری و یا توصیههای طبّی را ارائه نماید «آنچه میبایست به آن بیندیشیم این است که فناوریها چگونه ارزشها و مفروضات خاصی را تعبیه میکنند. اولین گام روشنگری است: اینکه تصور که پرسشهایی اخلاقی و پرسشهایی نامرتبط با اخلاق وجود دارند صحیح نیست، بلکه در هر چیزی که طراحی میکنیم، پرسشهای هنجاری مطرح میشوند، در هر مرحله از مسیر». وارد کردن این آگاهی به کارهای کلاسی برای اطمینان از اینکه «جهان ساختهشده با فناوری بسیار گسترده، همان جهانی است که میخواهیم در آن زندگی کنیم» امری حیاتی است.
ترجمه: صالح کریمی مهرآبادی
نویسنده: جان شاو [1]
[1]- John Shaw
[2]- machine learning
[3]- Knowledge base
[4]- او اکنون پژوهشگر ارشد بخش پژوهش مایکروسافت است.
[5]- مسألۀ واگن برقی یک آزمایش فکری در حوزۀ اخلاق است. طبق یک نسخه از آن، شما نظارهگر حرکت یک واگن برقی به سمت پنج انسان دست و پا بسته بر روی ریل هستید. در مسیر انحرافی ریل نیز یک نفر ایستاده است. شما میان دو کار مخیّرید: الف- بگذارید قطار به مسیر خود ادامه داده و پنج فرد بی گناه دست و پا بسته را از بین ببرد. ب- دستگیرۀ تغییر ریل را بکشید و قطار را به سمت یک نفر هدایت کرده و موجب از بین رفتن او شوید.
[6]- ground truth