برای ساختن ماشین‌های واقعاً هوشمند، به آنها علّیّت یاد دهید

یودیا پرل (Judea Pearl)، شخصیتی پیشگام در هوش مصنوعی، بیان می‌کند که هوش مصنوعی در یک گودال به طول یک دهه، گیر افتاده است. تجویز او برای پیشرفت [هوش مصنوعی] چیست؟ اینکه به ماشین‌ها یاد دهیم تا چرایی را بفهمند.

 

 

هوش مصنوعی، بسیاری از نبوغش را به یودیا پرل مدیون است. در دهه 1980، او تلاش‌هایی را رهبری کرد که به ماشین‌ها اجازه می­داد تا به استفاده از نظریۀ احتمالات استدلال کنند. اکنون او یکی از منتقدان تند و تیز این حوزه است. در کتاب آخرش، “کتابِ چرایی: دانشی جدید در باب علیّت”، او بیان می‌کند که در واقع فهم ناقصی از ماهیت واقعیِ هوشمندی موجب عقب افتادنِ هوش مصنوعی شده‌است.

سه دهه پیش، چالش عمده در پژوهش‌های هوش مصنوعی این بود که ماشین‌ها را برنامه‌ریزی کنند تا یک علت بالقوه را به مجموعه‌ای از شرایط قابل مشاهده، مرتبط سازد. پرل متوجه شد که چگونه این کار را با طرحی به نام شبکه‌های بیزی (Bayesian networks) انجام دهد. شبکه‌های بیزی این کار را برای ماشین‌ها عملی کردند که بتوانند بگویند که [مثلاً] بیماری‌ که از آفریقا با تب و بدن-درد بازگشته است، به احتمال زیاد مالاریا دارد. در سال 2011، پرل برای کاری که انجام داده بود جایزه تورینگ، که بالاترین افتخار در علوم کامپیوتر است، را کسب کرد.

پرل می‌گوید: “امروزه نوین‌­‌ترین هوش مصنوعی صرفاً ورژن بالاتری از کارهایی است که ماشین‌ها می‌توانستند در یک نسل پیش نیز انجام دهند: پیدا کردن نظم مخفی در یک مجموعه عظیمی از داده‌ها. او اخیراً گفته، “کل دستاوردهای چشم‌گیر یادگیری عمیق، صرفاً برازش منحنی (curve fitting) است”.

اما از نظر پرل، حوزه AI در همبستگی‌های احتمالاتی فرو رفته است. این روزها، عناوین خبری، آخرین توفیقات در یادگیری ماشین (machine learning) و شبکه‌های عصبی را جار می‌زنند. ما در مورد کامپیوترهایی می‌خوانیم که می‌توانند در بازی‌های قدیمی استاد شوند و حتی رانندگی کنند. اما اینها چنگی به دل پرل نمی‌زند. همانطور که پرل می‌گوید، امروزه نوین­‌ترین هوش مصنوعی صرفاً ورژن بالاتری از کارهایی است که ماشین‌ها می‌توانستند در یک نسل پیش نیز انجام دهند: پیدا کردن نظم مخفی در یک مجموعه عظیمی از داده‌ها. او اخیراً گفته، “کل دستاوردهای چشم‌گیر یادگیری عمیق، صرفاً برازش منحنی (curve fitting) است”.

پرل که اکنون 81 ساله است، در کتاب جدیدش، ورژنی از چگونگی فکر کردن ماشین‌های هوشمند واقعی را شرح می‌دهد. او اذعان می‌کند که در واقع کلید مسئله، جایگزین کردن استدلالِ علّی (causal reasoning) بجای استدلال مبتنی بر ارتباط داده­‌ها (reasoning by association) است. یعنی در واقع ماشین‌ها بجای توانایی صرف برای ربط دادنِ تب و مالاریا به یگدیگر، نیاز به این ظرفیت استدلال دارند که بفهمند مالاریا باعث تب می‌شود. هنگامی‌که چنین چارچوب علّی برقرار شود، ماشین‌ها این امکان را پیدا می‌کنند تا سؤالات خلاف واقع (counterfactual) بپرسند– یعنی بپرسند که با فرض برخی مداخلات، ارتباطات علّی چطور تغییر می‌کنند- که پرل آن را به چشم مبنای تفکر عملی می‌نگرد. وی همچنین یک زبان رسمی پیشنهاد می‌دهد تا  این نوع از تفکر را ممکن سازد –در واقع نسخۀ قرن 21 امِ چارچوب بیزی که به ماشین‌ها اجازه تفکر احتمالاتی را داد.

پرل انتظار دارد که استدلال علّی بتواند ماشین‌ها را با هوشمندی سطح انسانی مجهز کند. او تشریح می‌کند که آنها قادر خواهند بود که به صورت مؤثرتری با انسان‌ها ارتباط برقرار کنند و حتی با تواناییِ داشتنِ اختیار و ارتکاب شرارت، به مقام و منزلتِ نهادهای اخلاقی دست یابند. مجله کوانتا در کنفرانس اخیر در سن‌دیه‌گو با پرل به گفت‌وگو نشست و در ادامه یک مصاحبه تلفنی با او داشت. نسخۀ ویرایش‌شده و فشرده این صحبت‌ها در ادامه آمده است.

 

چرا نام کتاب جدید شما “کتابِ چرایی” است؟

این کتاب، خلاصه‌ای از کاری است که من طی 25 سال در حوزه علیت انجام داده‌ام، اینکه چه معنایی در زندگی یک نفر دارد، کاربردهایش چیست و اینکه ما چگونه پاسخ سؤالاتی که ذاتاً علّی هستند را پیدا می‌کنیم. عجیب است که علم این سؤالات نادیده گرفته است. بنابراین من اینجا هستم تا این اغماض و مسامحۀ علم را جبران کنم.

 

گفتن اینکه علم علّیت را نادیده گرفته، حرف عجیبی است. آیا این دقیقاً همان چیزی نیست که پایه و اساس تمام علوم است؟

البته که هست، اما شما نمی توانید این آرمان اصیل را در معادلات علمی ببینید. زبان جبر متقارن است: اگر X اطلاعاتی درباره Y بدهد، Y نیز در مورد X اطلاعات می‌دهد. من در مورد روابط قطعی صحبت می‌کنم. هیچ راهی برای نوشتن یک حقیقت ساده در ریاضیات نیست- برای مثال، طوفانی که در پیش است باعث پایین رفتن فشارسنج می‌شود و برعکسِ آن درست نیست.

ریاضیات هنوز زبانِ نامتقارنی را توسعه نداده است که لازمۀ جلبِ فهم ما از این قضیه است که اگر X علتِ Y است، به این معنا نیست که Y نیز علت X است. من می‌دانم که جمله بدی علیه علم گفتم. و اگر چنین چیزی به مادرم می‌گفتم، او به من سیلی می‌زد.

اما علم بخشنده‌تر است: حال که ما علم حسابی برای روابط غیرمتقارن در اختیار نداریم، خود علم ما را تشویق به ساختن آن می‌کند. و این همان جایی است که ریاضیات وارد می‌شود. برای من بسیار هیجان‌انگیز بود که ببینم یک حساب ساده علیت، مسائلی را حل می‌کند که بزرگترین آماردانان زمان ما به آنها بد-تعریف یا حل‌نشدنی می‌گفتند. و همه اینها به سادگی و جالبیِ یافتنِ اثباتی در هندسۀ دبیرستان است.

 

شما چند دهه پیش با آموختنِ استدلال‌­گری به ماشین‌ها بر اساس نظریۀ احتمالات، شهرتی برای خود در AI کسب کردید. توضیح دهید که در آن زمان چه اتفاقی برای AI در حال وقوع بود.

مسائلی که در اوایل دهه 1980 ظهور یافتند، خصلتی پیش­‌بینانه یا تشخیصی داشتند. مثلاً یک پزشک به چندین نشانه از یک بیمار نگاه می‌کند و می‌خواهد احتمال اینکه این بیمار مالاریا و یا بیماری دیگری دارد را تشخیص دهد. ما می‌خواستیم سیستم های خودکار و سیستم‌های متخصص، قادر باشند که جایگزین افراد متخصص شوند، مانند یک پزشک و یا کاوشگرانِ مواد معدنی و یا دیگر متخصصان. بنابراین در آن زمان، من ایدۀ انجام این کارِ مبتنی بر نظریۀ احتمالات را ارائه دادم.

متأسفانه، محاسبات احتمال استاندارد به فضا و زمانِ نمایی احتیاج داشت. من طرحی به نام شبکه‌های بیزی ارائه دادم که زمان چندجمله‌ای (polynomial time) نیاز داشت که بسیار واضح هم بود.

 

با این حال در کتاب جدیدتان، شما خودتان را یکی از ترک‌کنندگان جامعه هوش مصنوعی امروز معرفی می‌کنید. این به چه معناست؟

به این معناست که همین‌که ابزاری ارائه کردیم که ماشین‌ها را در استدلال‌­گری با عدم‌قطعیت توانا می‌ساخت، این عرصه را ترک کردم تا وظیفه چالش‌برانگیزاننده‌تری را دنبال کنم: استدلال­گری با علّیت. بسیاری از همکاران من هنوز هم با عدم‌قطعیت درگیر هستند. هنوز هم هستند انجمن های پژوهشی که به کار تشخیص (عیب‌­یابی) ادامه می‌دهند بدون اینکه در مورد وجوه علّی مسئله نگران باشند. تنها کاری که آنها می‌خواهند انجام دهند این است که به خوبی پیش‌بینی کنند و به‌خوبی تشخیص دهند.

می‌توانم برای شما مثالی بزنم. همه کارهای که ما امروزه دربارۀ یادگیری ماشین می‌بینیم در حالت تشخیصی انجام می‌شود –مثلاً برچسب‌گذاری اشیاء به عنوان “گربه” یا “ببر”. آنها به مداخلات اهمیت نمی‌دهند؛ آنها تنها می‌خواهند که یک شیء را تشخیص دهند و پیش‌بینی کنند که در طول زمان چگونه رشد خواهد یافت.

زمانی از این جریان جدا شدم که ابزار قدرتمندی برای پیش‌بینی و تشخیص مطرح کردم و فهمیدم که این صرفاً قسمت کوچکی از هوش انسانی است. اگر از ماشین‌ها بخواهیم که در مورد مداخلات (“چه می‌شود اگر سیگار را ممنوع کنیم؟”) و یا درون‌نگری (“چه اتفاقی می‌افتاد اگر دبیرستان را تمام کرده بودم؟”) استدلال کنند، باید دستِ طلب به سمتِ مدل‌های علّی دراز کنیم. صِرفِ کشفِ ارتباطِ میان امور کافی نیست- این حقیقتی ریاضیاتی است، نه نظری شخصی.

 

مردم نسبت به بدیلهای ممکنِ هوش مصنوعی هیجان‌زده هستند. آیا شما این‌گونه نیستید؟

هرچقدر به کارهایی که با یادگیری عمیق انجام می‌شود نگاه می‌کنم، می‌بینم که آنها در سطح ارتباط [میانِ داده‌­ها] گیر کرده‌اند: یعنی نهایتاً درگیرِ برازش منحنی‌اند. البته به نظر توهین می‌آید که بگوییم که تنها دستاورد چشمگیر یادگیری عمیق، تنها برازش یک منحنیِ داده بوده است. از دیدِ نظامِ سلسله‌مراتبی ریاضیات، مهم نیست که شما چقدر با مهارت داده‌ها را دستکاری کنید و هنگامی که این کار را می‌کنید چه چیزی را به داده اضافه می‌کنید، این کار باز هم تنها یک تمرین برازش منحنی است، گرچه کاری پیچیده و غیربدیهی باشد.

با توجه به نحوه صحبت کردن شما در مورد برازش منحنی، به نظر می‌رسد که شما اصلاً تحت‌تأثیر یادگیری ماشین قرار نگرفته‌اید.

نه، اتفاقاً خیلی هم تحت‌تأثیر قرار گرفته‌ام، زیرا ما انتظار نداشتیم که اینهمه مسئله تنها با یک برازش منحنی حل شود. و البته ثابت شد که می‌توان این کار را انجام داد. اما من در مورد آینده سؤال می‌پرسم – پس از آن چه می‌شود؟ آیا شما می‌توانید یک روبات دانشمند داشته باشید که یک آزمایش را طراحی کند و پاسخ‌های جدیدی برای سؤالات علمی کنونی پیدا کند؟ این همان گام بعدی است. ما همچنین می‌خواهیم که با یک ماشین، ارتباطات معنادار برقرار کنیم و معنادار یعنی با شهود ما هم‌خوانی داشته باشد. اگر شما روبات خود را از علّیت محروم کنید، شما هیچ‌گاه قادر به این ارتباط معنادار نخواهید بود. روبات‌ها نمی‌توانند بگویند، “من باید بهتر عمل می‌کردم”، همانطور که من و شما می‌گوییم. و به این ترتیب ما یک کانال ارتباطی مهم را از دست می‌دهیم.

 

در مورد وجودِ ماشین‌هایی که واجدِ شهودِ علّی ما هستند چه دورنمایی دارید؟

ما باید ماشین‌ها را با مدلی از محیط اطراف مجهز کنیم. اگر یک ماشین مدلی از واقعیت نداشته باشد، شما نمی‌توانید از آن انتظار داشته باشید که در آن شرایط واقعی هوشمندانه عمل کند. اولین قدم، یعنی قدمی که شاید طی 10 سال آینده به وقوع بپیوندد، این است که آدمی [بالأخره] برنامۀ مدل‌های ادراکیِ مبتنی بر واقعیت را خواهد نوشت.

قدم بعدی این است که ماشین‌ها این مدل‌ها را خودشان مفروض بگیرند و آنها را براساس شواهد تجربی، تأیید و یا اصلاح کنند. این همان اتفاقی است که برای علم افتاد؛ یعنی نخست با مدل زمین‌مرکزی با دوایرِ (افلاکِ) تو-در-تو و فلک تدویر شروع کردیم، و درنهایت به مدلِ خورشیدمرکزی با مداراتِ بیضوی آن رسیدیم.

روبات‌ها هم با یکدیگر ارتباط خواهند داشت و این دنیای فرضی و وحشیِ مدل‌های استعاره‌ای را ترجمه خواهند کرد.

 

زمانیکه شما این ایده‌ها را با کسانی که امروزه در حوزه هوش مصنوعی کار می‌کنند به اشتراک می‌گذارید، آنها چه واکنشی نشان می‌دهند؟

امروزه هوش مصنوعی تقسیم‌بندی شده است، نخست آن دسته از افرادی که سخت مدهوشِ موفقیت‌های یادگیری ماشین، یادگیری عمیق و شبکه‌های عصبی شده اند. آنها نمی‌دانند که من چه می‌گویم. آنها می‌خواهند به برازش منحنی خود ادامه دهند. اما زمانیکه با افرادی صحبت می‌کنم که کاری در حوزه‌ای به غیر از یادگیری آماری در هوش مصنوعی انجام داده‌اند، آنها سریعاً متوجه می‌شوند. من در دو ماه اخیر چندین مقاله در مورد محدودیت‌های یادگیری ماشین مطالعه کرده‌ام.

 

آیا شما قائل­اید که روند رو به رشدی به دور از یادگیری ماشین در میان است؟

نه یک روند، بلکه یک تلاش برای جستجوی خودکاوانه (soul-searching) و جدّی که چنین پرسش­هایی را در دل خود دارد: ما به کجا می‌رویم؟ قدم بعدی ما چیست؟

 

این آخرین چیزی بود که می‌خواستم از شما بپرسم.

خوشحالم که شما در مورد اراده آزاد (=اختیار) نپرسیدید.

 

پس نظرتان در مورد اراده آزاد (اختیار) چیست؟

ما مطمئناً روبات‌هایی خواهیم داشت که اراده آزاد (اختیار) دارند. ما باید بفهمیم که چطور آنها را برنامه‌ریزی کنیم و چه چیزی از آن بدست آوریم. به دلایلی، تکامل [خودِ ما] این احساسِ ارادۀ آزاد (=اختیار) شکل یافته که از نظر محاسباتی نیز مطلوب است.

 

به چه صورتی؟

شما احساس اختیار می کنید؛ [در واقع] تکامل ما را به این احساس مجهز کرده است. ظاهراً، به دردِ  عملکردهای محاسباتی نیز می‌خورد.

 

آیا زمانی که روبات‌ها اراده آزاد (اختیار) دارند، این مطلب واضح خواهد بود؟

گمان می‌کنم زمانیکه روبات‌ها شروع کنند که با یکدیگر به صورت خلاف واقع، ارتباط برقرار کنند واضح خواهد بود مثلاً زمانی که بتوانند به یکدیگر بگویند “تو باید بهتر از این عمل می‌کردی”. اگر یک گروه از روبات‌ها که با یکدیگر فوتبال بازی می‌کنند، با یکدیگر به این زبان صحبت کنند، ما می‌فهمیم که آنها حس اراده آزاد (اختیار) دارند: “تو باید به من پاس می‌دادی – من منتظر تو بودم و تو این کار را نکردی!” عبارت “تو باید این کار را می‌کردی” به این معناست که تو می‌توانستی بر عملکرد قبلی خود کاری کنی، ما این کار را نکردی. پس اولین نشانه، برقراری ارتباط است؛ و نشانه بعدی، ارائۀ بازیِ بهتر است.

 

حالا که شما اراده آزاد (=اختیار) را پیش کشیدید، فکر کنم باید از شما در مورد ظرفیت ارتکاب شرارت هم بپرسم، که عموماً تصور بر این است که این امر حاصلِ داشتنِ توانایی در انتخاب است. واقعاً شرارت چیه؟

این باور است که طمع یا نارضایتی شما، همه هنجارهای استاندارد جامعه را عوض می‌کند. برای مثال، شخصی چیزی را دارد که بسیار شبیه یک ماژول نرم‌افزاری­ایی است که می‌گوید، “شما گرسنه هستید، بنابراین شما این اجازه را دارید که طمع و یا نارضایتی خود را برآورده کنید.” اما شما ماژول‌های نرم‌افزاری­ دیگری دارید که به شما آموزش می‌دهد که قوانین استاندارد جامعه را دنبال کنید. یکی از آنها شفقت نامیده می‌شود. هنگامی که شما نارضایتی خود را فراتر از هنجارهای عمومی [جامعه] ببرید، به آن شرارت می‌گویند.

 

پس ما چگونه خواهیم فهمید که هوش مصنوعی قادر به شرارت­‌گری است؟

هنگامی که برای ما روشن می‌شود که مؤلفه­های نرم‌افزاری­ایی وجود داشته که روبات مکرراً از آنها چشم‌پوشی می­کنند. نیز هنگامی که روشن می‌شود که روبات از توصیۀ برخی مؤلفه­های نرم‌افزاری پیروی کرده و از برخی دیگر پیروی نکرده، و هنگامیکه روبات توصیۀ مؤلفه­هایی را در نظر نگیرد که حافظِ هنجارهای رفتاری­ای بوده که در آنها برنامه‌ریزی شده و یا انتظار می‌رود که براساسِ یادگیریِ گذشته در آنجا حضور داشته باشند؛ یعنی هنگامی که روبات، دیگر از آنها پیروی نکند.

 

 

منبع

اشتراک مقاله

خبرنامه

درج نظر

خبرنامه شناخت پژوه

دریافت نکات برجسته از مهم ترین اخبار ارسال شده به صندوق ورودی ایمیل شما